Сегодня почти каждый слышал про ChatGPT и другие нейросети. Они умеют писать тексты, придумывать задания, составлять планы уроков и даже проверять работы. Для педагога это огромная помощь: меньше рутинной подготовки, больше времени на детей. Но вместе с удобством появляются и новые риски. Что если нейросеть выдаст неверные факты? А если произойдет утечка данных детей? Как объяснить родителям, что мы используем искусственный интеллект правильно? Именно поэтому этика и безопасность при работе с ИИ сегодня так важна. В этом руководстве блогер Добро.Медиа Дарья Романова разбирает, как минимизировать риски и использовать технологии ответственно.
ИИ работает с информацией, которую мы ему даём. Если загрузить в нейросеть фамилии учеников, медицинские сведения или фотографии, эта информация может попасть туда, где она уже не защищена.
Блогер Добро.Медиа Дарья Романова разбирает, как минимизировать риски и использовать технологии ответственно. Изображение сгенерировано ИИ
Пример: учитель логопед вводит в нейросеть список детей с проблемами произношения и просит составить план. Эти данные больше не под его контролем – они могут быть сохранены системой или использованы для обучения.
Нейросеть иногда выдаёт убедительные, но неверные ответы. Он не «думает» как человек, а просто комбинирует вероятные слова.
Пример: ChatGPT может придумать учебник, которого не существует, или привести статистику с ошибкой, или применить правило грамматики неверно. Если педагог использует такие данные без проверки, это вводит учеников в заблуждение.
Если языковая модель училась на предвзятых данных, она может повторять эти же предубеждения.
Пример: вы просите придумать сюжет для сказки, а ИИ описывает только мальчика-рыцаря и девочку-принцессу, или при генерации иллюстраций «учитель» может изображаться только мужчиной, а «няня» – женщиной, закрепляя стереотипы. Поэтому безопасность при работе с ИИ важна.
Существуют специальные техники обмана ИИ: prompt hacking (когда в запрос добавляют хитрые инструкции, чтобы нейросеть раскрыла секреты) или adversarial атаки (искажение картинок или текста так, чтобы ИИ «ошибся»). Для педагога это потому, что подростки могут экспериментировать с такими методами и получать запретную и вредоносную информацию.
ИИ может помочь составить конспект, но за содержание всё равно отвечает педагог. Если материал окажется ошибочным или некорректным, именно учитель будет нести последствия.
Фактчекинг. Любой ответ от нейросети проверяйте. Особенно это важно для дат, фактов и статистики, названий литературных произведений.
Обучайте детей цифровой безопасности. Расскажите детям, что нельзя делиться своими фото и личными данными в чатах с нейросетями. Это часть цифровой грамотности.
Любая информация об ученике – это конфиденциальна. Лучше не рисковать и не загружать её в публичные сервисы.
Недопущение дискриминации и стереотипов: материалы должны быть уважительными к каждому ребёнку. Нейросети иногда воспроизводят стереотипы – педагог обязан это отследить.
Будьте честны с родителями и детьми: педагог не должен скрывать, что часть материалов создана с помощью нейросети. Это не снижает ценность его работы, а формирует доверие.
Нейросеть – это инструмент. За точность, корректность и воспитательное значение материала отвечает учитель. И ответственность за неверную информацию лежит тоже на педагоге.
Единого закона об ИИ в России пока нет, но он готовится. В ближайшие годы появятся чёткие правила: где можно использовать нейросети, кто отвечает за ошибки и как отмечать материалы, созданные искусственным интеллектом.
На что опираться уже сейчас:
ИИ – это мощный инструмент, который вошёл в нашу жизнь. Но его использование должно быть ответственным. Конфиденциальность, прозрачность, недопущение дискриминации и развитие критического мышления – это базовые правила, а этика и безопасность при работе с ИИ сегодня имеют важное значение.
В предыдущем материале я давала полный список самых лучшие нейросетей для педагога в 2025 году.
1
0
0
0 комментариев
Оставляя комментарий, вы принимаете Условия использования и Политику конфиденциальности