Этика и безопасность при работе с ИИ: исчерпывающее руководство
Сегодня почти каждый слышал про ChatGPT и другие нейросети. Они умеют писать тексты, придумывать задания, составлять планы уроков и даже проверять работы. Для педагога это огромная помощь: меньше рутинной подготовки, больше времени на детей. Но вместе с удобством появляются и новые риски. Что если нейросеть выдаст неверные факты? А если произойдет утечка данных детей? Как объяснить родителям, что мы используем искусственный интеллект правильно? Именно поэтому этика и безопасность при работе с ИИ сегодня так важна. В этом руководстве блогер Добро.Медиа Дарья Романова разбирает, как минимизировать риски и использовать технологии ответственно.
Искусственный интеллект: главные этические дилеммы
1. Конфиденциальность данных
ИИ работает с информацией, которую мы ему даём. Если загрузить в нейросеть фамилии учеников, медицинские сведения или фотографии, эта информация может попасть туда, где она уже не защищена.
Блогер Добро.Медиа Дарья Романова разбирает, как минимизировать риски и использовать технологии ответственно. Изображение сгенерировано ИИ
Пример: учитель логопед вводит в нейросеть список детей с проблемами произношения и просит составить план. Эти данные больше не под его контролем – они могут быть сохранены системой или использованы для обучения.
2. Недостоверная информация («галлюцинации»)
Нейросеть иногда выдаёт убедительные, но неверные ответы. Он не «думает» как человек, а просто комбинирует вероятные слова.
Пример: ChatGPT может придумать учебник, которого не существует, или привести статистику с ошибкой, или применить правило грамматики неверно. Если педагог использует такие данные без проверки, это вводит учеников в заблуждение.
3. Риск дискриминации и стереотипов
Если языковая модель училась на предвзятых данных, она может повторять эти же предубеждения.
Пример: вы просите придумать сюжет для сказки, а ИИ описывает только мальчика-рыцаря и девочку-принцессу, или при генерации иллюстраций «учитель» может изображаться только мужчиной, а «няня» – женщиной, закрепляя стереотипы. Поэтому безопасность при работе с ИИ важна.
4. Манипуляции и «хакерские» приёмы
Существуют специальные техники обмана ИИ: prompt hacking (когда в запрос добавляют хитрые инструкции, чтобы нейросеть раскрыла секреты) или adversarial атаки (искажение картинок или текста так, чтобы ИИ «ошибся»). Для педагога это потому, что подростки могут экспериментировать с такими методами и получать запретную и вредоносную информацию.
5. Ответственность за результат
ИИ может помочь составить конспект, но за содержание всё равно отвечает педагог. Если материал окажется ошибочным или некорректным, именно учитель будет нести последствия.
Чек-лист: как защитить конфиденциальность данных при использовании ИИ
- Не вводите личные данные учеников (ФИО, адреса, медицинские сведения)
- Не загружайте документы с «закрытой» информацией – планы уроков с внутренними пометками, материалы коллег
- Для работы с реальными данными лучше выбирать платформы с гарантией конфиденциальности (например, корпоративные версии ChatGPT, где данные не используются для обучения)
- Вводите только то, что действительно нужно для задачи. Например, для генерации карточек не обязательно сообщать возраст и фамилию ребёнка – достаточно указать «для детей 5 лет»
- Никогда не указывайте имена, фамилии и конкретные данные учеников. Заменяйте их условными обозначениями («Ученик А», «Ребёнок 1»).
ТОП-6 принципов этичного искусственного интеллекта для педагогов
Фактчекинг. Любой ответ от нейросети проверяйте. Особенно это важно для дат, фактов и статистики, названий литературных произведений.
Обучайте детей цифровой безопасности. Расскажите детям, что нельзя делиться своими фото и личными данными в чатах с нейросетями. Это часть цифровой грамотности.
Любая информация об ученике – это конфиденциальна. Лучше не рисковать и не загружать её в публичные сервисы.
Недопущение дискриминации и стереотипов: материалы должны быть уважительными к каждому ребёнку. Нейросети иногда воспроизводят стереотипы – педагог обязан это отследить.
Будьте честны с родителями и детьми: педагог не должен скрывать, что часть материалов создана с помощью нейросети. Это не снижает ценность его работы, а формирует доверие.
Нейросеть – это инструмент. За точность, корректность и воспитательное значение материала отвечает учитель. И ответственность за неверную информацию лежит тоже на педагоге.
Искусственный интеллект: закон об ИИ
Единого закона об ИИ в России пока нет, но он готовится. В ближайшие годы появятся чёткие правила: где можно использовать нейросети, кто отвечает за ошибки и как отмечать материалы, созданные искусственным интеллектом.
На что опираться уже сейчас:
- Закон о персональных данных (152-ФЗ). Главное правило для учителя: нельзя загружать в нейросети имена детей, их фото, адреса и любую личную информацию. Это нарушение закона
- Закон об экспериментальных правовых режимах в сфере цифровых инноваций в Российской Федерации (258-ФЗ). Он позволяет школам и другим организациям участвовать в проектах, где тестируют новые цифровые технологии, в том числе ИИ, под контролем государства.
- С 2024 года введены новые требования: если технология ИИ причинит вред (например, ошибка системы приведёт к ущербу), то ответственность ложится на разработчиков и операторов, а у них должно быть страхование.
Примеры из практики: этичные и проблемные способы применения ИИ
Этичные примеры
- Учитель использует нейросеть для генерации картинок к карточкам «животные в лесу». В итоге дети получают яркий иллюстративный материал, а конфиденциальность не нарушена
- Педагог просит ИИ придумать список загадок по теме «осень». Все задания проверяются, адаптируются под возраст группы и используются на занятии
- Учитель вместе с детьми обсуждает: «Посмотрите, как нейросеть ответила. Верно ли это? Давайте проверим вместе».
Проблемные примеры
- Подмена авторства: студент сдаёт диплом, написанный почти полностью ChatGPT, и скрывает этот факт
- Утечка персональных данных: учитель загружает в ИИ таблицу с фамилиями и проблемами учеников, чтобы составить индивидуальные задания. Личные данные оказываются вне контроля и могут использоваться не по назначению
- Педагог берёт тест, созданный нейросетью, и раздаёт детям без проверки. В результате – неправильные вопросы и путаница на занятии.
Что ждет этику ИИ в будущем? Обязательная маркировка ИИ-контента
- Вводить обязательную маркировку ИИ-контента (например, если картинка или текст созданы нейросетью, это должна быть отметка)
- Делить системы ИИ по уровню риска – в образовании они будут считаться повышенным риском, значит, требования будут строже
- Возможны отдельные правила для защиты авторских прав (кому принадлежат материалы, сделанные с помощью ИИ).
ИИ – это мощный инструмент, который вошёл в нашу жизнь. Но его использование должно быть ответственным. Конфиденциальность, прозрачность, недопущение дискриминации и развитие критического мышления – это базовые правила, а этика и безопасность при работе с ИИ сегодня имеют важное значение.
В предыдущем материале я давала полный список самых лучшие нейросетей для педагога в 2025 году.
