Этика и безопасность при работе с ИИ: исчерпывающее руководство

Сегодня почти каждый слышал про ChatGPT и другие нейросети. Они умеют писать тексты, придумывать задания, составлять планы уроков и даже проверять работы. Для педагога это огромная помощь: меньше рутинной подготовки, больше времени на детей. Но вместе с удобством появляются и новые риски. Что если нейросеть выдаст неверные факты? А если произойдет утечка данных детей? Как объяснить родителям, что мы используем искусственный интеллект правильно? Именно поэтому этика и безопасность при работе с ИИ сегодня так важна. В этом руководстве блогер Добро.Медиа Дарья Романова разбирает, как минимизировать риски и использовать технологии ответственно.

Искусственный интеллект: главные этические дилеммы

1. Конфиденциальность данных

ИИ работает с информацией, которую мы ему даём. Если загрузить в нейросеть фамилии учеников, медицинские сведения или фотографии, эта информация может попасть туда, где она уже не защищена.

безопасность при работе с ИИ

Блогер Добро.Медиа Дарья Романова разбирает, как минимизировать риски и использовать технологии ответственно. Изображение сгенерировано ИИ

Пример: учитель логопед вводит в нейросеть список детей с проблемами произношения и просит составить план. Эти данные больше не под его контролем – они могут быть сохранены системой или использованы для обучения.

2. Недостоверная информация («галлюцинации»)

Нейросеть иногда выдаёт убедительные, но неверные ответы. Он не «думает» как человек, а просто комбинирует вероятные слова.

Пример: ChatGPT может придумать учебник, которого не существует, или привести статистику с ошибкой, или применить правило грамматики неверно. Если педагог использует такие данные без проверки, это вводит учеников в заблуждение.

3. Риск дискриминации и стереотипов

Если языковая модель училась на предвзятых данных, она может повторять эти же предубеждения.

Пример: вы просите придумать сюжет для сказки, а ИИ описывает только мальчика-рыцаря и девочку-принцессу, или при генерации иллюстраций «учитель» может изображаться только мужчиной, а «няня» – женщиной, закрепляя стереотипы. Поэтому безопасность при работе с ИИ важна.

4. Манипуляции и «хакерские» приёмы

Существуют специальные техники обмана ИИ: prompt hacking (когда в запрос добавляют хитрые инструкции, чтобы нейросеть раскрыла секреты) или adversarial атаки (искажение картинок или текста так, чтобы ИИ «ошибся»). Для педагога это потому, что подростки могут экспериментировать с такими методами и получать запретную и вредоносную информацию.

5. Ответственность за результат

ИИ может помочь составить конспект, но за содержание всё равно отвечает педагог. Если материал окажется ошибочным или некорректным, именно учитель будет нести последствия.

Чек-лист: как защитить конфиденциальность данных при использовании ИИ

  • Не вводите личные данные учеников (ФИО, адреса, медицинские сведения)
  • Не загружайте документы с «закрытой» информацией – планы уроков с внутренними пометками, материалы коллег
  • Для работы с реальными данными лучше выбирать платформы с гарантией конфиденциальности (например, корпоративные версии ChatGPT, где данные не используются для обучения)
  • Вводите только то, что действительно нужно для задачи. Например, для генерации карточек не обязательно сообщать возраст и фамилию ребёнка – достаточно указать «для детей 5 лет»
  • Никогда не указывайте имена, фамилии и конкретные данные учеников. Заменяйте их условными обозначениями («Ученик А», «Ребёнок 1»).

ТОП-6 принципов этичного искусственного интеллекта для педагогов

Фактчекинг. Любой ответ от нейросети проверяйте. Особенно это важно для дат, фактов и статистики, названий литературных произведений.

Обучайте детей цифровой безопасности. Расскажите детям, что нельзя делиться своими фото и личными данными в чатах с нейросетями. Это часть цифровой грамотности.

Любая информация об ученике – это конфиденциальна. Лучше не рисковать и не загружать её в публичные сервисы.

Недопущение дискриминации и стереотипов: материалы должны быть уважительными к каждому ребёнку. Нейросети иногда воспроизводят стереотипы – педагог обязан это отследить.

Будьте честны с родителями и детьми: педагог не должен скрывать, что часть материалов создана с помощью нейросети. Это не снижает ценность его работы, а формирует доверие.

Нейросеть – это инструмент. За точность, корректность и воспитательное значение материала отвечает учитель. И ответственность за неверную информацию лежит тоже на педагоге.

Искусственный интеллект: закон об ИИ

Единого закона об ИИ в России пока нет, но он готовится. В ближайшие годы появятся чёткие правила: где можно использовать нейросети, кто отвечает за ошибки и как отмечать материалы, созданные искусственным интеллектом.

На что опираться уже сейчас:

  • Закон о персональных данных (152-ФЗ). Главное правило для учителя: нельзя загружать в нейросети имена детей, их фото, адреса и любую личную информацию. Это нарушение закона
  • Закон об экспериментальных правовых режимах в сфере цифровых инноваций в Российской Федерации (258-ФЗ). Он позволяет школам и другим организациям участвовать в проектах, где тестируют новые цифровые технологии, в том числе ИИ, под контролем государства.
  • С 2024 года введены новые требования: если технология ИИ причинит вред (например, ошибка системы приведёт к ущербу), то ответственность ложится на разработчиков и операторов, а у них должно быть страхование.

Примеры из практики: этичные и проблемные способы применения ИИ

Этичные примеры

  • Учитель использует нейросеть для генерации картинок к карточкам «животные в лесу». В итоге дети получают яркий иллюстративный материал, а конфиденциальность не нарушена
  • Педагог просит ИИ придумать список загадок по теме «осень». Все задания проверяются, адаптируются под возраст группы и используются на занятии
  • Учитель вместе с детьми обсуждает: «Посмотрите, как нейросеть ответила. Верно ли это? Давайте проверим вместе».

Проблемные примеры

  • Подмена авторства: студент сдаёт диплом, написанный почти полностью ChatGPT, и скрывает этот факт
  • Утечка персональных данных: учитель загружает в ИИ таблицу с фамилиями и проблемами учеников, чтобы составить индивидуальные задания. Личные данные оказываются вне контроля и могут использоваться не по назначению
  • Педагог берёт тест, созданный нейросетью, и раздаёт детям без проверки. В результате – неправильные вопросы и путаница на занятии.

Что ждет этику ИИ в будущем? Обязательная маркировка ИИ-контента

  • Вводить обязательную маркировку ИИ-контента (например, если картинка или текст созданы нейросетью, это должна быть отметка)
  • Делить системы ИИ по уровню риска – в образовании они будут считаться повышенным риском, значит, требования будут строже
  • Возможны отдельные правила для защиты авторских прав (кому принадлежат материалы, сделанные с помощью ИИ).

ИИ – это мощный инструмент, который вошёл в нашу жизнь. Но его использование должно быть ответственным. Конфиденциальность, прозрачность, недопущение дискриминации и развитие критического мышления – это базовые правила, а этика и безопасность при работе с ИИ сегодня имеют важное значение.

В предыдущем материале я давала полный список самых лучшие нейросетей для педагога в 2025 году.

Life Образование 06.10.2025


Что ещё почитать?
Показать ещё