Ввести обязательную маркировку контента, созданного с помощью искусственного интеллекта, предлагают в России. А ещё – установить уголовную ответственность за распространение дипфейков без согласия изображённого человека. Насколько реально будет промаркировать ИИ-контент и как оценивают эту инициативу эксперты – в материале Добро.Медиа.
Фото: Freepik
Разработкой закона об обязательной маркировке ИИ-контента занимаются Минцифры, Роскомнадзор и другие профильные ведомства. Такими мерами хотят бороться с цифровой подменой фото- и видеоизображений людей (ИИ-дипфейками), защищать пользователей от недостоверной информации и мошенников.
За ИИ-дипфейки в Институте социально-экономического анализа и программ развития (ИСАПР) уже предлагали ввести штрафы, аналогичные тем, что грозят за незаконную обработку персональных данных. Напомним, они составляют от 10 тысяч до 15 тысяч рублей для обычных россиян, от 50 тысяч до 100 тысяч рублей – для должностных лиц и от 150 тысяч до 300 тысяч рублей – для юрлиц. А теперь намерены ввести и уголовную ответственность, если дипфейки причинили человеку вред.
Проблема в том, что на сегодня не существует единого понятийного аппарата. Это значит, что нет юридических терминов «дипфейк», «искусственный интеллект» и «синтетический контент». В Минцифры сейчас заняты разработкой такой терминологии.
Гарантированного способа отличить промаркированный ИИ-контент от немаркированного пока нет. Об этом говорит директор Института социально-экономического анализа и программ развития Андрей Шуриков. Но можно выявлять значительную часть такого контента: есть сервисы, которые умеют проверять видео и изображения на предмет использования ИИ.
Михаил Копнин, директор департамента IT DCLogic, не видит смысла маркировать весь контент, созданный с помощью нейросетей. К примеру, для большинства пользователей не принципиально, что маршрут в навигаторе построен алгоритмами ИИ. А что касается борьбы со злонамеренным использованием ИИ, маркировка вряд ли будет эффективной. Те, кто создаёт ИИ-дипфейки и другой вредоносный контент, правила соблюдать не будут.
Директор проектов Minerva Result в компании Minervasoft Денис Кучеров считает, что механизмы маркирования обязательно нужно применять в медиапространстве. Но важно, чтобы это была не просто маркировка ИИ-контента, а системный фактчекинг.
Андрей Шуриков уверен, что обязательная маркировка повысит не только уровень отслеживаемости вредоносного контента, но и ответственность людей, использующих ИИ. Технически отследить первоисточник дипфейка сложно, но распространителей выявлять можно без труда, считает он.
Инициатива введения маркировки ИИ-контента имеет своё законное место и обоснование, как морально-этическое, так и правовое, уверена юрист, специалист по авторскому праву Анастасия Черкасова.
В первую очередь, пользователи имеют право знать, что контент создан не человеком, имеющим соответствующие образование, опыт и знания в определенной сфере, а нейросетью.
Изображение сгенерировано при помощи нейросети / Freepik
«Маркировка даёт понять, что в контенте отсутствует (или частично отсутствует) творческий труд – есть только набор технических алгоритмов. Да, это может быть красиво, полезно и просто, но творческий труд автора это никогда не заменит. Это в принципе совершенно разные способы создания контента», – прокомментировала Добро.Медиа Анастасия Черкасова.
По её мнению, изменения в первую очередь коснутся СМИ. С точки зрения «Закона об информации» и «Закона о рекламе» обязательная маркировка позволит защитить потребителей от недостоверной информации. А её может быть много: ИИ собирает данные из разных неконтролируемых источников, вероятность ошибок огромна. Именно поэтому весь ИИ-контент нужно проверять. Маркировка также поможет соблюсти все положения части 4 ГК РФ «Авторское право».
«Что касается проблем, связанных с внедрением такой маркировки, я бы отметила применение закона на практике и вопрос доказывания при возникновении споров. В такой сфере отследить использование ИИ-технологий может быть затруднительно, зачастую это возможно только при участии хороших ИТ-специалистов, – говорит юрист. – Ещё один важный вопрос – определение ответственного лица. Кто это – создатель ИИ-контента или распространитель?»
Чтобы маркировка ИИ-контента стала обязательной, потребуется внести изменения в Гражданский кодекс, в законы «Об информации», «О рекламе», «О защите детей от информации, причиняющей вред».
«Полностью все проблемы это не решит, но правовое регулирование в этой сфере необходимо, поскольку само явление – ИИ-контент – есть, а правовое регулирование отсутствует в принципе», – резюмирует Анастасия Черкасова.
Ранее мы писали, как мошенники используют ИИ для атаки на фанатов Сарика Андреасяна.
Источник: «Известия»
0
0
0
0 комментариев
Оставляя комментарий, вы принимаете Условия использования и Политику конфиденциальности