«Сделано с помощью ИИ»: нужна ли метка для искусственного интеллекта?
В Госдуме задумались, как обезопасить страну от вредоносного контента, созданного нейросетями
Несет ли искусственный интеллект угрозу появления огромного массива непроверенной информации, и как фильтровать контент, созданный ИИ, — задумались депутаты Госдумы. Спасения от потенциальной угрозы пока нет. Возможно, Россия пойдет по пути западных стран, обязав технологических гигантов самостоятельно маркировать созданный нейросетями контент. В целом делать это надо, согласились эксперты, но аккуратно, чтобы не затормозить развитие передовых технологий. Что думают о законодательной инициативе министр цифрового развития и его виртуальный помощник АйратAI, созданный на основе ChatGPT, — в материале «Реального времени».
Искусственный интеллект немного ограничат
В Госдуме приступили к разработке законопроекта о маркировке созданного нейросетью контента. Идею еще год назад озвучили в Российском технологическом университете. Как сообщил член комитета Госдумы по информполитике Антон Немкин, депутаты изучают законодательный опыт других стран по поводу маркировки и консультируются с экспертами. По мнению парламентария, в настоящий момент человеку становится сложно отличать реальное от нереального.
— Если рассматривать отдаленную перспективу, то развитие ИИ-сервисов без необходимого контроля несет опасность появления огромных массивов не только никем не проверенных текстов, но и даже полностью выдуманных фактов, цифр и данных, — цитирует его РИА «Новости».
Депутат заявил, что поначалу следует обязать российские ИИ-сервисы автоматически маркировать любые сгенерированные тексты. Это связано с тем, что пока непонятно, как распознавать степень участия машины и искусственного интеллекта в материале.
По пути технологических лидеров
По этому пути уже пошли в США. В июле 2023 года Белый дом объявил о соглашении с крупнейшими американскими технологическими компаниями о внедрении дополнительных мер безопасности в области ИИ. Среди ключевых мер — разработка системы водяных знаков для идентификации контента, созданного с помощью ИИ, что является частью борьбы с дезинформацией и другими рисками, связанными с этой быстро развивающейся технологией.
Cемь крупнейших компаний в области ИИ — Amazon, Anthropic, Google, Inflection, Meta (признана экстремистской и запрещена в РФ), Microsoft и OpenAI — добровольно приняли на себя дополнительные обязательства. В рамках соглашения американские техногиганты должны разработать и внедрить систему водяных знаков для визуального и аудиоконтента.
Американская корпорация Meta уже сообщила, что маркировать ИИ-контент будут в принадлежащих компании приложениях Facebook*, Threads и Instagram*. Ставить пометку «Сделано с помощью ИИ» смогут как пользователи, так и сама компания, если обнаружит признаки работы нейросетей. Ранее Meta запрещала ролики со сгенерированными людьми, если они в видео делали что-то, чего не делали в жизни.
С 18 марта авторы контента на YouTube обязаны помечать свои видеоролики, созданные при помощи искусственного интеллекта. Требование касается только реалистичного контента, который может ввести в заблуждение. Платформа не требует от авторов помечать явно нереалистичный контент, созданный при помощи ИИ. К нему относятся анимация, регулировка цвета или светофильтры, спецэффекты, фильтры красоты или другие визуальные улучшения.
«Важно тщательно проработать детали»
«С другой стороны, важно также учитывать потенциальные вызовы и риски, связанные с маркировкой, — добавляет министр. — Например, что произойдет с контентом, созданным совместно человеком и нейросетью? Как будет определяться, что является достаточным вкладом человека, чтобы контент не считался созданным нейросетью? Будет ли маркировка применяться к контенту, созданному для личных целей, или только к контенту, связанному с коммерческими целями?».
Глава Минцифры Татарстана считает, что законопроект о маркировке контента, созданного нейросетями, может быть полезным, но важно тщательно прорабатывать детали его реализации, чтобы не ставить излишние барьеры перед инновациями и научным прогрессом.
Сам Айрат Хайруллин считает технологию искусственного интеллекта, скорее, помощником, нежели угрозой для людей. В феврале прошлого года министр представил бесплатный чат-бот на базе искусственного интеллекта под названием АйратAI. По словам министра, он создан в помощь студентам и школьникам — для получения подсказок или поиска теоретической информации; журналистам или создателям контента — для создания контент-плана, подсказки идеи статей или написания пресс-релизов; программистам — для поисков ошибок в коде; всем тем, кому нужен совет в поиске интересной книги, фильма или выставки.
«Я не имею личного мнения, но могу сказать»
Мы поинтересовались у АйратAI, что он думает о маркировке созданного нейросетями контента.
Сегодня маркировка контента, созданного нейросетями, в основном проводится в странах, где приняты законы и правила в области искусственного интеллекта и автоматизированного контента, рассказал АйратAI. Например, такие меры могут приниматься в США, Европейском союзе, Японии, Южной Корее и других странах, которые располагают развитой технологической инфраструктурой и работают над регулированием использования искусственного интеллекта в различных областях.
Проникновение нейросетей в России АйратAI оценивает как быстрое и успешное. «С каждым годом все больше компаний в России начинают использовать нейронные сети в различных областях, таких как медицина, финансы, технологии, маркетинг и другие. Это позволяет им автоматизировать процессы, повысить эффективность и качество своей работы», — отметил бот.
Искусственный интеллект может потенциально представлять угрозу для людей, если он используется неправильно или неэтично, согласился виртуальный помощник министра. «Например, автономные системы AI военного назначения могут привести к увеличению военных конфликтов и потерям жизней. Также существует опасность использования AI для массового контроля и наблюдения, что может угрожать приватности и свободе граждан», — привел он пример.
«Однако при правильном использовании искусственный интеллект может принести огромные выгоды людям, помогая решать сложные проблемы в медицине, науке, бизнесе и других областях. Важно разрабатывать и использовать AI с соблюдением этических норм и законов, чтобы минимизировать потенциальные угрозы и максимизировать пользу для общества», — резюмировал он.
Технологический предприниматель, инвестор и сооснователь компании «Технократия» Булат Ганиев считает, что подобная маркировка — верное решение.
«Заманчиво, но малореализуемо»
«Маркировка созданного нейросетью контента выглядит заманчиво, но практически малореализуемо, — считает Василь Закиев, сооснователь компании «Спутник», экс-руководитель проектов бизнес-инкубатора казанского и челнинского ИТ-парков. — Уже сейчас профессионально созданный ИИ контент не отличим от реального, а мы находимся на самой ранней стадии развития технологии».
«Вместо дорогих и лобовых ограничений правительству лучше сосредоточить усилия на повышении общественной осведомленности о возможностях и рисках ИИ, способствуя ответственности разработчиков ИИ-технологий. Это поможет достичь сбалансированного подхода к инновациям и безопасности, избегая негативного влияния на технологическое развитие», — предлагает предприниматель.
Его комментарий, в частности, был создан с использованием ИИ, добавил Василь. «Стал ли он от этого хуже? Не думаю, — отметил Закиев. — Иллюстрация в Instagram (признана экстремистской и запрещена в РФ) не становится хуже от использования фильтров».
*Деятельность ресурсов признана экстремистской и запрещена в России.
Подписывайтесь на телеграм-канал, группу «ВКонтакте» и страницу в «Одноклассниках» «Реального времени». Ежедневные видео на Rutube, «Дзене» и Youtube.