Разработчик нейросети ChatGPT — компания OpenAI — сообщила о пресечении "тайных операций" по воздействию на общественное мнение и политические процессы. Об этом сообщается в пресс-релизе от 30 мая на сайте компании. По ее утверждению, "операции влияния" с использованием ИИ-инструментов OpenAI проводили структуры из России, Китая, Ирана и Израиля.
<strong>Разработчик нейросети ChatGPT — компания OpenAI — сообщила о пресечении "тайных операций" по воздействию на общественное мнение и политические процессы. Об этом <a href="https://openai.com/index/disrupting-deceptive-uses-of-AI-by-covert-influence-operations/">сообщается</a> в пресс-релизе от 30 мая на сайте компании. По ее утверждению, "операции влияния" с использованием ИИ-инструментов OpenAI проводили структуры из России, Китая, Ирана и Израиля.</strong>
В сообщении говорится, что в последние три месяца пользователи из этих стран использовали технологии искусственного интеллекта для создания большого количества изображений и текстов на определенную тематику. В числе затрагиваемых тем — боевые действия на Украине, палестино-израильский конфликт, выборы в Индии, политическая обстановка в Европе и США. <blockquote>"Злоумышленники используют нашу платформу, чтобы улучшить свой контент и повысить эффективность работы", — <a href="https://downloads.ctfassets.net/kftzwdyauwt9/5IMxzTmUclSOAcWUXbkVrK/3cfab518e6b10789ab8843bcca18b633/Threat_Intel_Report.pdf">говорится</a> в отчете.</blockquote> Как утверждает OpenAI, в рамках "мошеннической деятельности" ИИ-инструменты использовались для различных задач.
Среди них — создание коротких комментариев и объемных статей на разных языках, перевод и корректура текста, генерация никнеймов и биографических справок для учетных записей в соцсетях, поиск и исправление ошибок в программных кодах, изучение активности пользователей в соцсетях. <h2>"Российские операции влияния"</h2> Из России, утверждает OpenAI, кампанию курировали две сети. Одна из них — Doppelganger («Двойник»). Ранее западные СМИ утверждали, что такое название носит кампания, в рамках которой под видом международных новостей в соцсетях распространяется пророссийская повестка.OpenAI в своем отчете пишет, что участники «Двойника» использовали языковые ИИ-модели для написания комментариев на английском, французском, немецком, итальянском и польском языках, после чего посты публиковались в соцсети X и на платформе 9GAG. Также в рамках этой кампании переводились и редактировались статьи на английском и французском языках, которые затем размещались на сайтах, связанных с Doppelganger. Кроме того, представители «Двойника» с помощью ИИ перерабатывали новостные тексты в публикации для Facebook (принадлежит Meta*).
Еще одна "тайная операция", которую якобы проводит Россия, была выявлена в интернете впервые, говорится в отчете OpenAI. Она носит название Bad Grammar («Плохая грамматика»). Ее участники создавали с помощью ИИ-моделей преимущественно короткие политические комментарии на русском и английском языках в Telegram, которые размещались конвеерным способом под публикациями и в ответ на сообщения других пользователей. Публикации на английском языке преимущественно создавались от лица американцев с разными политическими взглядами, русскоязычные комментарии были менее персонифицированными. Код для автоматического размещения таких публикаций Bad Grammar якобы тоже отлаживала при помощи ChatGPT.
Контент в рамках этой "операции" нацелен на аудиторию из Украины, Молдовы, стран Балтии и США. Темами комментариев, сгенерированных с помощью искусственного интеллекта, в основном становились боевые действия на Украине, политическая ситуация в Молдове и странах Балтии, а также политика США. Тема украинского конфликта была основной в русскоязычных комментариях Bad Grammar, а англоязычные в основном фокусировались на вопросах иммиграции, экономических проблемах и последних новостях — все эти темы зачастую использовались для того, чтобы оспорить необходимость поддержки США Украины.
Авторы отчета отмечают, что после теракта в "Крокус Сити Холле" в Москве часть комментариев Bad Grammar переориентировались на новую аудиторию в Telegram — групп, ориентированных на Таджикистан. В сгенерированных с помощью ИИ комментариях призывали к единству между таджиками и русскими и уважению к российским законам. <div class="intext-frame">
<a href="https://rtvi.com/news/zaharova-otvetila-na-obvineniya-v-popytkah-usilit-rossijskoe-vliyanie-v-germanii/">Захарова ответила на обвинения в попытках усилить российское влияние в Германии</a>
</div> <h2>Кампании других стран</h2> Также в отчете описаны "тайные операции", которые, как утверждает OpenAI, велись из Китая и Ирана. В случае с КНР речь идет о сети "Spamouflage" ("Спамуфляж"), представители которой, в частности, изучали активность пользователей в соцсетях, создавали тексты на китайском, английском, японском и корейском языках, которые затем размещались в соцсети X и на платформах Medium и Blogspot. Кроме того, участники "Спамуфляжа" занимались поиском и исправлением ошибок в программных кодах для управления базами данных и сайтами.
Название иранской "операции" в отчете OpenAI указано как "Международный союз виртуальных медиа". В компании утверждают, что ее представители использовали ИИ-модели для создания и перевода длинных статей, заголовков и фрагментов программного кода.
Описывая "тайную операцию", якобы проводившуюся из Израиля, OpenAI пишет, что за ней стоит компания STOIC, создающая с помощью ИИ-инструментов контент о конфликте в секторе Газа и о выборах в Индии. Из-за низкого уровня вовлеченности в рамках различных кампаний эта "операция" получила название "Zero Zenon" ("Нулевой Зенон", по имени древнегреческого основателя школы стоицизма Зенона Китийского). <h2>Итоги расследования</h2> По оценкам OpenAI, увеличить размер своей аудитории или охваты за счет ИИ-инструментов компании группам не удалось. <blockquote>"Используя шкалу <...>, которая оценивает влияние <...> от 1 (самый низкий) до 6 (самый высокий), ни одна из пяти операций, включенных в наши тематические исследования, не получила оценку выше 2", — говорится в отчете.</blockquote> В частности, участники некоторых сетей посредством ИИ-моделей OpenAI генерировали ответы на свои собственные публикации, создавая видимость активности в соцсетях. "Это отличается от привлечения подлинной активности, чего ни одна из описываемых здесь сетей не смогла добиться в значительной степени", — резюмировала компания.
Разработчик ChatGPT отметил, что сгенерированный участниками "операций" текст содержал языковые ошибки.
В OpenAI заявили, что препятствуют проведению "тайных операций влияния" с помощью своих систем безопасности, в том числе инструментов на базе искусственного интеллекта. <blockquote>"Например, мы неоднократно наблюдали случаи, когда наши модели отказывались генерировать текст или изображения, которые запрашивали исполнители", — отмечается в отчете.</blockquote> <i>*деятельность Meta по распространению Facebook и Instagram в России признана экстремистской и запрещена</i>
Свежие комментарии