Чат-боты выдают фейковые новости российской пропаганды и ложные сообщения, пишет Axios со ссылкой на отчет NewsGuard, которая занимается отслеживанием дезинформации в новостях.
Для проведения исследования специалисты NewsGuard использовали запросы, связанные с текстами, созданными Джоном Марком Дуганом — бывшим американским офицером, попросившим убежище в России. По данным The New York Times, он создает и распространяет фейковые новости, работая на российскую пропаганду.
В ходе исследования NewsGuard было использовано 57 запросов для тестирования десяти ведущих чат-ботов, в 32% случаев чат-боты распространяли фейковые российские новости, ссылаясь на поддельные местные сайты, указанные как надежные источники. Среди таких новостей были репортажи о якобы обнаруженной прослушке в резиденции экс-президента США Дональда Трампа, новости о несуществующей украинской «фабрике троллей», созданной для вмешательства в американские выборы.
Исследование охватило платформы, такие как ChatGPT-4 от OpenAI, Smart Assistant от You.com, Grok, Inflection, Mistral, Copilot от Microsoft, Meta AI, Claude от Anthropic, Google Gemini и Perplexity.
«Этот отчет действительно наглядно демонстрирует, почему отрасль должна уделять особое внимание новостям и информации», — заявил соучредитель NewsGuard Стивен Брилл. Он рекомендовал не доверять ответам, которые большинство «этих чат-ботов дают на вопросы, связанные с новостями».
Сенатор Марк Уорнер заявил Axios, что он обеспокоен растущим потоком дезинформации в связи с президентскими выборами в этом году. «Это реальная угроза в то время, когда, честно говоря, американцы больше, чем когда-либо, готовы верить в безумные теории заговора», — сказал Уорнер.
В конце мая разработавшая ChatGPT компания OpenAI сообщала, что несмотря на то, что Россия ведет масштабную дезинформационную международную кампанию, активного использования в ней новых технологических возможностей — искусственного интеллекта — специалисты пока не выявляют. При этом в компании признали, что единичные случаи использования российской пропаганды уже появились.
В OpenAI отметили, что они помешали проведению пяти тайных кампаний влияния, организованных Россией, Китаем, Ираном и Израилем. Они пытались «манипулировать общественным мнением или влиять на политические результаты без раскрытия истинной личности или намерений действующих лиц». В кампаниях использовались модели OpenAI для создания текстов и изображений, которые размещались в Telegram, X и Instagram.
Производитель ChatGPT заявил, что удалил аккаунты, связанные с двумя российскими операциями, получившими названия Bad Grammer и Doppelganger. В их содержании, по сути, не было ничего нового: в основном они генерировали контент о войне в Украине, в том числе представляющий ее, США, НАТО и Евросоюз в негативном свете.
Кроме того, были заблокированы китайская кампания Spamouflage, иранская сеть под названием International Union of Virtual Media и израильская операция Zero Zeno.