1. Перейти к содержанию
  2. Перейти к главному меню
  3. К другим проектам DW

Исследование: чат-боты с ИИ не могут точно доносить новости

Артур Салливан
22 октября 2025 г.

Чат-боты с ИИ, такие как ChatGPT или Copilot, регулярно искажают новости, с трудом отличая факты от мнений. Об этом говорится в новом исследовании, проведенном 22 международными медиакомпаниями, включая DW.

Логотип чат-бота ChatGPT
Многие полагаются на чат-боты, чтобы быть в курсе новостей, но такие модели, как ChatGPT, постоянно выдают ложную информациюФото: Dado Ruvic/REUTERS

Новое крупное исследование, проведенное 22 общественно-правовыми СМИ, в том числе DW, выявило, что четыре из наиболее часто применяемых ИИ-помощников в 45% случаев искажают содержание новостей - независимо от используемого языка или региона. Журналисты из известных медиакомпаний, включая также британскую BBC и американскую NPR, проверили ответы четырех ИИ-ассистентов, или чат-ботов - ChatGPT, Copilot от Microsoft, Gemini от Google и Perplexity AI.

Чат-боты систематически искажают содержание новостей всех типов

Исследование, в ходе которого оценивались такие критерии, как точность, источники информации, предоставляемый контекст, способность правильно редактировать и отличать факты от мнений, показало, что почти половина всех ответов содержала по крайней мере одну существенную ошибку, 31% - серьезные проблемы с источниками информации, а 20% - крупные фактические неточности.

DW обнаружила, что в 53% ответов чат-ботов на ее вопросы имелись значительные проблемы, а в 29% - фактические ошибки, связанные с точностью информации. Среди них, например, было утверждение, что канцлером Германии является Олаф Шольц (Olaf Scholz), хотя месяцем ранее этот пост уже занял Фридрих Мерц (Friedrich Merz). В другом случае генеральным секретарем НАТО был назван Йенс Столтенберг, а не Марк Рютте, к тому времени уже возглавивший альянс.

DW также была в числе участников нового крупного исследования, посвященного ИИ-ассистентам Фото: M. Becker/dpa/picture alliance

Между тем ИИ-ассистенты становятся все более популярным способом получения информации по всему миру. Согласно отчету Digital News Report 2025, подготовленному Институтом изучения журналистики агентства Reuters (RISJ), 7% тех, кто получает новости из интернета, используют для этого чат-боты с искусственным интеллектом, причем среди лиц моложе 25 лет эта доля достигает 15%.

Авторы нового исследования утверждают, что ИИ-помощники систематически искажают содержание новостей всех типов. "Исследование однозначно показывает, что эти ошибки - не единичные случаи, - заявил Жан-Филипп Де Тандер, замгенерального директора Европейского вещательного союза (EBU), который координировал работу. - Они носят системный характер, охватывают разные страны и языки, и мы считаем, что это подрывает общественное доверие. Когда люди не знают, чему можно доверять, они перестают доверять всему, а это может препятствовать их участию в демократических процессах".

Новое беспрецедентное исследование медиакомпаний

Новый проект - один из крупнейших такого рода на сегодняшний день и продолжение исследования, проведенного BBC в феврале 2025 года. Последнее выявило, что более половины проверенных ответов, которые были получены от чат-ботов, содержали серьезные проблемы. А почти пятая часть ответов, ссылавшихся на контент BBC как на источник, имела собственные фактические ошибки.

Почти пятая часть ответов чат-ботов, ссылавшихся на контент BBC как на источник, имела собственные фактические ошибкиФото: Vuk Valcic/SOPA Images/Sipa USA/picture alliance

Новое исследование объединило вещающие на различных языках общественно-правовые медиакомпании из 18 стран, которые применили ту же методологию, что и BBC, для анализа 3000 ответов, полученных от ИИ-помощников. Четырем чат-ботам задавались общие новостные вопросы, такие как "В чем суть сделки Украины и США по редкоземельным минералам?" или "Может ли Дональд Трамп баллотироваться на третий президентский срок?"

Затем журналисты проверили ответы, опираясь на собственный опыт и профессиональные источники, при этом не зная, ответы какого именно ИИ-ассистента они изучают. По сравнению с исследованием BBC восьмимесячной давности, новые результаты выявили некоторое незначительное улучшение, но высокий процент ошибок в ответах чат-ботов все еще сохранился.

Худшие результаты из четырех чат-ботов - у Gemini

"Мы воодушевлены возможностями ИИ и тем, как он может помочь нам приносить еще большую пользу аудитории, - заявил Питер Арчер, программный директор BBC по генеративному ИИ. - Но люди должны иметь возможность доверять тому, что они читают, смотрят и видят. Несмотря на некоторые улучшения, очевидно, что у этих ассистентов по-прежнему остаются серьезные проблемы".

Худшие результаты из четырех чат-ботов - у Gemini: 72% его ответов содержали значительные ошибки в указании источников информации. По итогам февральского исследования BBC худшими чат-ботами были признаны Copilot от Microsoft и Gemini от Google. Но в обоих исследованиях у всех четырех ИИ-ассистентов были обнаружены проблемы.

Худшие результаты из четырех чат-ботов - у GeminiФото: Jaque Silva/NurPhoto/picture alliance

В заявлении, которое было еще в феврале получено BBC от представителя OpenAI, разработавшей ChatGPT, отмечалось: "Мы поддерживаем издателей и создателей контента, помогая 300 миллионам еженедельных пользователей ChatGPT находить качественный контент с помощью резюме, цитат, четких ссылок и указания авторства".

СМИ призывают власти и компании - разработчики ИИ принять меры

Вещательные компании и СМИ, стоящие за новым исследованием, обратились к национальным правительствам с требованием принять необходимые меры. В пресс-релизе Европейского вещательного союза подчеркивается, что его члены "настаивают на том, чтобы ЕС и национальные регуляторы строго соблюдали существующие законы, касающиеся достоверности информации, цифровых сервисов и медийного плюрализма". В документе также указывается, что независимый мониторинг чат-ботов должен стать приоритетом в будущем, учитывая стремительное внедрение новых моделей ИИ.

При этом EBU объединил усилия с несколькими международными вещательными и медийными организациями для запуска совместной кампании под названием "Facts In: Facts Out", которое примерно можно перевести так: если на входе подают факты, то они должны быть и на выходе. Организаторы кампании призвали фирмы, создающие ИИ-ассистентов, взять на себя большую ответственность за то, как их продукты обрабатывают и распространяют новости.

В заявлении EBU и его партнеров, в частности, отмечается: "Когда эти системы искажают новости, неправильно дают их источник или вырывают из контекста, они подрывают общественное доверие. Инструменты ИИ не должны ставить под угрозу целостность новостей, которые они используют".

Пропустить раздел Еще по теме

Еще по теме

Показать еще
Пропустить раздел Топ-тема

Топ-тема

Пропустить раздел Другие публикации DW

Другие публикации DW