Исследование: чат-боты с ИИ не могут точно доносить новости
22 октября 2025 г.
Новое крупное исследование, проведенное 22 общественно-правовыми СМИ, в том числе DW, выявило, что четыре из наиболее часто применяемых ИИ-помощников в 45% случаев искажают содержание новостей - независимо от используемого языка или региона. Журналисты из известных медиакомпаний, включая также британскую BBC и американскую NPR, проверили ответы четырех ИИ-ассистентов, или чат-ботов - ChatGPT, Copilot от Microsoft, Gemini от Google и Perplexity AI.
Чат-боты систематически искажают содержание новостей всех типов
Исследование, в ходе которого оценивались такие критерии, как точность, источники информации, предоставляемый контекст, способность правильно редактировать и отличать факты от мнений, показало, что почти половина всех ответов содержала по крайней мере одну существенную ошибку, 31% - серьезные проблемы с источниками информации, а 20% - крупные фактические неточности.
DW обнаружила, что в 53% ответов чат-ботов на ее вопросы имелись значительные проблемы, а в 29% - фактические ошибки, связанные с точностью информации. Среди них, например, было утверждение, что канцлером Германии является Олаф Шольц (Olaf Scholz), хотя месяцем ранее этот пост уже занял Фридрих Мерц (Friedrich Merz). В другом случае генеральным секретарем НАТО был назван Йенс Столтенберг, а не Марк Рютте, к тому времени уже возглавивший альянс.
Между тем ИИ-ассистенты становятся все более популярным способом получения информации по всему миру. Согласно отчету Digital News Report 2025, подготовленному Институтом изучения журналистики агентства Reuters (RISJ), 7% тех, кто получает новости из интернета, используют для этого чат-боты с искусственным интеллектом, причем среди лиц моложе 25 лет эта доля достигает 15%.
Авторы нового исследования утверждают, что ИИ-помощники систематически искажают содержание новостей всех типов. "Исследование однозначно показывает, что эти ошибки - не единичные случаи, - заявил Жан-Филипп Де Тандер, замгенерального директора Европейского вещательного союза (EBU), который координировал работу. - Они носят системный характер, охватывают разные страны и языки, и мы считаем, что это подрывает общественное доверие. Когда люди не знают, чему можно доверять, они перестают доверять всему, а это может препятствовать их участию в демократических процессах".
Новое беспрецедентное исследование медиакомпаний
Новый проект - один из крупнейших такого рода на сегодняшний день и продолжение исследования, проведенного BBC в феврале 2025 года. Последнее выявило, что более половины проверенных ответов, которые были получены от чат-ботов, содержали серьезные проблемы. А почти пятая часть ответов, ссылавшихся на контент BBC как на источник, имела собственные фактические ошибки.
Новое исследование объединило вещающие на различных языках общественно-правовые медиакомпании из 18 стран, которые применили ту же методологию, что и BBC, для анализа 3000 ответов, полученных от ИИ-помощников. Четырем чат-ботам задавались общие новостные вопросы, такие как "В чем суть сделки Украины и США по редкоземельным минералам?" или "Может ли Дональд Трамп баллотироваться на третий президентский срок?"
Затем журналисты проверили ответы, опираясь на собственный опыт и профессиональные источники, при этом не зная, ответы какого именно ИИ-ассистента они изучают. По сравнению с исследованием BBC восьмимесячной давности, новые результаты выявили некоторое незначительное улучшение, но высокий процент ошибок в ответах чат-ботов все еще сохранился.
Худшие результаты из четырех чат-ботов - у Gemini
"Мы воодушевлены возможностями ИИ и тем, как он может помочь нам приносить еще большую пользу аудитории, - заявил Питер Арчер, программный директор BBC по генеративному ИИ. - Но люди должны иметь возможность доверять тому, что они читают, смотрят и видят. Несмотря на некоторые улучшения, очевидно, что у этих ассистентов по-прежнему остаются серьезные проблемы".
Худшие результаты из четырех чат-ботов - у Gemini: 72% его ответов содержали значительные ошибки в указании источников информации. По итогам февральского исследования BBC худшими чат-ботами были признаны Copilot от Microsoft и Gemini от Google. Но в обоих исследованиях у всех четырех ИИ-ассистентов были обнаружены проблемы.
В заявлении, которое было еще в феврале получено BBC от представителя OpenAI, разработавшей ChatGPT, отмечалось: "Мы поддерживаем издателей и создателей контента, помогая 300 миллионам еженедельных пользователей ChatGPT находить качественный контент с помощью резюме, цитат, четких ссылок и указания авторства".
СМИ призывают власти и компании - разработчики ИИ принять меры
Вещательные компании и СМИ, стоящие за новым исследованием, обратились к национальным правительствам с требованием принять необходимые меры. В пресс-релизе Европейского вещательного союза подчеркивается, что его члены "настаивают на том, чтобы ЕС и национальные регуляторы строго соблюдали существующие законы, касающиеся достоверности информации, цифровых сервисов и медийного плюрализма". В документе также указывается, что независимый мониторинг чат-ботов должен стать приоритетом в будущем, учитывая стремительное внедрение новых моделей ИИ.
При этом EBU объединил усилия с несколькими международными вещательными и медийными организациями для запуска совместной кампании под названием "Facts In: Facts Out", которое примерно можно перевести так: если на входе подают факты, то они должны быть и на выходе. Организаторы кампании призвали фирмы, создающие ИИ-ассистентов, взять на себя большую ответственность за то, как их продукты обрабатывают и распространяют новости.
В заявлении EBU и его партнеров, в частности, отмечается: "Когда эти системы искажают новости, неправильно дают их источник или вырывают из контекста, они подрывают общественное доверие. Инструменты ИИ не должны ставить под угрозу целостность новостей, которые они используют".