Фактчек DW: Как распознать новости, созданные ИИ
18 июля 2025 г.
В видеоролике, размещенном в социальной сети TikTok, репортер стоит перед красным почтовым ящиком, на заднем плане развиваются британские флаги, в руке у него микрофон. Он спрашивает прохожую, за кого она собирается голосовать на предстоящих выборах. "За реформы, - отвечает женщина. - Я просто хочу снова почувствовать себя британкой". Один из пользователей комментирует ниже: "Интересно, сколько ей заплатили за эти слова?"
Но этой сцены никогда не было. Интервью - полная подделка. Репортера не существует - его создал искусственный интеллект. И если присмотреться, можно заметить подсказку: едва заметный водяной знак в углу со словом Veo - подпись нового мощного инструмента для генерации видео от Google DeepMind.
Это видео - не единичный случай. Социальные сети от TikTok до Telegram полны такими выпусками новостей - видео, созданными искусственным интеллектом и имитирующими внешний вид и атмосферу реальных новостных сюжетов. Они заимствуют визуальный язык журналистики: репортажи с места событий, экранную графику, авторитетную подачу. Но они полностью сфабрикованы, часто предназначены для того, чтобы вызвать возмущение, манипулировать мнением или просто стать вирусными.
"Если вы быстро прокручиваете ленту в социальных сетях, это выглядит как новость, звучит как новость, и в этом опасность", - говорит Хани Фарид, эксперт по цифровой криминалистике и профессор Калифорнийского университета в Беркли.
Реальная опасность "синтетических" новостей
Многие искусственно созданные видеоролики стирают грань между сатирой и реальностью или просто вводят в заблуждение. В одном из примеров журналистка, по-видимому, описывает "огромную военную колонну", движущуюся по центру Лондона. Она стоит перед танком, а толпа наблюдает за происходящим. При этом видео не упоминает ни одного конкретного события, времени или контекста.
Фактчек DW неоднократно наблюдал, как подобные клипы всплывают во время кризисов, например, беспорядков, или крупных новостных событий, и используются для того, чтобы создать путаницу или ложно намекнуть на резкую эскалацию.
Во время последней эскалации конфликта между Израилем и Ираном TikTok и другие платформы были переполнены контентом, созданным с помощью искусственного интеллекта. В видеороликах были фейковые новостные выпуски с ложными утверждениями, например, о вступлении России в войну, об атаке Ирана на США или о том, что Иран сбил американские бомбардировщики B-2, использовавшиеся для ударов по иранским ядерным объектам. DW также отметила всплеск количества созданных ИИ новостных роликов в июне после начала протестов в Лос-Анджелесе.
Последствия выходят далеко за рамки социальных сетей. В 2024 году тайваньские исследователи обнаружили на местных платформах созданные ИИ новостные выпуски, в которых ложно обвинялись в коррупции политики, выступающие за суверенитет острова. Эти ролики не просто распространяли дезинформацию - они сеяли недоверие, подрывая авторитет всех новостных агентств в преддверии выборов в стране.
Однако некоторые пользователи смотрят сгенерированные ИИ новостные выпуски ради пародии или комического эффекта. В одном из вирусных роликов в TikTok показан сгенерированный ИИ ведущий новостей на фоне такой глубокой выбоины на дороге, что в ней исчезают мотоциклы. В другом ролике аватар заявляет: "Я сейчас на границе, но войны нет. Мама, папа, это выглядит реалистично, но это все ИИ".
Итак, как отличить настоящее видео от подделки? Начните с водяных знаков. Такие сервисы, как Veo, Synthesia и другие, часто маркируют свои видео, хотя эти метки иногда размыты, обрезаны или игнорируются. Даже четко обозначенные клипы часто пестрят комментариями с вопросом: "Это настоящее?"
Как отличить фейковые новостные выпуски
Фейковые новостные выпуски - один из самых тщательно проработанных материалов, созданных ИИ. Поскольку они часто изображают статичную обстановку новостных студий, сложнее заметить типичные признаки работы ИИ - такие, как неловкие движения рук или нестабильный фон. Но едва заметные подсказки все же остаются.
Следите за глазами и ртом. Искусственные аватары часто неестественно моргают или испытывают трудности с реалистичной синхронизацией губ. Зубы могут выглядеть слишком гладкими или неестественно блестящими. Их форма может даже меняться в середине предложения. Жесты и мимика, как правило, слишком однообразны, лишены естественной вариативности, свойственной настоящим людям.
Текст также может быть саморазоблачением фейка. Экранные субтитры или баннеры часто содержат бессмысленные фразы или опечатки.
По словам Хани Фарида, обнаружение сгенерированного ИИ контента - "сложная задача" как поражение движущейся цели: "Все, что я вам сегодня расскажу о том, как обнаружить фейки ИИ, может оказаться неактуальным через полгода". Так что же делать? Придерживаться проверенных источников. "Если не хотите, чтобы вас обманывали, пользуйтесь надежными СМИ", - советует Фарид.
Исчезли барьеры для производства медиа-контента
Концепция ИИ-ведущих не нова. В 2018 году китайское государственное информационное агентство "Синьхуа" представило довольно примитивного аватара-ведущего, созданного ИИ. В то время это выглядело скорее забавно, чем представляло угрозу.
Но технологии значительно эволюционировали. Такие инструменты, как Veo, теперь позволяют практически любому человеку без медиа-подготовки создавать отшлифованные видеоролики в стиле прямой трансляции всего за несколько сотен евро в месяц. Ведущие в таком видео говорят плавно, двигаются реалистично и могут быть помещены практически в любую сцену с помощью нескольких команд, заданных с помощью клавиатуры.
"Барьер для входа (в производство медиа-контента. - Ред.) практически исчез. Вам не нужна студия. Вам даже не нужны факты", - говорит Фарид. Большинство этих клипов созданы для максимального вовлечения пользователей. Они затрагивают очень спорные темы - миграция, война в Газе, Украина, Дональд Трамп - чтобы вызвать сильные эмоциональные реакции и побудить к дальнейшему распространению этих видео.
Социальные сети часто намеренно продвигают такой контент. Например, Meta недавно скорректировала свой алгоритм, чтобы показывать больше постов с аккаунтов, на которые пользователи не подписаны, что облегчает охват созданных ИИ видео широкой, ничего не подозревающей аудиторией. Программы монетизации дополнительно стимулируют создателей: чем больше просмотров набирает видео, тем больше денег оно может принести.
Сделать легкие деньги на "искусственном хламе"
Эта среда породила новое поколение создателей "искусственного хлама" – пользователей, которые штампуют низкокачественный ИИ-контент, привязанный к трендовым темам просто, чтобы набрать просмотры.
Эти аккаунты часто публикуют срочные новости, прежде чем журналисты успевают подтвердить факты. Во время недавней авиакатастрофы в Индии десятки видеороликов в TikTok были представлены ИИ-аватарами, стилизованными под репортеров CNN или BBC, которые транслировали фальшивые цифры жертв и сфабрикованные свидетельства очевидцев. Многие оставались в сети часами, прежде чем их удаляли.
В моменты выхода срочных новостей, когда пользователи активно ищут информацию, реалистичный ИИ-контент становится особенно эффективным способом получить большое число просмотров и заработать на общественном внимании. "Платформы ослабили модерацию контента. Это идеальный шторм: я могу создавать контент, могу его распространять, и есть аудитория, готовая ему верить", - отмечает Фарид.