Як фейкові фото про війну в Ірані вводять в оману ЗМІ
23 березня 2026 р.
У часи воєн і криз часто поширюються сфальшовані або якісь старі фотографії та відео. Іноді це робиться для того, щоб ввести в оману, а іноді - просто для того, щоб отримати більше переглядів.
Під час нинішньої війни Ізраїлю та США проти Ірану ця проблема набула нового виміру. Фотоагентства отримували підроблені або фальшиві зображення, які потім потрапляли до редакцій ЗМІ по всій Європі.
Деякі з цих фотографій були, вірогідно, створені за допомогою штучного інтелекту, тоді як інші зазнали цифрової обробки. Що сталося і як можна розпізнати підробки, створені за допомогою ШІ?
Історія з фотографіями SalamPix
На початку березня нідерландські ЗМІ повідомили, що найбільше інформаційне агентство країни ANP (Algemeen Nederlands Persbureau) видалило зі своєї бази даних близько тисячі фотографій, пов'язаних з Іраном, оскільки виникла підозра, що деякі з них були сфальшовані за допомогою ШІ.
Через два дні нідерландське відділення медіамережі RTL повідомило, що його служба новин RTL Nieuws не знаючи про це використала три з цих зображень на своєму вебсайті та в додатку. Після повідомлення від ANP про те, що зображення були створені за допомогою ШІ, RTL видалило їх із веб-сайту та додатку й опублікувало детальне пояснення, які саме зображення та з яких причин були видалені.
Невдовзі після цього німецький журнал "Der Spiegel" також повідомив, що у своїх матеріалах використав зображення, що, як згодом виявилося, було створене за допомогою штучного інтелекту.
В обох випадках зображення надали авторитетні інформаційні агентства. Зображення на RTL походили від ANP, тоді як "Der Spiegel" отримав свої зображення через агентства dpa Picture Alliance, ddp та Imago Images, які, своєю чергою, отримали їх від французького інформаційного агентства Abaca Press.
Шлях походження зображень зрештою вдалося простежити до іранського інформаційного агентства SalamPix. За даними "Der Spiegel", SalamPix надало фотографії Abaca Press. Звідти вони потрапили до баз даних численних міжнародних агентств і, зрештою, до редакцій ЗМІ.
Інформаційні агентства, як правило, збирають зображення та інший медіа-контент з усього світу, а потім продають і поширюють цю інформацію газетам, теле- та радіостанціям, які використовують її для виготовлення власних матеріалів.
Після виявлення зображень, створених за допомогою штучного інтелекту, багато фотоагентств заблокували SalamPix або повідомили своїх клієнтів з-поміж ЗМІ, що потрібно видалити зображення SalamPix зі своїх публікацій.
Як обдурили фотоагентства?
У Німеччині "привілей агентства" - це юридичний термін, який дозволяє медіакомпаніям використовувати текстові, фото- та відеоматеріали, надані їм інформаційними агентствами, з упевненістю, що вони перевірені та справжні. Навіть такі міжнародні медіакорпорації, як DW, регулярно покладаються на агентства під час висвітлення подій у світі.
Однак збільшення кількості дедалі більш переконливого контенту, створеного та зманіпульованого за допомогою штучного інтелекту, ускладнює розрізнення справжніх зображень від фальшивих. Ця проблема має не лише технічний, а й логістичний характер. В інформаційній ситуації, що швидко змінюється, журналісти та агентства переглядають величезні обсяги зображень за дуже короткий час. З початку 2026 року DW щодня отримувала в середньому 140 000 зображень агентств.
"Одним із наших найвищих пріоритетів є прозорість. Коли ми використовуємо контент, створений ШІ, ми маємо чітко й однозначно позначати його як такий, - пояснив головний редактор DW Матіас Штамм. - І якщо ми припускаємося помилки, як у випадку з використанням зображень агентства SalamPix, ми визнаємо її та зберігаємо прозорість".
Приклади зображень, використаних DW
Під час перевірки, розпочатої після перших повідомлень про SalamPix, DW з'ясувала, що поширені цим агентством зображення також потрапили до її власних матеріалів. У результаті всі зображення SalamPix були видалені з публікацій DW, а в примітках під відповідними статтями було вказано на зміну.
У цьому прикладі показано вуличну сцену після нібито влучання ракети в Тегерані. На передньому плані видно жовті автомобілі, ймовірно таксі. На задньому плані - будівлі, над якими здіймається дим. Це зображення було поширене інформаційними агентствами у 2026 році. На перший погляд зображення видається реалістичним, однак при детальному розгляді можна виявити деякі характерні для штучного інтелекту помилки.
Найбільш чітко це видно при детальному розгляді текстових елементів на стіні та на одному з автомобілів. Вони виглядають як текст, але при збільшенні стає зрозуміло, що це ані арабська мова, ані фарсі. Насправді це беззмістовний псевдотекст, який не має жодної схожості з якоюсь справжньою мовою. Це помилка, яка часто зустрічається на зображеннях, створених за допомогою штучного інтелекту.
Ще однією типовою помилкою штучного інтелекту є будівлі дивних форм та об'єкти, що суперечать будь-якій логіці. Окрім вікна автомобіля незвичайної форми, на цьому зображенні в центрі на будівлі, видно вигнуті назовні стіни та вікна.
Якщо збільшити зображення автомобіля та автобуса в нижньому лівому кутку, стає помітною їхня дивна форма. Крім того, вони не відповідають жодній реальній моделі транспортного засобу.
На цьому іншому прикладі зображено чоловіка в чорному одязі, який тримає в руці зброю. Підпис до фотографії: "Озброєні іранські сили безпеки в Тегерані відкривають вогонь, щоб розігнати протестувальників під час демонстрацій 8 січня 2026 року".
Тут також помітні помилки штучного інтелекту: зображена людина, здається, має дві дуже різні ноги та носить різне взуття. Її тінь (особливо тінь правої руки, що лежить над зброєю) не відповідає реальним частинам тіла.
Крім того, рука виглядає анатомічно неприродно. Між великим пальцем і іншими пальцями, здається, бракує частини.
Під час перевірки старих зображень, поширених SalamPix, відділ фактчекінгу DW також виявив невідповідності. "Süddeutsche Zeitung", одна з найбільших щоденних газет Німеччини, під час аналогічних перевірок дійшла того самого висновку.
Одне із зображень, проаналізованих DW, розміщене на самому початку цієї статті. У кадрі видно начебто демонстрантів на протестах проти іранського режиму в місті Махабад у листопаді 2022 року під час сутичок з силами безпеки.
На фото видно помилки штучного інтелекту, типові для того часу: руки, зокрема пальці кількох осіб, деформовані або виглядають так, ніби їх вирізали з дерева. Вікна будівлі ліворуч розташовані не під одним кутом. А обличчя людини праворуч спотворене.
Читайте також: Тест: чи можете ви відрізнити фейк від правди?
Як розпізнати підроблені зображення?
З постійним вдосконаленням інструментів штучного інтелекту стає дедалі складніше відрізнити підроблені зображення від справжніх. Отже, ризик бути обдуреним стає дедалі більшим як для користувачів, так і для журналістів. Як це дуже наочно демонструє цей випадок.
Медіакомпанії, такі як DW, інвестують значні кошти в навчання своїх співробітників, щоб ті могли краще розпізнавати та виявляти маніпуляції, здійснені за допомогою штучного інтелекту. Команда фактчекінгу DW також створює контент, який має допомогти нашій аудиторії розширити медіаграмотність та зрозуміти, як можна викривати фото та відео, які вводять в оману.