1. Перейти до змісту
  2. Перейти до головного меню
  3. Перейти до інших проєктів DW
Технології

Бойові роботи та контроль над ними: основні факти

Ніна Веркгойзер | Андрій Пробитюк
27 серпня 2018 р.

Розробка автономної зброї активно просувається, і в майбутньому про життя і смерть вирішуватимуть машини. На конференції ООН у Женеві - чергова дискусія щодо цього. Ми зібрали найважливіші факти.

Бойові роботи можуть без втручання людини вирішувати про атаку
Бойові роботи можуть без втручання людини вирішувати про атаку Фото: Hankook Mirae Technology

Ступінь автономії в системах озброєнь постійно зростає завдяки швидкому прогресу в сферах штучного інтелекту (АІ) та робототехніки. Машини нині здатні до навчання, вони обробляють досвід за допомогою штучних нейронних мереж, подібних до людського мозку. Індустрія озброєнь використовує це: зброя стає більш швидкою і ефективною, а небезпека для військових, які її використовують, зменшується. Однак не все так просто і безпечно. Робот, який автономно шукає, розпізнає і знешкоджує міни, може бути загалом прийнятним, тоді як робот, який самостійно шукає, розпізнає та відстрілює людей, явно суперечить міжнародному гуманітарному законодавству.

Про яку зброю йдеться?

Офіційна назва звучить "автономні системи зброї летальної дії", англійською: Lethal Autonomous Weapon Systems - скорочено LAWS. Найчастіше йдеться про бойових роботів, однак також це можуть бути дрони, безпілотні підводні човни чи автомобілі. Критики переважно говорять про "роботів-убивць".

Що конкретно мається на увазі?

Загальноприйнятого визначення для таких систем зброї немає. Міжнародний комітет Червоного Хреста (МКЧХ) описує їх як зброю, яка самостійно, тобто без людського втручання, вибирає цілі та атакує їх.

Чи існує вже така зброя?

Повністю автономних систем зброї, які можуть чинити смертоносне насильство щодо людей, поки не існує. Однак у силу швидкого прогресу у сферах штучного інтелекту та робототехніки їхня розробка є лише питанням часу.

Які предтечі LAWS існують?

Уже зараз є багато зброї з автономними функціями. Для прикладу, сьогодні ракети можуть самостійно ідентифікувати, вибирати та атакувати свої цілі. Безпілотні підводні човни самі шукають міни. А дрони уже здатні через мережу об'єднуватися в загони та самостійно виконувати певні завдання.

Яким є можливий сценарій при застосуванні LAWS?

У бойовий робот вводять біометричні дані "особи, яка є мішенню", а він вже самостійно розшукує та вбиває її - без дистанційного керування через радар чи супутник, як це відбувається у випадку теперішніх безпілотників. Автономні системи зброї летальної дії - самокеровані, вони не потребують наказу на відкриття вогню з боку військового. Ніхто не знає, коли вони завдадуть удару.

За допомогою штучного інтелекту дрони можна перетворити на автономну зброюФото: Imago/AFLO/R. R. Marin

Чому експерти вважають це зміною парадигми у веденні війни?

Оскільки рішення про життя та смерть приймає не людина, а машина. І цього не змінює той факт, що цю зброю попередньо виготовили та запрограмували люди.

Чому автономна зброя суперечить міжнародному гуманітарному праву?

Одна з найважливіших норм міжнародного гуманітарного права говорить, що при нападах необхідно чітко розрізняти учасників бойових дій та цивільне населення. Цивільних та цивільні об'єкти потрібно, якщо є змога, щадити. Автономні системи зброї цього робити не можуть. А тому фахівці з міжнародного права вимагають, щоб завжди останній контроль щодо атаки залишався за людиною. Вони не розрізняють військові та цивільні машини, а розмежування між комбатантами та цивільними особами є одним з найважливіших правил, що регулює ведення бойових дій: сторони, що воюють, зобов'язані забезпечити якнайбільше можливого захисту цивільних осіб та цивільних будівель.

З огляду на це, Міжнародний комітет Червоного Хреста (МКЧХ) визначає автономну зброю як зброю з автономією у своїх критичних функціях відбору та атаки цілей. Автономність означає, що людина в процес не втручається - і саме це створює проблему. Що робити, якщо автономний цільовий вибір має наслідком не лише руйнування ворожих ракет, але і вбиває цивільних осіб?​​ Тож фахівці з міжнародного права вимагають, щоб завжди останній контроль щодо атаки залишався за людиною.

Де і в якому форматі обговорюють це питання на міжнародному рівні?

З 2014 року при Організації Об’єднаних Націй у Женеві відбуваються зустрічі, а саме в рамках Конвенції щодо конкретних видів звичайної зброї (Convention on Certain Conventional Weapons). Зі спершу неформальних розмов у 2017 році постали офіційні переговори, в яких беруть участь понад 70 держав, а також науковці та неурядові організації. Черговий раунд переговорів відбудеться з 27-го до 31 серпня.

Як проходять переговори?

Без значного просування, оскільки позиції сторін дуже різняться. Потужні у військовому плані держави виступають проти заборони цієї зброї, оскільки за її допомогою хочуть зміцнити своє домінування. Впершу чергу, йдеться про США, Ізраїль, Росію та Великобританію. Компроміс поки не проглядається. 

Ті, що за заборону

Поки що 26 країн закликали до обов'язкової заборони автономної зброї. Більше 230 організацій та 3000 осіб підписали петицію проти автономної зброї, ініційовану Американським інститутом майбутнього життя (American Future of Life Institute​​​). Серед них - провідні дослідники та бізнесмени сектора штучного інтелекту, як от очільник Tesla Елон Маск. Сторони, що підписали петицію, зобов'язалися не підтримувати розробку смертельних автономних систем зброї та закликають до "жорстких міжнародних норм та законів" щодо їх заборони. Вони кажуть, що рішення про вбивство людини ніколи не можна передавати машині.

Якою є позиція Німеччини?

У коаліційному договорі консерваторів з ХДС/ХСС та соціал-демократів прописано: "Ми відкидаємо автономні системи зброї, які виводяться з  підпорядкування людині. Ми прагнемо їхньої заборони в усьому світі". Попри це, Німеччина не приєдналася до держав, які на переговорах у Женеві вимагають зобов'язувальної заборони автономних систем зброї. Німецький уряд радше витупає за політичну декларацію, яка не матиме зобов'язувального характеру, та стане попереднім етапом до укладення договору про заборону.

 

Хто нестиме відповідальність за рішення роботів? (21.06.2017)

02:23

This browser does not support the video element.

Пропустити розділ Більше за темою

Більше за темою

Більше публікацій
Пропустити розділ Топтема

Топтема

Пропустити розділ Більше публікацій DW

Більше публікацій DW