Штучний інтелект дедалі активніше проникає на поле бою, але замість зменшувати жертви він може призводити до їхнього зростання, попереджає спецпосланець ООН із технологій Амандіп Сінгх Гілл. На конференції в Брюсселі в рамках саміту POLITICO з питань ШІ й технологій він звернув увагу на ключову небезпеку: «Віддалення людини від процесу прийняття рішення про застосування сили робить деякі країни й угруповання значно більш “натискливими на курок”», — сказав він у відеоінтерв’ю.
За його словами, поріг для початку бойових дій суттєво знижується, коли рішення про стрільбу чи пуск ракети може ухвалювати алгоритм. Цей тренд уже помітний у кількох сучасних конфліктах. Зокрема російсько-українська війна буквально «розквітла» завдяки масштабному використанню ударних дронів з функціями автономного наведення, тоді як Ізраїль зазнав критики через застосування штучного інтелекту для відбору цілей у Газі.
Гілл наголосив, що без чіткого міжнародного регулювання автономних систем цей процес може перетворитися на гонку озброєнь, де переможе не та сторона, яка має кращих піхотинців, а та, яка найбільше автоматизувала вбивства. «Ми ризикуємо отримати світ, у якому війна починається при найменшому спалаху напруги, оскільки машини не відчувають страху й не ставлять під сумнів наказ», — пояснив він.
ООН активно працює над укладенням глобальної угоди щодо обмеження автономної зброї до наступного року. Генсек ООН Антоніу Гутерреш неодноразово наголошував на «неймовірній важливості людського контролю над застосуванням сили». «Ми не можемо делегувати машини вирішувати, чи залишатися живими», — сказав він у черговому зверненні.
Проте, як показує практика, навіть чіткі політичні заяви не завжди стримують розробників і армії. Розробки безпілотних апаратів нового покоління стають дедалі більш автономними: вони можуть самостійно обирати власні цілі, оцінювати відстань до об’єкта та розраховувати траєкторію польоту без втручання людини. Це полегшує їхнє масштабне розгортання, але підвищує ризики помилок та руйнувань серед мирного населення.
У відповідь на ці виклики ООН планує створити механізм верифікації та сертифікації автономних систем, подібно до міжнародних норм для безпілотників цивільного призначення. Учасники конференції в Брюсселі обговорювали ідею «чорного списку» компаній, які порушують заборону на продаж технологій без подальшого контролю. Також пропонують запровадити вимогу, щоб будь-яка бойова машина мала «чорну скриньку» з записом дій, аби потім розслідувати інциденти та встановлювати відповідальність.
Експерти відзначають, що автоматичні системи можуть бути корисні для розмінування та евакуації поранених, але ніколи не повинні повністю замінювати людину у вирішенні, чи застосовувати вогонь. Розробники вже експериментують із гібридними підходами, де алгоритм пропонує кілька цілей, а людина підтверджує вибір. Проте навіть у таких системах важливо зберегти «фільтр» людського морального судження й етичну відповідальність.
Для України ця проблема стоїть особливо гостро: навчаючи власні Збройні сили працювати з FPV-дронами й системами розвідки на основі ШІ, Київ водночас мусить гарантувати, що рішення про застосування зброї завжди приймають офіцери. Міністерство оборони України вже створює протокол, за яким будь-яка атака безпілотником проходитиме через ланцюжок командування, щоб мінімізувати ризики «істинно автономних» ударів.
У перспективі міжнародна спільнота має розробити чіткі стандарти: дозволити автономні системи лише для захисних функцій — наприклад, автоматичного виявлення мін чи перехоплення ворожих ракет. А всі «офанзивні» дії мають залишатися прерогативою людини. Саме такий баланс, як вважають у ООН, дозволить стримати гонку «машинного» вбивства та запобігти небезпечній ескалації сучасних конфліктів.
Отже, попередження спецпосланця ООН Амандіпа Сінгха Гілла — це не черговий протест проти технологічного прогресу, а заклик врятувати людей від озброєних алгоритмів, які не відчувають жалю й не цінують людське життя. Дедалі більше залежить від волі урядів і розробників: чи зможуть вони обмежити «машини смерті» й зберегти останній рубіж — людську відповідальність над бойовими рішеннями.