Зброя на штучному інтелекті: чому її неможливо притягнути до відповідальності

Штучний інтелект у війні не змінює людської сутності конфлікту, а лише загострює питання відповідальності тих, хто створює й застосовує технології. 
Федоренко Олексій 327
Гільзи. Фото - Pixabay

У матеріалі, опублікованому на The Conversation, дослідниця Австралійського національного університету Зена Ассад пояснила, чому штучний інтелект у військових технологіях не може нести юридичну відповідальність і чому саме це твердження спотворює суть проблеми, пише Kreschatic.

Під час виступу в Раді Безпеки ООН міністерка закордонних справ Австралії Пенні Вонг попередила, що використання ШІ у ядерних або автономних системах може змінити природу війни. Проте, за словами Ассад, реальна загроза полягає не в самих алгоритмах, а в тому, як люди їх застосовують — і хто приймає остаточні рішення на полі бою.

Як саме використовують штучний інтелект у військовій сфері

Технології ШІ давно проникли у збройні сили — від симуляцій для навчання солдатів до бойових систем підтримки рішень. Найбільшу етичну дискусію викликають саме ті алгоритми, які визначають цілі для ударів. Наприклад, ізраїльська армія використовує систему Lavender, що аналізує дані для виявлення підозрюваних бойовиків. Такі технології перебувають на межі між аналітичним інструментом і зброєю, що ухвалює рішення про життя та смерть.

Ассад підкреслює, що поняття «штучного інтелекту» є дуже широким. Воно охоплює як великі мовні моделі, так і системи комп’ютерного зору чи нейронні мережі, які працюють за різними принципами. Тому звинувачення у «неконтрольованій автономності» часто базуються на непорозумінні — жодна із сучасних систем не здатна діяти поза межами людського контролю чи командного ланцюга.

Чи існує «прогалина відповідальності» у воєнному ШІ

Термін «прогалина відповідальності» з’явився у публічних дебатах після поширення медіа-страшилок про «вбивчих роботів». Проте Ассад нагадує: жоден об’єкт неживої природи ніколи не ніс юридичної відповідальності — ні міна, ні ракета, ні автоматизована система стягнення боргів. Усі рішення, що призводять до шкоди, завжди походять від людей, які створюють, тестують і запускають ці технології.

У військовій сфері будь-яка система ШІ підпорядковується структурі командування — від генералів до операторів, які вводять дані. Тому говорити про «самостійні рішення» машин — хибне уявлення. ШІ лише виконує алгоритмічні інструкції, створені людиною, і не здатний вийти за межі цього коду чи взяти на себе моральну або юридичну провину.

Людський фактор залишається центром усіх воєнних технологій

Ассад нагадує, що будь-яка складна система має життєвий цикл — від проєктування і тестування до експлуатації та виведення з ужитку. На кожному етапі люди ухвалюють конкретні рішення: які параметри задати, які обмеження прописати, як контролювати роботу системи у польових умовах. Це створює «ланцюг відповідальності», який не можна перекласти на технологію.

Зрештою, навіть коли система штучного інтелекту визначає потенційні цілі, остаточне рішення про їх ураження ухвалює людина. Тому, регулюючи ШІ-зброю, ми фактично регулюємо поведінку розробників, командирів і політиків, а не самі алгоритми. Саме це, на думку дослідниці, потрібно усвідомити перш ніж говорити про «етичну автономію» машин.

Нагадаємо, раніше ми писали про те, що у Steam безкоштовно роздають 7 ігор.

Share This Article
Щоб бути вільним потрібно знати правду.