США використовували штучний інтелект, щоб визначити цілі для авіаударів на Близькому Сході

США використовували штучний інтелект для ідентифікації цілей, уражених повітряними ударами на Близькому Сході цього місяця, заявила офіційний представник міністерства оборони, підтвердивши зростаюче значення цієї технології для ведення бойових дій
Алгоритми були розроблені в рамках проекту Maven Пентагону, але ШІ не готовий рекомендувати порядок атак. Фото - AI-News

Як повідомляє «Kreschatic» з посиланням на Bloomberg, за словами Шуйлер Мур, головного технічного офіцера Центрального командування США, яке керує військовими операціями США на Близькому Сході, алгоритми машинного навчання, які можуть навчитися ідентифікувати об’єкти, допомогли звузити цілі для понад 85 авіаударів США 2 лютого. У Пентагоні заявили, що ці удари завдали американські бомбардувальники та винищувачі по семи об’єктам в Іраку та Сирії.

Ми використовували комп’ютерне моделювання, щоб визначити, де можуть бути загрози.

– сказала Мур в інтерв’ю Bloomberg News.

За останні 60-90 днів у нас було більше варіантів цілей.

– сказала вона, додавши, що зараз США шукають «надзвичайно багато» ракетних установок ворожих сил у регіоні.

Військові раніше визнали використання алгоритмів комп’ютерного зору для цілей розвідки. Але коментарі Мур є найвагомішим підтвердженням того, що армія США використовує цю технологію для ідентифікації ворожих цілей, які згодом були вражені.

Maven
Шуйлер Мур. Фото – ВМС США

Удари США, які, за словами Пентагону, серед інших цілей знищили або пошкодили ракети, ракетні установки, сховища безпілотників і оперативні центри ополчення, були частиною відповіді адміністрації Байдена на вбивство трьох військовослужбовців США під час атаки 28 січня на базу в Йорданії. США приписують атаку підтримуваним Іраном бойовикам.

Мур сказала, що системи штучного інтелекту також допомогли ідентифікувати ракетні установки в Ємені та надводні судна в Червоному морі, кілька з яких Центральне командування (Centcom) знищило численними збройовими ударами протягом лютого. Підтримувані Іраном збройні формування хуситів у Ємені неодноразово обстрілювали комерційне судноплавство в Червоному морі.

Алгоритми визначення цілей були розроблені в рамках проекту Maven, ініціативи Пентагону, розпочатої в 2017 році для прискорення впровадження ШІ та машинного навчання в Міністерстві оборони та підтримки оборонної розвідки, з акцентом на той час на боротьбі США з бойовиками Ісламської держави.

Мур, яка працює в штаб-квартирі Centcom у Тампі, штат Флорида, сказала, що американські сили на Близькому Сході експериментували з алгоритмами комп’ютерного зору, які можуть знаходити та ідентифікувати цілі за зображеннями, отриманими супутником та іншими джерелами даних, випробувавши їх під час навчань протягом останнього року.

Потім вони почали використовувати їх у реальних операціях після атаки ХАМАС на Ізраїль 7 жовтня та військових дій у відповідь у Газі, які розпалили регіональну напруженість і напади підтримуваних Іраном бойовиків.

7 жовтня все змінилося. Ми негайно переключилися на високу передачу та набагато вищий оперативний темп, ніж раніше.

– сказала Мур, додавши, що американським військам вдалося «досить плавно перейти» до використання Maven після року цифрових навчань.

штучний інтелект
Запуск ракети США по цілях хуситів у Ємені. Фото – Centcom

Мур підкреслила, що можливості штучного інтелекту Maven використовуються для пошуку потенційних цілей, але не для їх перевірки чи розгортання проти них зброї.

Вона сказала, що навчання наприкінці минулого року, під час яких Centcom експериментувала з рекомендаціями штучного інтелекту, показали, що такі системи «часто не погоджувалися» з людьми в пропозиціях порядку атаки або вибору найкращої зброї для використання.

За її словами, люди постійно перевіряють рекомендації ШІ щодо вибору цілей. Вона додає, що оператори США серйозно ставляться до своїх обов’язків і ризику того, що штучний інтелект може припуститися помилок, і «це, як правило, досить очевидно, коли щось не так».

Ніколи не існує алгоритму, який просто працює, приходить до висновку, а потім переходить до наступного кроку. Наприкінці кожного кроку, який робить штучний інтелект, його перевіряє людина.

– сказала Шуйлер Мур.

Нагадаємо, раніше ми писали, що Китай, США і країни ЄС оприлюднили спільну декларацію про те, що штучний інтелект несе «катастрофічні» ризики для людства

Share This Article
Спорт - це не просто гра, це наше життя. Дізнайтеся більше разом із нами
Коментувати

Залишити відповідь

Ваша e-mail адреса не оприлюднюватиметься. Обов’язкові поля позначені *