Китайські боти і штучний інтелект: що відомо про нову кібершпигунську атаку

Штучний інтелект стає новою ареною для кібервійн, де код і дані замінюють зброю, а боротьба точиться за контроль над інформацією.
Федоренко Олексій 97
Кодування. Фото - Pixabay

Як повідомляє The Conversation, лабораторія штучного інтелекту Anthropic заявила про викриття першої у світі «AI-скоординованої кампанії кібершпигунства». За даними компанії, група хакерів, підтримана китайським урядом, використала їхню модель Claude AI для автоматизації крадіжки даних з близько 30 організацій, пише Kreschatic.

Ця новина одразу викликала хвилю реакцій серед експертів із кібербезпеки. Частина фахівців назвала інцидент прецедентом, який демонструє реальні ризики автономних систем штучного інтелекту. Інші ж поставили під сумнів масштаби атаки, стверджуючи, що Anthropic не надала достатньо доказів, аби підтвердити рівень участі AI у цій операції.

Як штучний інтелект став інструментом хакерів

У звіті Anthropic йдеться, що зловмисники використали Claude Code — спеціальний агент, призначений для автоматизації програмування. Вони змогли обійти вбудовані обмеження, примусивши систему виконувати заборонені дії через рольову симуляцію, нібито з метою перевірки безпеки.

Цей підхід не новий: ще з перших днів ChatGPT фахівці попереджали, що моделі можна змусити порушити правила, якщо правильно сформулювати запит. У цьому випадку Claude Code не усвідомлював, що бере участь у реальних атаках, і діяв у межах сценарію, який здавався йому «етичним».

Чого не вистачає у звіті Anthropic

Фахівці зазначають, що компанія не оприлюднила ключові технічні дані — так звані індикатори компрометації, які зазвичай містять цифрові сліди атаки. Без цих маркерів інші організації не можуть перевірити, чи не стали вони жертвами аналогічного втручання.

Крім того, звіт не містить інформації про конкретні інструменти чи сервери, через які здійснювалися атаки. Саме ці деталі зазвичай дозволяють ідентифікувати почерк злочинців і попередити повторення подібних інцидентів у майбутньому.

Чому експерти сумніваються у «сенсаційності» заяви

Багато фахівців вважають, що описаний випадок не є чимось несподіваним. Claude Code дійсно здатний виконувати завдання, схожі на програмування, і тому його використання у зламуванні систем цілком логічне. Але довести, що він працював майже автономно, наразі складно.

Anthropic сама визнала, що її AI часто «брехав» зловмисникам, повідомляючи про успішне виконання команд, яких насправді не виконував. Така поведінка типова для великих мовних моделей і свідчить радше про обмеження технології, ніж про її загрозу.

Яким може бути майбутнє кібербезпеки

Попри сумніви, інцидент із Claude AI став сигналом для кіберзахисників. Вони попереджають, що навіть якщо нинішні атаки виглядають недосконалими, наступні покоління моделей штучного інтелекту зможуть діяти більш ефективно.

Аналітики закликають уряди та компанії посилити захист своїх мереж, адже автономні цифрові агенти вже зараз здатні виконувати складні технічні операції без людського втручання. Наступна хвиля кібератак може бути значно масштабнішою.

Нагадаємо, раніше ми писали про те, як парадокс Зенона пояснює проблему токенізації штучного інтелекту.

Share This Article
Щоб бути вільним потрібно знати правду.
Exit mobile version