Про це повідомляє “Kreschatic” з посиланням на Bloomberg
Згідно з інформацією, група, відома під назвою SweetSpecter, намагалася видавати себе за користувача ChatGPT, надсилаючи електронні листи до служби підтримки OpenAI. Листи містили шкідливі вкладення, які, якщо їх було б відкрито, могли б дозволити зловмисникам отримати доступ до важливих даних компанії. Проте ця спроба була невдалою, оскільки існуючі системи безпеки OpenAI не дали можливості листам потрапити до корпоративної пошти співробітників.
Цей інцидент підкреслює не лише загрози, з якими стикаються провідні компанії в сфері штучного інтелекту, але й постійні ризики, що виходять від міжнародних злочинних груп, які намагаються отримати доступ до конфіденційної інформації. Зокрема, раніше цього року колишній інженер Google був звинувачений у викраденні торговельних таємниць для китайської компанії.
Китайський уряд неодноразово заперечував звинувачення США щодо організації кібератак, натомість звинувачуючи зовнішні сили в розв’язуванні кампаній з дискредитації. Ця ситуація вказує на те, що загроза кібербезпеки залишається актуальною, оскільки технології продовжують розвиватися, а конкуренція в галузі штучного інтелекту загострюється.
OpenAI також розкрила, що під час розслідування інциденту було вжито заходів проти акаунтів, пов’язаних із Іраном і Китаєм, які використовували штучний інтелект для програмування та проведення досліджень. Ці дії свідчать про активну позицію компанії в боротьбі з кіберзагрозами та її прагнення захистити свою інфраструктуру.
Нагадаємо, раніше ми писали про те, що юридичний стартап залучив $135 мільйонів інвестицій та досяг оцінки понад $1 мільярд.