В Anthropic попередили про нову загрозу з боку китайського чат-бота DeepSeek

Дедалі більше держав, компаній та урядових структур забороняють використовувати ШІ-модель DeepSeek, поки що тільки через «злив» даних користувачів уряду Китаю, але є й додатковий фактор небезпеки.
DeepSeek. Фото - vkurse.kz

Як інформує «Kreschatic» з посиланням на подкаст ChinaTalk, Даріо Амодей, який є гендиректором компанії Anthropic, що створила чат-бот Claude, висловив серйозне занепокоєння щодо майбутнього моделі-конкурента — DeepSeek R1.

Виходячи зі слів Амодея, чат-бот DeepSeek, у період проведення тесту на безпеку, згенерував рідкісний тип інформації, що стосується створення біологічної зброї з підручних засобів, що виявилося найгіршим підсумком серед усіх ШІ-моделей, коли-небудь вивчених. Зокрема, у DeepSeek абсолютно немає блокувань, що передбачають заборону на генерацію таких неоднозначних інструкцій.

Водночас команда Anthropic регулярно перевіряє, чи можуть інші ШІ-моделі створювати довідкові дані, пов’язані з біологічною зброєю, які не можна легко відшукати у відкритих джерелах, наприклад, у пошуковику Google або в підручниках.

Утім, Амодей уточнив — на поточний момент штучний інтелект (ШІ) DeepSeek не представляє «прямої загрози» у формуванні рідкісної та небезпечної інформації, але в короткостроковій перспективі, ситуація може змінитися в негативному ключі, якщо, звісно, китайська компанія всерйоз не займеться питаннями безпеки ШІ.

Раніше ми писали про те, що нерівність у цінностях, закладених у ШІ-системах, може мати серйозні наслідки для їхнього впливу на суспільство та етичні питання.

Share This Article
Дізнайтеся першими про новини Києва з нами
Коментувати

Залишити відповідь

Ваша e-mail адреса не оприлюднюватиметься. Обов’язкові поля позначені *