Як інформує «Kreschatic» з посиланням на подкаст ChinaTalk, Даріо Амодей, який є гендиректором компанії Anthropic, що створила чат-бот Claude, висловив серйозне занепокоєння щодо майбутнього моделі-конкурента — DeepSeek R1.
Виходячи зі слів Амодея, чат-бот DeepSeek, у період проведення тесту на безпеку, згенерував рідкісний тип інформації, що стосується створення біологічної зброї з підручних засобів, що виявилося найгіршим підсумком серед усіх ШІ-моделей, коли-небудь вивчених. Зокрема, у DeepSeek абсолютно немає блокувань, що передбачають заборону на генерацію таких неоднозначних інструкцій.
Водночас команда Anthropic регулярно перевіряє, чи можуть інші ШІ-моделі створювати довідкові дані, пов’язані з біологічною зброєю, які не можна легко відшукати у відкритих джерелах, наприклад, у пошуковику Google або в підручниках.
Утім, Амодей уточнив — на поточний момент штучний інтелект (ШІ) DeepSeek не представляє «прямої загрози» у формуванні рідкісної та небезпечної інформації, але в короткостроковій перспективі, ситуація може змінитися в негативному ключі, якщо, звісно, китайська компанія всерйоз не займеться питаннями безпеки ШІ.
Раніше ми писали про те, що нерівність у цінностях, закладених у ШІ-системах, може мати серйозні наслідки для їхнього впливу на суспільство та етичні питання.