Grok Маска опинився на дні рейтингу безпеки штучного інтелекту

Падіння рейтингу Grok стало черговим сигналом для галузі про необхідність жорсткішого контролю за системами штучного інтелекту.

Grok. Фото - The Verge

Американська організація ADL оприлюднила дослідження, у якому оцінювала здатність мовних моделей штучного інтелекту виявляти антисемітський контент. Система Grok від компанії xAI отримала найнижчу оцінку серед шести протестованих платформ, що свідчить про її вразливість до токсичних ідей. Про це повідомляє The Verge, пише Kreschatic.

Згідно з результатами, Grok виявився найгіршою системою серед тестованих. Його розробники позиціонують продукт як “антиполіткоректний” чат-бот, проте дослідження показало, що така філософія роботи призводить до небезпечного поширення ворожих висловлювань.

Як оцінювали системи

Експерти ADL перевірили шість провідних моделей — Grok, Llama, Claude, Gemini, ChatGPT і DeepSeek. Оцінювання проводили за трьома напрямами: антисемітизм проти людей, антисіоністські твердження проти Ізраїлю та екстремізм.

  • Claude отримав найвищі 80 балів.
  • Grok — лише 21 бал.
  • ChatGPT показав середній рівень безпеки з 57 балами.

У дослідженні взяли участь понад 25 000 чатів, а відповіді аналізувалися за допомогою людських експертів та автоматизованих систем.

Найбільше занепокоєння викликав Grok

Фахівці зазначають, що саме Grok став найпроблемнішою системою через поширення небезпечних меседжів. Його алгоритми не розпізнавали упереджені або радикальні твердження, що могло підсилювати прояви мови ворожнечі.

Перед керівником ADL Джонатаном Грінблаттом поставили питання про головну загрозу, яку становить неконтрольований штучний інтелект. Він пояснив свою позицію так:

«Коли системи штучного інтелекту не розпізнають шкідливі наративи, вони фактично сприяють поширенню ненависті».

Європейські регулятори вже вимагають від xAI звіту про дотримання норм етики, а у Франції розпочали розслідування через випадки, коли Grok заперечував Голокост.

Як показали себе конкуренти

Проблеми з розпізнаванням упереджень виявили й в інших моделей, але їхня ефективність була значно вищою.

  • Llama отримала 31 бал.
  • Gemini — 49 балів.
  • DeepSeek — 50 балів.

Експерти ADL підсумували, що найкраще системи справлялися з класичними антиєврейськими стереотипами, але часто не виявляли сучасних антисіоністських тез.

Нагадаємо, раніше ми писали про те, що внаслідок витоку даних SoundCloud особиста інформація користувачів стала публічно доступною.

Поділіться цією статтею