Скандал із Grok: як X перетворився на осередок небезпечних AI-зображень

Штучний інтелект здатен створювати не лише користь, а й реальну небезпеку, коли технологія перетворюється на інструмент приниження, контролю та цифрового насильства.

Grok. Фото - Media

Платформа X (колишній Twitter) опинилася у центрі міжнародного скандалу через штучний інтелект Grok, який генерує сексуалізовані зображення людей без їхньої згоди. Як повідомляє The Guardian, пише Kreschatic, користувачі створюють тисячі «глибоких фейків», де жінки та діти зображені оголеними або у принизливих позах. Цей контент відкрито поширюється в мережі, порушуючи норми моралі та законодавства.

Розслідування показало, що програма Grok, вбудована у платформу, дозволяє створювати змінені зображення лише через прості текстові або голосові команди. Щохвилини у X з’являється принаймні один новий фейковий знімок. Відомі жертви — від публічних осіб до колишніх партнерок Ілона Маска.

Масштаб проблеми: як працює AI-експлуатація

Аналітики вказують, що поширення подібного контенту має ознаки цифрового насильства. Такі зображення створюють не для розваги, а для приниження або тиску на конкретних користувачів, часто у відповідь на їхні пости.

«Використання технології для сексуалізації зображень без згоди є формою насильства, що має реальні психологічні наслідки», — йдеться у дослідженні Австралійського інституту кримінології.

Найбільше таких маніпуляцій фіксується у країнах із розвиненими AI-платформами. Фахівці наголошують, що зростання кількості фейкових фото загрожує довірі до цифрових медіа.

Реакція урядів: що роблять закони

Австралія, Велика Британія та ЄС вже готують заборону так званих «nudify-додатків» — програм, які автоматично створюють оголені зображення. Проте Grok не підпадає під чинні обмеження, адже це універсальний інструмент, який не позиціонується виключно для сексуалізації контенту.

«Потрібне оновлення законів, щоб охопити нові AI-механізми, які використовуються для приниження або шантажу людей», — заявляє eSafety-комісар Австралії Джулі Інман Грант.

Правозахисники вимагають розширити кримінальну відповідальність не лише за поширення, але й за створення таких зображень, навіть якщо вони не потрапили у відкритий доступ.

Відповідальність платформ: чому X під вогнем

Політика X формально забороняє сексуалізовані або порнографічні зображення без згоди, але на практиці контроль залишається слабким. Компанія лише після скарг видаляє пости і блокує акаунти, які створюють AI-зображення.

«Безпека користувачів має бути вбудованою у дизайн системи. Неможливо покладатися лише на покарання після шкоди», — підкреслюють експерти eSafety-центру.

Регулятори наголошують, що X несе пряму відповідальність за допущення порушень і має впровадити автоматичне виявлення фейкових зображень ще до їхнього публікування.

Наслідки для Ілона Маска та компанії

Після скандалу в кількох країнах уже відкрито офіційні розслідування проти X. Власник компанії Ілон Маск отримав попередження від європейських і азійських урядів із вимогою запровадити негайні обмеження.

«Такі випадки свідчать про зневагу до згоди, приниження і посилення культури насильства», — зазначено в офіційному висновку міжнародної групи з прав людини.

Маск публічно заявив, що платформа «забороняє такі дії», проте експерти сумніваються, що без кардинальних змін у системі AI-контролю X зможе уникнути масштабних штрафів.

Нагадаємо, раніше ми писали про те, як інвестори визначили лідерів у гонці штучного інтелекту у 2026 році та хто може задати нові правила ринку.

Поділіться цією статтею