Штучний інтелект і злочини проти дітей: як deepfake-відео спричинили глобальний сплеск насильства

Зростання кількості deepfake-злочинів показує, що цифрова епоха не лише відкриває нові можливості, а й створює загрози, які вимагають негайної реакції від усього світу.
Федоренко Олексій 65
Діти. Фото - Pixabay

Відповідно до матеріалу The Conversation, близько п’яти мільйонів дітей у Західній Європі повідомили, що зазнали сексуального насильства або зґвалтування до 18 років, а 12% дітей у Південній Азії пережили подібні злочини, пише Kreschatic. Дослідження, проведене глобальним інститутом Childlight, показало різке зростання випадків експлуатації дітей через штучний інтелект — зокрема, за допомогою технологій deepfake.

Експерти застерігають: масштаби проблеми стають безпрецедентними. У Західній Європі 19,6% неповнолітніх стикалися з небажаними або примусовими сексуальними контактами онлайн. Понад 60% усього контенту із зображенням сексуального насильства над дітьми розміщено на серверах у Нідерландах, що робить країну головним хостинг-центром такого матеріалу в регіоні.

Статистика, що шокує: як досліджували масштаби насильства

Індекс Childlight Into the Light 2025 охоплює 41 країну Західної Європи та Південної Азії. Він базується на 89 незалежних дослідженнях, даних правоохоронців, гарячих ліній і цифрових платформ. Результати показали, що в межах Європи від 3,7% до 9,6% дітей зазнали сексуального насильства, а в Індії, Непалі та Шрі-Ланці цей показник сягає 12%. Серед жертв — 14,5% дівчат і 11,5% хлопців.

Це перший звіт, який комплексно поєднує офлайн- і онлайн-дані, зокрема інформацію про контент, створений за допомогою штучного інтелекту. Дослідники наголошують, що лише за рік — з 2023 по 2024 — кількість випадків використання AI-згенерованих дитячих зображень зросла на 1325%. Такі матеріали дедалі частіше створюють шляхом накладання реальних дитячих облич на порнографічні сцени, що практично унеможливлює відстеження першоджерел.

Deepfake і технологічний фактор ризику

Штучний інтелект спростив створення образів, які виглядають цілком реалістично. Зловмисники використовують генеративні нейромережі, аби «вмонтовувати» обличчя дітей у відео або фото для подальшого розповсюдження в даркнеті. У 2024 році кількість таких випадків, зафіксованих Національним центром зниклих і експлуатованих дітей, зросла з 4,7 тисячі до понад 67 тисяч.

Фахівці Childlight попереджають, що значна частина зображень, знайдених у Мережі, створюється в домашньому середовищі — іноді навіть членами сімей жертв. Це означає, що насильство стає дедалі більш прихованим, а самі діти — ще більш уразливими. Такі матеріали можуть роками циркулювати онлайн, не зникаючи навіть після видалення оригінальних джерел.

Як світ реагує: від законів до превентивних технологій

Після міжурядового саміту в Колумбії у 2024 році вже понад 30 держав зобов’язалися посилити заходи з онлайн-захисту дітей. У ЄС діє Digital Services Act, який зобов’язує платформи проводити оцінку ризиків і звітувати про інциденти. У Великій Британії набув чинності Online Safety Act, а в Австралії Комісар із цифрової безпеки зобов’язав компанії оприлюднювати дані про невиявлені порушення.

Водночас ефективно працюють ініціативи типу Barnahus — моделі, що об’єднує поліцію, соціальні та медичні служби для допомоги дітям у безпечному середовищі. А блокувальні списки, які формують міжнародні організації, зупиняють до трьох мільйонів спроб перегляду незаконних зображень щотижня. Та експерти наголошують: без глобальної уніфікації законів і технологічного контролю подолати проблему неможливо.

Нагадаємо, раніше ми писали про те, чому зброю неможливо притягнути до відповідальності.

Share This Article
Щоб бути вільним потрібно знати правду.