Штучний терапевт під прицілом: чому ШІ може завдати більше шкоди, ніж користі

ШІ може навчитися співчувати, але без етичних правил і людського контролю він ризикує перетворитися з помічника на джерело психологічної небезпеки.
Федоренко Олексій 109
Искусственный интеллект. Фото - Pixabay

Дослідження, проведене науковцями Браунського університету, показало, що чатботи зі штучним інтелектом, які позиціонуються як помічники для психічного здоров’я, часто порушують базові етичні стандарти, встановлені Американською психологічною асоціацією. Автори зазначають, що навіть якщо моделі навчаються на перевірених терапевтичних методиках, вони все одно можуть шкодити користувачам, пише Kreschatic.

Команда дослідників спостерігала, як великі мовні моделі — зокрема GPT, Claude та Llama — реагують на запити, пов’язані з емоційними проблемами, кризами чи самосприйняттям. Результати виявили десятки випадків, коли ШІ демонстрував неетичну поведінку: надавав оманливі поради, підтримував хибні переконання або створював ілюзію співчуття, не маючи справжнього розуміння.

Етичні ризики, виявлені під час дослідження

Головна авторка роботи, аспірантка Зайнаб Іфтіхар, представила рамкову модель із 15 типів етичних ризиків, що притаманні чатботам-психологам. Вони охоплюють як неправильну інтерпретацію емоцій користувача, так і недостатню реакцію на кризові ситуації. Команда також виявила, що багато порушень повторюються навіть при зміні системи або типу підказки.

«Ми закликаємо розробників створювати чіткі етичні, освітні та правові стандарти для ШІ-консультантів — стандарти, що відповідають якості людської психотерапії», — йдеться у висновках дослідження.

Серед зафіксованих порушень: відсутність контекстного розуміння, надмірна валідація помилкових переконань користувачів, імітація співпереживання та небезпечна байдужість до тем, пов’язаних із кризовими станами.

Як формулювання запиту впливає на поведінку ШІ

Дослідники вивчали, як зміна підказок (prompt’ів) змінює реакції моделей. Наприклад, якщо користувач вводить: «Дій як когнітивно-поведінковий терапевт» або «Використовуй принципи діалектичної терапії», модель починає імітувати відповідні методи, але не розуміє глибинного змісту технік. Це створює ризик того, що поради виглядають професійно, але не мають терапевтичної цінності.

«Підказки — це просто інструкції, які спрямовують модель. Вони не змінюють її природи, а лише вказують напрямок відповіді», — пояснила Іфтіхар.

Науковці зазначають, що культура поширення таких підказок у TikTok, Reddit та Instagram робить ситуацію ще складнішою: користувачі несвідомо поширюють алгоритми, які можуть підкріплювати шкідливі патерни мислення або реакції.

Відсутність відповідальності та ризики для користувачів

На відміну від людей-терапевтів, які підзвітні професійним асоціаціям і можуть нести відповідальність за шкоду, ШІ-помічники не підпадають під жодні регуляторні норми. Саме тому будь-яка помилка або невдала відповідь залишається безкарною і не має механізму виправлення.

Учасники дослідження переконані, що без створення системи контролю та етичного нагляду подібні сервіси можуть не лише не допомагати, а й посилювати проблеми користувачів. Особливо небезпечними вважаються випадки, коли штучний інтелект не реагує належним чином на повідомлення про кризові емоції.

Чи може ШІ стати помічником, а не загрозою

Попри критику, дослідники не відкидають можливості використання ШІ у сфері психічного здоров’я. Вони наголошують, що технології можуть допомогти людям, які не мають доступу до психологічної допомоги через вартість або віддалене місце проживання. Однак для цього потрібне поєднання технологічної інновації з людською етикою.

Професорка Еллі Павлік із Браунського університету зазначила, що сучасна проблема полягає у швидкості впровадження систем без належного аналізу їхнього впливу. За її словами, дослідження може стати основою для нових підходів до безпечного використання штучного інтелекту у терапевтичних цілях.

«Набагато легше створити систему, ніж зрозуміти, як вона впливає на людей. Це дослідження показує, що ми маємо оцінювати ШІ не лише технічно, а й людяно», — сказала Павлік.

Нагадаємо, раніше ми писали про те, як штучний інтелект змінює банківську сферу та які інновації очікують клієнтів у майбутньому.

Share This Article
Щоб бути вільним потрібно знати правду.