Альтман відповів, чому ChatGPT не варто використовувати як психотерапевта

Згідно з дослідженням Talker Research, проведеним на замовлення Vitamin Shoppe в липні 2025 року, близько 35 відсотків дорослого населення США вдаються до допомоги генеративної ШІ-моделі ChatGPT для вирішення питань, пов’язаних зі здоров’ям і психоемоційним станом.
Сем Альтман. Фото - habr.com

Як інформує «Kreschatic» з посиланням на подкаст YouTube-каналу Theo Von, глава компанії OpenAI Сем Альтман висловив занепокоєння вищеописаною практикою і порадив користувачам двічі подумати, перш ніж звертатися до ChatGPT як до віртуального психотерапевта.

Виходячи зі слів керівника OpenAI попри те, що ШІ здатний давати рекомендації й навіть підтримувати в складний момент, спілкування з ним не підпадає під юридичні норми конфіденційності, як це відбувається при спілкуванні з сертифікованими психологами, лікарями або юристами.

Альтман нагадав, що всі діалоги з ChatGPT за замовчуванням зберігаються: навіть тимчасові сесії залишаються в системі OpenAI протягом 30 діб. У разі судового розгляду компанія може бути зобов’язана надати такі дані. Це означає, що в справах, пов’язаних, наприклад, з розлученням, суперечками про опіку або конфліктами на робочому місці, листування з ШІ можуть використовувати як доказ — якщо його вимагатимуть через суд.

Глава OpenAI визнав, що це створює серйозні ризики, і наголосив на необхідності адаптації законодавства. Він підкреслив: дискусії зі штучним інтелектом, особливо на особисті або вразливі теми, заслуговують на такий самий захист, як і будь-які інші конфіденційні консультації.

Раніше ми писали про те, що Microsoft додасть оновленого ШІ-помічника Clippy у функціонал Copilot Appearance.

Share This Article
Дізнайтеся першими про новини Києва з нами
Коментувати

Залишити відповідь

Ваша e-mail адреса не оприлюднюватиметься. Обов’язкові поля позначені *

Exit mobile version