Про це повідомляє “Kreschatic” з посиланням на The Conversation
Технології штучного інтелекту стрімко змінюють наше сприйняття експертної допомоги. Дослідження показало, що багато людей частіше довіряють юридичним порадам, створеним ChatGPT, ніж порадам реальних юристів, особливо коли джерело інформації залишається невідомим. Таке відкриття викликає серйозні питання щодо безпеки використання штучного інтелекту в критичних сферах і підкреслює необхідність нових підходів до регулювання та освіти користувачів.
Штучний інтелект пропонує швидкі відповіді та рішення, але його здатність впевнено озвучувати навіть помилкові висновки ставить під загрозу довіру суспільства до справжніх експертів. Це особливо важливо у таких чутливих сферах, як юриспруденція, де наслідки помилок можуть бути катастрофічними. Результати дослідження виявили: коли учасники не знали, хто надав пораду, вони частіше обирали рекомендації, створені штучним інтелектом.
Причини високого рівня довіри до ChatGPT
Однією з головних причин більшої довіри до порад ChatGPT є складніша мова, якою ШІ формулює свої відповіді. Люди сприймають таку складність як ознаку компетентності, що підвищує авторитет джерела в їхніх очах. Навпаки, реальні юристи зазвичай використовують простішу мову, але надають розгорнутіші пояснення, що може створювати враження меншої експертності.
Ще одним важливим чинником є впевненість, із якою штучний інтелект подає свої рекомендації. Навіть коли вміст неточний або суперечливий, категоричний тон змушує людей вірити в правильність отриманої інформації. Це явище значно ускладнює можливість критичного сприйняття і підвищує ризик бездумного виконання шкідливих порад.
Слабка здатність розпізнавати джерело поради
Дослідження виявило, що люди лише трохи краще за випадкове вгадування можуть розрізнити пораду юриста та штучного інтелекту. Учасники отримували середній результат усього 0,59 у тесті, де 0,5 означало б повністю випадкові відповіді. Це свідчить про обмежені можливості більшості користувачів у визначенні, чи була порада створена людиною чи машиною.
Такий низький рівень розпізнавання джерела інформації створює додаткові ризики. Люди можуть несвідомо довіряти штучному інтелекту навіть у ситуаціях, де неправильна порада може спричинити серйозні юридичні наслідки. Саме тому виникає нагальна потреба в розвитку навичок критичного мислення та підвищенні обізнаності щодо роботи систем штучного інтелекту.
Потреба у регулюванні штучного інтелекту
Одним із способів мінімізувати ризики є запровадження чітких регуляторних норм для текстогенеруючих моделей. Наприклад, стаття 50.9 Європейського закону про штучний інтелект вимагає, щоб результати роботи ШІ були позначені як штучно згенеровані у форматі, який можна виявити машинно. Це дозволить користувачам усвідомлювати природу отриманої інформації.
Проте одного лише маркування недостатньо для повного захисту користувачів. Необхідно також запровадити етичні стандарти для розробників і поширювати практики відповідального використання штучного інтелекту, особливо в таких сферах, як право, медицина та фінанси. Без комплексного підходу ризики неправильного використання ШІ залишатимуться високими.
Формування навичок критичної взаємодії з ШІ
Окрім регулювання, важливо підвищувати рівень обізнаності громадськості щодо можливостей і обмежень штучного інтелекту. Навчання критичному мисленню і перевірці інформації має стати обов’язковою частиною взаємодії з будь-яким цифровим продуктом. Користувачі повинні вміти ставити під сумнів джерело поради, перевіряти факти і звертатися до професіоналів перед прийняттям важливих рішень.
Особливо обережно варто ставитися до використання ШІ у юридичній сфері. Хоча генеративні моделі можуть допомогти зорієнтуватися в тематиці або підготуватися до консультації, остаточні рішення повинні базуватися на перевіреній інформації, отриманій від кваліфікованого юриста. Це дозволить уникнути серйозних помилок і забезпечить юридичну безпеку.
Нагадаємо, раніше ми писали про найкраще рішення для технічних проблем.