Штучний інтелект з людським мисленням: як ChatGPT повторює наші помилки

Дослідження, проведене на основі серії когнітивних тестів, показало, що ChatGPT часто мислить подібно до людини і відтворює типові логічні помилки. 
ChatGPT. Фото - Pexels

Про це повідомляє “Kreschatic” з посиланням на SciTechDaily 

Нове дослідження виявило, що популярна мовна модель ChatGPT здатна не лише вирішувати складні логічні завдання, а й демонструвати типові для людини когнітивні помилки. Хоча вона створена на базі математичних алгоритмів, виявилося, що в багатьох випадках її мислення нагадує людське — з усіма його слабкостями, зокрема надмірною впевненістю, униканням неоднозначності та ефектом «гарячої руки». Це викликає питання про те, наскільки можна покладатися на штучний інтелект у відповідальних сферах.

У дослідженні, опублікованому в журналі Manufacturing & Service Operations Management, вчені провели серію з 18 тестів на когнітивні упередження, щоб визначити, чи схильний штучний інтелект до таких самих хибних суджень, як і людина. У результаті ChatGPT проявив упередження у майже половині сценаріїв, зокрема демонстрував уникання ризику, ефект підтвердження та завищену самооцінку. Це свідчить про те, що ІІ не просто обчислює, а ще й імітує стиль людського мислення.

Людські помилки в цифровому мозку

Результати дослідження показали, що ChatGPT чудово справляється з точними логічними завданнями, однак помиляється там, де потрібне складне судження. Зокрема, модель виявляла такі ж помилки, як і середньостатистична людина: наприклад, віддавала перевагу більш зрозумілим, хоча й менш вигідним варіантам, або надто довіряла власним припущенням.

Унікальність відкриття полягає в тому, що навіть найновіша версія моделі — GPT-4 — не позбавлена упереджень. Ба більше, в деяких випадках вона демонструвала навіть більш виражені помилки, ніж попередні покоління. Це ставить під сумнів уявлення про те, що технології автоматично забезпечують об’єктивність і неупередженість.

Чому це має значення для бізнесу і держави

ChatGPT та подібні ІІ-системи вже активно використовуються в прийнятті рішень — від аналізу резюме кандидатів до оцінки кредитоспроможності. Однак якщо ці системи відтворюють людські упередження, то вони можуть не виправляти помилки, а навпаки — посилювати їх. Саме тому дослідники наголошують на необхідності ретельного контролю таких алгоритмів.

Особливу тривогу викликає те, що моделі виявляють упередження навіть без прямого втручання людини. Це означає, що системи навчання на великих обсягах людських даних можуть автоматично переймати ті самі логічні пастки, що й ми. Для бізнесу це може означати втрату ефективності, а для держави — ризики дискримінаційних рішень.

Що показує поведінка ChatGPT

Однією з найяскравіших характеристик штучного інтелекту стало уникнення неоднозначності. Якщо вибір включав ризик чи невизначеність, система майже завжди обирала безпечніший варіант, навіть коли це було менш вигідно. Це свідчить про консервативну природу ІІ, яка не завжди доречна в динамічному середовищі.

Також дослідники помітили ефект підтвердження — ChatGPT схильний віддавати перевагу інформації, яка підтримує вже сформовану позицію, ігноруючи суперечливі дані. У поєднанні з надмірною впевненістю в правильності своїх відповідей це може призводити до систематичних помилок у прийнятті рішень.

Перевірка штучного інтелекту стає критично важливою

На тлі зростаючого впливу ІІ на ключові процеси в суспільстві вчені закликають до регулярного аудиту його рішень. Зокрема, слід впроваджувати етичні стандарти, системи спостереження та оновлення моделей, щоб мінімізувати ризик поширення людських упереджень через алгоритми.

Автори дослідження рекомендують ставитися до штучного інтелекту як до співробітника, чия робота потребує нагляду та періодичного перегляду. Вони також підкреслюють, що оновлення моделей не гарантує автоматичного покращення — в деяких випадках нові версії можуть мати неочікувані ефекти, які слід уважно аналізувати.

Нагадаємо, раніше ми писали про те, що освітній курс Shark AI поєднує вивчення скам’янілостей із технологіями комп’ютерного зору.

Share This Article
Щоб бути вільним потрібно знати правду.
Коментувати

Залишити відповідь

Ваша e-mail адреса не оприлюднюватиметься. Обов’язкові поля позначені *

Exit mobile version