Про це повідомляє “Kreschatic” з посиланням на PT
Штучний інтелект постійно вдосконалюється, і чим складнішими стають його моделі, тим точніше та плавніше вони намагаються відтворювати людську мову. Але разом з цим настає і новий виклик: штучні інтелекти все краще генерують правдоподібні, але абсолютно хибні твердження. Це явище, яке стає все більш поширеним з розвитком великих мовних моделей, вже викликає питання про те, наскільки довіряти таким системам у критичних ситуаціях.
Сучасні мовні моделі, такі як ChatGPT, працюють за принципом прогнозування слів на основі ймовірностей, що виходять з навчальних даних. Їхня мета – створити текст, який буде звучати природно та логічно. Однак ці моделі не оцінюють істинність своєї інформації, а лише намагаються зробити її більш правдоподібною. Навчання за допомогою зворотного зв’язку від людини тільки погіршує ситуацію, адже моделі заохочують відповіді, що звучать переконливо, навіть якщо вони є неправдивими.
Якщо раніше штучний інтелект міг робити очевидні помилки, то тепер його відповіді стали надзвичайно схожими на правду. Ось чому у багатьох випадках користувач може не помітити, що отримав хибну інформацію. Це може призвести до серйозних помилок у таких сферах, як медицина, право чи бізнес. Лікар може поставити неправильний діагноз, юрист використовувати помилкову правову інформацію, а менеджер прийняти важливе рішення на основі невірного аналізу.
Однак ці моделі не обманюють свідомо, адже вони не мають здатності розуміти поняття істини. Вони лише передбачають наступне слово, базуючись на зразках у їхніх даних. Тому важливо розуміти, що ці моделі не можуть “брехати” в традиційному розумінні. Їхні помилки – це наслідок дизайну, а не наміру ввести когось в оману. Важливо зберігати розуміння, що ці інструменти є потужними, але потребують людського контролю.
Маючи всі ці фактори на увазі, ми маємо впровадити ефективні механізми для зниження ризиків. Ось чому важливо не просто використовувати ці інструменти, а й забезпечити надійний контроль, щоб уникнути необґрунтованих помилок. Прозорість у відображенні впевненості моделі в її відповідях може допомогти користувачам оцінити, чи варто додатково перевіряти інформацію. Лише за таких умов штучний інтелект може стати надійним партнером у прийнятті рішень.
Нагадаємо, раніше ми писали про те, що штучний інтелект (ШІ) має великий потенціал у соціальних службах.