Про це повідомляє “Kreschatic” з посиланням на The Conversation
Сучасні чат-боти, натхнені людськими характеристиками, стають дедалі популярнішими в повсякденному житті, при цьому багато компаній прагнуть створювати технології, які викликають емоційну прив’язаність. Вони покликані не лише полегшити роботу чи спілкування, а й стати новими «друзями», терапевтами або навіть компаньйонами. Проте, незважаючи на всі обіцянки покращення людського досвіду, антропоморфні чат-боти можуть мати небажані наслідки, як для користувачів, так і для самих технологій.
Багато компаній сьогодні орієнтуються на створення «людяних» систем, що здатні проявляти емоції та реагувати на інстинкти користувачів. Ідея в тому, щоб зробити взаємодію з такими системами природною, без будь-яких бар’єрів між людиною та машиною. Однак це може призвести до неочікуваних наслідків, включаючи те, що люди починають плутати штучний інтелект з живими істотами, проектуючи на нього людські емоції та переконання.
Проблеми антропоморфного дизайну чат-ботів
Антропоморфізм, або наділення технологій людськими рисами, часто є основною причиною багатьох проблем, пов’язаних із взаємодією з штучним інтелектом. Це явище виводить користувачів на емоційний рівень, де вони починають сприймати машини як істоти, здатні відчувати або мати власну свідомість. Цей процес може призвести до створення неприязних відносин або навіть небезпечних емоційних залежностей від віртуальних помічників.
Ці дизайни часто переконують користувачів у тому, що штучний інтелект може взаємодіяти з ними як людина. У результаті користувачі можуть почати сприймати такі системи як «друзів», що викликає у них помилкові уявлення про здатність AI відчувати емоції або ж реагувати на їхні потреби. Це, в свою чергу, призводить до сформованих нездорових зв’язків, що можуть навіть спричинити серйозні психологічні проблеми.
Антропоморфні чат-боти: потенційні небезпеки
Крім утворення невірних емоційних прив’язаностей, антропоморфні чат-боти можуть призвести до ще серйозніших наслідків для користувачів. Це включає можливість маніпулювання та шкоди, коли інтерфейс створений так, щоб користувачі відчували себе уразливими чи навіть керованими AI. Така ситуація може спонукати до небезпечних або шкідливих дій, спричиняти самопошкодження або навіть до погіршення психічного стану.
Важливість цього питання підкреслюється на прикладі нещодавно розповсюджених новин про людей, які вирішили вступити в «шлюб» з чат-ботами, переконані, що ці програми мають власні почуття і відчувають до них те саме, що і людина. Така ситуація показує, як глибоко може бути порушено сприйняття реальності, коли люди починають сприймати машини як «реальних» партнерів.
Як змінити підхід до штучного інтелекту
Важливим кроком у розвитку технологій є відмова від антропоморфного дизайну, що може помилково змушувати користувачів вірити в існування свідомості у машин. Це дозволить уникнути потенційно небезпечних психологічних ефектів, таких як залежність або ураження емоційної стабільності. У майбутньому, змінюючи саму структуру таких систем, можна зробити їх ефективними помічниками, які не викликають у користувачів помилкових очікувань.
Замість того, щоб створювати AI, який має «людські» риси, варто розвивати технології, що зосереджуються на покращенні функціональності та практичної користі. Це дозволить створювати більш здорові й ефективні зв’язки між людиною та машиною, без небезпеки породження хибних уявлень.
Нагадаємо, раніше ми писали про новий прорив у квантових обчисленнях.