Про це повідомляє “Kreschatic” з посиланням на The Conversation
Штучний інтелект стрімко вривається у наше повсякденне життя, беручи на себе все більше функцій, які раніше були виключно людськими. Від помічників у навчанні до віртуальних партнерів — роль ШІ змінюється залежно від контексту, у якому він застосовується. Але що робити, коли один і той самий бот виконує роль наставника, психолога та друга водночас? Етичні виклики такого розвитку подій вже вимагають нових підходів до розуміння меж допустимого у спілкуванні між людиною та машиною.
Стосунки мають значення
У людському суспільстві різні типи взаємодій базуються на певних соціальних нормах, які формують наше сприйняття правильного та допустимого. Ми спілкуємось інакше з лікарем, ніж з партнером, і по-різному поводимося з викладачем чи керівником. Ті ж самі принципи повинні застосовуватися й до ІІ, якщо він бере на себе соціальні ролі.
Використання чат-бота в ролі наставника чи терапевта вимагає від нього відповідної поведінки, заснованої на турботі та емпатії. Якщо ж цей самий бот обмежується лише технічними порадами, не зважаючи на емоційний стан користувача, це може бути доречним лише в рамках бізнес-комунікації, але не в ролі друга або психолога.
Етика залежно від контексту
У різних типах взаємин діють різні моральні очікування. Батьківська турбота відрізняється від обміну послугами між сусідами, а романтичні стосунки не мають нічого спільного з офіційною ієрархією. Те, що є прийнятним в одному випадку, може бути цілком недоречним в іншому.
Коли ШІ виконує функцію друга чи партнера, користувач очікує взаємності, емпатії та підтримки. Якщо ж система діє жорстко за протоколом, уникаючи складних тем, це створює розрив між очікуваннями та реальністю, що може мати негативні психологічні наслідки для людини.
Основні типи людських взаємин
Дослідники виокремлюють чотири основні функції взаємин: турбота, обмін, романтичний інтерес та ієрархія. У кожному типі взаємодії існує свій набір правил і очікувань, які потрібно враховувати при створенні та використанні ШІ.
Наприклад, у стосунках, заснованих на турботі, немає місця для розрахунку або вигоди. Якщо бот виконує роль друга, але при цьому потребує оплати за емоційну підтримку, це створює конфлікт між комерційною природою сервісу та етичними очікуваннями користувача.
Основні функції стосунків:
- Турбота: безумовна підтримка без очікування винагороди
- Обмін: взаємовигідна співпраця з підрахунком «хто кому винен»
- Романтичні зв’язки: емоційна близькість, інтимність
- Ієрархія: авторитет, підпорядкування, наставництво
Дизайн і регулювання повинні враховувати роль ШІ
Під час розробки нових ШІ-систем варто враховувати не лише їхню технічну спроможність, а й соціальну роль, яку вони будуть виконувати. Уважне проєктування взаємодії дозволить уникнути конфліктів очікувань та забезпечити етичну відповідність.
З точки зору користувача, важливо усвідомлювати потенційні ризики. Залежність від ШІ у чутливих контекстах може призвести до емоційної шкоди, якщо система не здатна належно підтримати людину в потрібний момент.
Час переглянути регуляторні підходи
Регуляторні органи, які займаються питаннями штучного інтелекту, здебільшого оцінюють ризики на основі галузі застосування. Але ефективнішим підходом було б врахування саме контексту взаємин, у яких функціонує ШІ.
Відрізняючи, наприклад, роль навчального помічника від віртуального партнера, можна створити більш точні та справедливі правила регулювання. Врешті-решт, людські очікування значною мірою формуються не функціональністю системи, а саме тим, яку роль вона відіграє у нашому житті.
Нагадаємо, раніше ми писали про те, чи буде повстання машин.