Про це повідомляє “Kreschatic” з посиланням на The Conversation
Штучний інтелект стає все більш поширеним інструментом у сферах захисту дітей, літніх людей та інших вразливих груп. Його застосовують для виявлення ризикованих ситуацій, прогнозування загроз та навіть моніторингу поведінки в режимі реального часу. Однак, попри потенціал до ефективної допомоги, існує небезпека повторення помилок минулого, коли системи захисту не лише не рятували, а й шкодили тим, кого мали оберігати.
Алгоритми, які аналізують текстові повідомлення, камери з виявленням агресії та прогнозні моделі ризику — все це розробляється, щоб діяти на випередження. Проте вчені та фахівці з соціальної роботи все частіше б’ють на сполох через неточності в роботі систем, упередженість у даних та брак людського контексту в прийнятті рішень. Відтак виникає головне питання: чи справді штучний інтелект допомагає, чи лише автоматизує старі несправедливі практики?
Як штучний інтелект вивчає упередження з минулого
Більшість алгоритмів вчаться на історичних даних, які самі по собі можуть містити расизм, класизм або дискримінацію. Це означає, що технологія, якою оперує соціальна система, може продовжувати існуючі нерівності, навіть не усвідомлюючи цього. У деяких випадках, наприклад, системи прогнозування ризику у США автоматично присвоювали вищі оцінки загрози дітям із темношкірих родин, навіть без прямої участі спеціалістів.
Мовні моделі також можуть демонструвати упередженість. Наприклад, деякі алгоритми розпізнають афроамериканську англійську як “агресивну” у 62% випадків частіше, ніж стандартну англійську. Це свідчить про те, що AI не розуміє культурного контексту, а лише сліпо відтворює вивчені шаблони. Такі похибки створюють реальні ризики для невинних людей, яких система може помилково ідентифікувати як загрозу.
Надмірне спостереження замість підтримки
У лікарнях, школах і будинках для людей похилого віку AI-системи дедалі частіше використовують для виявлення насильства або небезпечної поведінки. Хоча їх презентують як інновації, що забезпечують безпеку, часто йдеться про втручання в особисте життя без згоди. Деякі пілотні програми демонстрували тисячі помилкових сигналів, які перевантажували персонал і не запобігали реальним інцидентам.
Учні у школах США стають мішенню систем, які аналізують листування, історію переглядів і навіть рухи в класі. Такі інструменти здатні не лише хибно трактувати звичайну поведінку як агресивну, а й порушувати приватність, наприклад, передаючи особисту інформацію про гендерну ідентичність учнів батькам без їхньої згоди. Це створює ризик подальшої стигматизації та психологічної травми.
Нові принципи для етичного використання технологій
У відповідь на загрози, які несе автоматизоване прийняття рішень, з’являються пропозиції створити так званий “травмоорієнтований AI”. Йдеться про принципи, які мають стати основою для розробки етичних систем: контроль користувача над власними даними, обов’язкова участь людини в ухваленні рішень, перевірка алгоритмів на наявність упередженості та вбудований захист конфіденційності.
Ці підходи вже впроваджуються у деяких ініціативах, зокрема в партнерствах з організаціями, що працюють із постраждалими від насильства. Нові закони, як-от у Монтані, вимагають, щоб державні структури не використовували AI без належного нагляду. Такий підхід дозволяє повернути людям контроль над технологіями, які без цього можуть перетворитися на інструменти примусу замість захисту.
Підходи, які вже довели свою ефективність
Комбінація AI із досвідом соціальних працівників дає кращі результати, ніж автоматичне прийняття рішень. Дослідження в окрузі Аллегені засвідчило, що коли рішення про розслідування справ про жорстоке поводження ухвалювались за участі спеціалістів, різниця між оцінкою сімей білої та темношкірої рас зменшувалась удвічі. Це доводить, що техніка повинна залишатися інструментом, а не суддею.
Також ефективними виявились моделі, які дозволяють постраждалим від насильства самим контролювати, коли й на яких умовах вони взаємодіють із системами. Завдяки цьому підвищується довіра до сервісів підтримки та зростає кількість звернень по допомогу. Таким чином AI стає не лише засобом виявлення проблем, а й ресурсом для їх вирішення.
Нагадаємо, раніше ми писали про прорив для розвитку мережі 6G.