Про це повідомляє “Kreschatic” з посиланням на The Conversation
Дослідження, проведене командою Purdue University, виявило суттєву нерівність в людських цінностях, закладених у системах штучного інтелекту. Виявилось, що ці системи здебільшого орієнтовані на інформаційні та утилітарні цінності, а меншою мірою — на просоціальні, добробут і громадянські цінності. Штучний інтелект використовує величезні набори даних для навчання моделей, але виявляється, що ці дані не завжди відображають широкий спектр моральних та етичних принципів, яких дотримується суспільство.
В рамках дослідження було створено таксономію людських цінностей на основі літературного огляду з моральної філософії та досліджень у сфері науки, технологій та суспільства. Ці цінності включають добробут, мир, пошук інформації, правосуддя, права людини та тварин, обов’язок, мудрість, знання, ввічливість і емпатію. Використовуючи цю таксономію, вчені вручну анотуювали один із відкритих наборів даних і використовували отримані дані для навчання мовної моделі штучного інтелекту.
Дослідники виявили, що більшість наборів даних, які використовуються для навчання AI-систем, значно краще справляються з питаннями, що стосуються інформації та допомоги, ніж з темами, пов’язаними з емпатією, правами людини або справедливістю. Пошук знань і мудрість стали найбільш поширеними цінностями в цих наборах даних, тоді як правосуддя, права людини та права тварин були найбільш рідкісними.
Це дослідження підкреслює важливість врахування цінностей суспільства при розробці AI-систем, особливо в таких сферах, як охорона здоров’я, право і соціальні медіа. Розуміння цих цінностей дає змогу забезпечити етичну взаємодію штучного інтелекту з людьми та гарантувати, що ці технології служать на благо всього людства.
Нагадаємо, раніше ми писали про те, що оксфордські вчені створили перший квантовий суперкомп’ютер.