Про це повідомляє “Kreschatic” з посиланням на The Conversation
Світові технологічні гіганти витрачають величезні ресурси на створення безпечних алгоритмів, але ситуація може змінитися. Влада США планує послабити обмеження на модерацію вмісту штучного інтелекту, що може призвести до неконтрольованих наслідків. Деякі моделі вже демонструють неоднозначну поведінку, що викликає тривогу у фахівців. Без належного контролю ШІ може відображати расову чи гендерну упередженість, транслювати небезпечні ідеї або використовуватися в маніпулятивних цілях.
Це повертає суспільство до обговорення етичних стандартів, необхідних для розвитку технологій. У США відбувається серйозний політичний зсув щодо підходу до штучного інтелекту. Адміністрація ухвалила нові розпорядження, спрямовані на усунення “ідеологічної упередженості”, що фактично означає відмову від принципів рівності та інклюзії у роботі алгоритмів.
Це може вплинути на безпеку систем, адже раніше саме ці обмеження запобігали появі небажаних упереджень. Водночас, низка компаній, таких як Microsoft та Google, є підрядниками уряду, що може вплинути на їхні рішення. Якщо їх зобов’яжуть зменшити контроль над контентом, ризики використання ШІ в негативному ключі зростуть у рази.
Інженери штучного інтелекту завжди працювали над зменшенням потенційної шкоди, яку можуть спричинити їхні моделі. Вони використовували людський зворотний зв’язок, щоб навчати алгоритми відповідати коректно. Для цього залучалися спеціалісти, які намагалися змусити ШІ генерувати проблемний контент, що дозволяло відстежувати ризики ще на етапі тестування.
Але якщо ці заходи будуть скорочені чи повністю усунуті, платформи можуть стати більш вразливими до маніпуляцій, що потенційно загрожує користувачам дезінформацією або навіть мовою ворожнечі. Моделі штучного інтелекту не є статичними – вони постійно адаптуються до нових даних. Якщо їхній вхідний потік інформації не фільтрується, зростає ризик неконтрольованих змін у поведінці ШІ.
Вже існують випадки, коли алгоритми починали висловлювати сумнівні або агресивні думки після зовнішнього впливу. Це доводить, що без постійного моніторингу такі системи можуть легко змінювати свою “думку” залежно від отриманої інформації. Наразі питання стоїть руба – чи вдасться зберегти контроль над розвитком технологій у нових політичних умовах.
Нагадаємо, раніше ми писали про голографічний прорив у 3D-друці.