Згідно з матеріалом The Conversation, питання про те, чи може штучний інтелект (ШІ) стати екзистенційною загрозою, розділило наукову спільноту. Як повідомляє Kreschatic, п’ятеро провідних дослідників із Австралії та Великої Британії дали протилежні оцінки майбутньому технології: троє вважають страхи перебільшеними, тоді як двоє попереджають про реальні ризики, пов’язані з надінтелектом.
Публікація з’явилася після гучних заяв лауреата Нобелівської премії Джеффрі Хінтона, який оцінив імовірність знищення людства ШІ у межах 10–20% у найближчі три десятиліття. Ця цифра, на думку авторів дослідження, демонструє глибину суспільної тривоги, проте не є доказом неминучої катастрофи. Науковці закликають розглядати проблему комплексно, враховуючи і технологічні досягнення, і соціальні наслідки автоматизації.
Штучний інтелект між утопією та катастрофою
Дослідники з університетів Квінсленду, Мельбурна та CSIRO наголошують, що сучасний розвиток ШІ супроводжується надмірним ажіотажем. Від голосових асистентів до генеративних моделей, таких як ChatGPT чи Copilot, технології змінюють економіку, освіту та культуру, проте водночас створюють нові моральні дилеми. Зокрема, йдеться про питання контролю, автономії алгоритмів і відповідальності за наслідки їхніх рішень.
Частина експертів переконана, що загроза ШІ є радше філософською, ніж практичною. Вони вказують, що жодна сучасна система не наблизилася до рівня самосвідомості, а отже, розмови про «вбивчий надрозум» залишаються гіпотетичними. Проте інші фахівці наголошують, що небезпека може виникнути не від самих машин, а від їхнього неправильного використання людьми — зокрема у сфері військових технологій, маніпуляції інформацією чи економічного контролю.
Людський фактор і майбутнє регулювання
Фахівці з Університету Торренса та Австралійського католицького університету підкреслюють, що ключовою проблемою є не сам інтелект, а відсутність глобальної системи етичного регулювання. Без чітких норм і контролю за розробниками ризик зловживань лише зростає. Дослідники закликають до створення міжнародних стандартів, які б поєднували правові механізми з гуманітарними принципами, аби уникнути повторення технологічних криз минулого.
Експерти зазначають, що страх перед ШІ часто пов’язаний із невизначеністю майбутнього. Люди схильні проектувати власні побоювання на машини, тоді як справжній ризик полягає у нерівному розподілі влади між тими, хто контролює технологію, і рештою суспільства. Тому дослідження наголошує: головне завдання наступного десятиліття — не боротьба з машинами, а відповідальне управління їхнім потенціалом.
Можливості розвитку без загрози
Попри гучні застереження, більшість експертів не вбачає у ШІ неминучої загибелі людства. Навпаки, вони вважають, що штучний інтелект може стати інструментом подолання глобальних викликів — від зміни клімату до медичних відкриттів. Ключовим елементом безпеки при цьому залишається прозорість алгоритмів і відкритість досліджень, які дозволяють уникнути монополії у сфері технологій.
Автори дослідження підсумовують, що розвиток штучного інтелекту — це водночас виклик і можливість. Майбутнє не визначене, але саме людство вирішує, чи стане ШІ інструментом прогресу або джерелом загрози. І хоча думки експертів розходяться, усі погоджуються: час для безвідповідальних експериментів минув.
Нагадаємо, раніше ми писали про те, як університети можуть перетворити штучний інтелект із загрози на можливість.