Як зазначає The Conversation, розвиток штучного інтелекту відкриває нові можливості для науки й економіки, але водночас створює серйозні загрози для національної безпеки, виборчих процесів і систем охорони здоров’я. Експерти попереджають: від автоматизації атак до маніпуляцій на фондових ринках — використання ШІ дедалі частіше виходить за межі контролю, — повідомляє Kreschatic.
Швидке поширення генеративних технологій, таких як ChatGPT чи DeepSeek, робить створення фейкових новин, зображень або політичної пропаганди надзвичайно простим. При цьому складність сучасних моделей та їхня здатність адаптуватися з часом роблять наслідки їх використання менш прогнозованими й більш небезпечними.
Політичні вибори та дезінформація
Виборчі кампанії стають однією з найуразливіших сфер. Використання ШІ для створення підроблених профілів і персоналізованого контенту дозволяє маніпулювати думкою виборців з небаченою точністю. У 2024 році президентські вибори в Румунії були скасовані через масове втручання із застосуванням соціальних платформ. Подібні загрози, за оцінками експертів, лише посилюватимуться в найближчі роки.
Окрім політики, технології вже активно використовуються для фінансових махінацій. Найнебезпечніші ризики:
- фейкові новини, що впливають на ринки;
- маніпуляції зі штучними зображеннями чи відео;
- атаки на кредитні скорингові системи для ухвалення хибних рішень.
Медицина під загрозою упереджених алгоритмів
Сфера охорони здоров’я є однією з найбільш ризикованих у використанні штучного інтелекту. Під час пандемії COVID-19 саме ШІ сприяв поширенню неправдивої інформації про вакцинацію, що підживило недовіру до медичних рішень. Сьогодні небезпеку становлять алгоритми, які навчаються на упереджених даних: це може призвести до дискримінаційних рекомендацій і відмови у лікуванні вразливим групам населення.
За результатами дослідження Cedars Sinai, мовні моделі пропонували менш якісне лікування пацієнтам афроамериканського походження. Додатково лікарні стають мішенями для кіберзлочинців, адже цифровізація медицини збільшує поверхню атак і відкриває нові можливості для злому систем.
Військовий вимір і національна безпека
Війна в Україні стала показовим прикладом використання ШІ у військовій сфері. Дрони, керовані алгоритмами, змінили хід бойових дій, а атаки на енергетичні системи та транспортні мережі підтвердили руйнівний потенціал таких технологій. ШІ також використовується для інформаційних кампаній, спрямованих на введення супротивника в оману та вплив на громадську думку.
Глобальний вимір загроз включає:
- перерозподіл технологічної переваги між країнами;
- посилення впливу корпорацій у сфері ШІ;
- екологічні наслідки від високих енергозатрат генеративних моделей.
Як зменшити ризики
Фахівці наголошують: протидія загрозам вимагає багаторівневого підходу. На індивідуальному рівні користувачам варто обирати надійних провайдерів, перевіряти джерела інформації, залишатися пильними до маніпуляцій і повідомляти про зловживання.
Для інституцій і держав пріоритетними є:
- запровадження стандартів безпеки для розробників;
- використання алгоритмів виявлення маніпуляцій;
- впровадження людського контролю у критичних процесах;
- ухвалення законодавчих актів на кшталт Європейського закону про ШІ;
- розвиток міжнародної співпраці у сфері даних і безпеки.
Нагадаємо, раніше ми писали про те, що генеративний ШІ може виявитися марним.