Штучний інтелект впливає на вибори: експеримент довів масштаб ризику

Експеримент в Австралії показав, що технології штучного інтелекту вже сьогодні здатні не лише створювати контент, а й впливати на хід демократії.

Штучний інтелект. Фото - PCB

Як повідомляє Sumymsek, команда дослідників з Університету Нового Південного Уельсу (UNSW Sydney) створила першу у світі симуляцію виборів, у якій штучний інтелект керував інформаційними кампаніями. Проєкт під назвою Capture the Narrative показав, як мережі ботів здатні маніпулювати громадською думкою та навіть змінювати результати голосування, пише Kreschatic.

У дослідженні брали участь 108 команд студентів з 18 австралійських університетів. Вони використовували генеративний штучний інтелект для створення ботів, які змагалися у віртуальній президентській кампанії. Результати експерименту засвідчили, що фейкові акаунти можуть істотно впливати на виборчий процес навіть у контрольованому середовищі.

Мережі ботів і сила дезінформації

Дослідники виявили, що понад 60% контенту під час симуляції створювали саме боти. Вони генерували понад сім мільйонів публікацій, використовуючи фейки, емоційні повідомлення та маніпулятивні відео.

Один із учасників експерименту поділився своїми враженнями:

«Створити дезінформацію лячно просто — набагато легше, ніж перевірити правду».

У результаті змагання переміг кандидат «Віктор» — лише через активність ботів, тоді як у повторній симуляції без штучного втручання виграла «Марина». Це свідчить, що інформаційні маніпуляції здатні повністю змінювати результат виборів.

Як народжується ефект “брехуна”

Експеримент продемонстрував явище, яке науковці назвали “liar’s dividend” — втрату довіри до будь-якої інформації. Коли користувачі бачать усе більше підроблених повідомлень, вони починають сумніватися навіть у реальних фактах.

Автори проєкту зазначають, що саме це є найбільш небезпечним наслідком дії ботів.

«Навіть автентичні голоси з критичною позицією можуть сприйматися як фейки або пропаганда».

Такий ефект руйнує суспільну дискусію і дозволяє маніпуляторам створювати вигадану “реальність”, у якій складно відрізнити правду від вигадки.

Шлях до цифрової грамотності

Дослідники підкреслюють, що протидіяти маніпуляціям можна лише через розвиток цифрової грамотності. Вміння розпізнавати неправдиві матеріали, розуміння алгоритмів поширення контенту та критичне мислення стають головними захисними механізмами користувача.

У межах гри учасники навчалися ідентифікувати емоційні патерни у повідомленнях, що викликали найбільше реакцій, зокрема через агресивну лексику чи негативне формулювання. Такий аналіз допомагає формувати стійкість до дезінформації у реальному онлайн-середовищі.

Нагадаємо, раніше ми писали про те, як працівники витрачають години на виправлення помилок штучного інтелекту.

Поділіться цією статтею