Про це повідомляє “Kreschatic” з посиланням на The Conversation
Дослідження 2025 року показало, що дві третини канадців уже використовували генеративний штучний інтелект (GenAI). Це безпрецедентна швидкість прийняття нової технології, що свідчить про її стрімке проникнення в повсякденне життя. Проте лише меншість населення має чітке уявлення про принципи роботи, наслідки та етичні ризики пов’язані з її використанням.
Згідно з опитуванням, лише 38% опитаних впевнено користуються інструментами GenAI, а ще менше — 36% — розуміють етичні аспекти цієї технології. Така низька обізнаність становить загрозу не лише для індивідуальної безпеки, а й для суспільної стабільності, адже технології штучного інтелекту дедалі більше впливають на політичні процеси, медіа та освіту.
Виклики цифрової грамотності
Попри зростання використання GenAI у Канаді, більшість користувачів не мають базових знань про те, як ці інструменти працюють. Відсутність цифрової грамотності ускладнює оцінку достовірності результатів, особливо в контексті фейкових новин і політичних маніпуляцій. Це створює поле для дезінформації та підриває довіру до онлайн-контенту.
Ще одним викликом є слабка поінформованість громадян про те, як їхні дані можуть бути використані для навчання мовних моделей без згоди. Такі ризики вимагають не лише технічного, а й етичного переосмислення використання GenAI у публічному просторі.
Політична дезінформація і довіра до новин
GenAI дедалі частіше використовується в медіа, але ставлення до цього різко розділяється. Якщо в розважальному та лайфстайл-контенті технологію сприймають позитивно, то в новинах про політику, злочинність і міжнародні події вона викликає недовіру. Це пов’язано з побоюванням, що ІІ може бути використаний для маніпуляцій.
Більшість канадців вважає, що штучний інтелект здатен впливати на виборчі процеси. За даними опитування, 67% опитаних стурбовані потенційним впливом GenAI на політичну свідомість громадян, а 59% узагалі не довіряють новинам в інтернеті, побоюючись, що ті можуть бути згенеровані або змінені штучно.
Потреба в чітких регуляціях
На тлі зростання занепокоєності, канадське суспільство дедалі активніше вимагає регуляторного контролю. Понад 78% респондентів підтримують ідею притягнення до відповідальності компаній, які розробляють або використовують GenAI, якщо їхні інструменти завдають шкоди. Потреба в державному контролі стала очевидною для більшості населення.
Це особливо важливо з огляду на ризики витоку персональних даних і використання інформації без згоди. Пропозиції включають перегляд політик конфіденційності та впровадження принципів “приватність за замовчуванням” у всі розробки, що пов’язані зі штучним інтелектом.
Реформа освіти як стратегічний напрямок
Низький рівень обізнаності про GenAI серед громадян сигналізує про потребу системних змін в освітній політиці. Впровадження ІІ-грамотності в навчальні програми шкіл і університетів — стратегічно важливий крок для формування відповідального суспільства.
Учні повинні розуміти не лише як користуватися інструментами штучного інтелекту, а й де береться навчальна інформація, як перевіряти достовірність результатів і розпізнавати упередженість алгоритмів. Це дозволить підготувати нове покоління до етичного і критичного використання технологій.
Вимога до прозорості використання GenAI
Компанії, які впроваджують GenAI, мають публічно звітувати про його використання. Прозорість і оцінка ризиків повинні стати обов’язковими, особливо для ЗМІ, державних установ та приватного бізнесу, що мають вплив на громадську думку. Це допоможе підвищити довіру до рішень, у яких задіяно алгоритмічні системи.
Окремо варто виділити необхідність маркування контенту, створеного GenAI, та попередження користувачів про потенційні ризики. Це дозволить зменшити маніпуляції і повернути довіру до цифрового простору як джерела об’єктивної інформації.
Нагадаємо, раніше ми писали про те, що вчені створили перші в світі 3D-голограми до яких можно доторкнутися.