За даними The Conversation, журналісти дедалі частіше використовують метафори, аби пояснити складні технологічні процеси, наділяючи штучний інтелект «думками» чи «емоціями». Такий підхід полегшує сприйняття, але водночас створює ілюзію, що алгоритми мають власну свідомість або моральні якості, повідомляє Kreschatic. Це формує нове поле для публічних дискусій про роль технологій і межі їхнього впливу на суспільство.
Автори дослідження вказують, що описати нейронні мережі у термінах параметрів чи GPU складно для масового читача, натомість поняття «цифровий мозок» чи «емоційний штучний інтелект» дають зрозумілий образ. Проте такі образи часто приховують фундаментальні відмінності між статистичним обчисленням і реальним розумінням, підміняючи наукові факти художнім порівнянням.
«Цифровий мозок» і межі мислення
Європейські та іспанські медіа неодноразово представляли китайську модель DeepSeek як «цифровий мозок», здатний розуміти геополітичний контекст. Така риторика підкреслює масштабність обчислювальних завдань, але водночас створює хибне враження про наявність у машини власних думок чи пам’яті.
За класичною концепцією метафори Джорджа Лакоффа та Марка Джонсона, складні явища перетворюються на знайомі образи. У випадку зі штучним інтелектом «статистичне обчислення» підміняється «мисленням», що спрощує розуміння, але може призвести до переоцінки можливостей технології.
«Машини з почуттями» та ризики антропоморфізації
У 2025 році в іспанській пресі з’явилися матеріали про «емоційний штучний інтелект», де дослідження імітації «цифрової лімбічної системи» подавалися як крок до наділення машин почуттями. Це додавало драматизму, але водночас створювало концептуальну помилку: відчуття прив’язані до тілесності та самосвідомості, чого алгоритм не має.
Подібні образи роблять технологію схожою на суб’єкт, з якого можна вимагати співпереживання або звинувачувати в байдужості. У результаті суспільна увага зміщується з реальних творців і розробників на «машину», що спотворює моральну відповідальність.
Турботливі роботи та медичні «асистенти»
Окремим напрямом у пресі стали матеріали про роботів-доглядальників у Китаї, які нібито «піклуються про літніх людей». Така метафора покликана зняти суспільні побоювання й легітимізувати інновації в умовах демографічної кризи. Водночас вона замовчує питання етики: хто відповідальний за догляд, якщо його виконує машина, керована приватною компанією.
Інший приклад — позиціонування мовних моделей як «асистентів лікаря», що здатні переглядати історії хвороб і пропонувати діагнози. Тут метафора формує образ надійного помічника, а не конкурента, але також ставить питання про відповідальність у разі помилок: лікаря, алгоритму чи компанії-розробника.
Чому журналісти не відмовляться від метафор
Метафори виконують одразу кілька функцій: спрощують пояснення, додають драматизму й дозволяють формувати моральні оцінки. Саме завдяки їм технології стають «сюжетами» зі своїми героями та конфліктами. Однак такий підхід може вести до небезпечних висновків — наприклад, що штучний інтелект варто регулювати як «громадянина» або підкорятися йому як «вищому розуму».
Дослідники радять журналістам додавати технічні уточнення, уникати надмірної персоніфікації й урізноманітнювати образи, щоб уникати домінування антропоморфних порівнянь. Це дозволить зберегти баланс між зрозумілою для суспільства мовою та точністю у визначенні меж можливостей штучного інтелекту.
Нагадаємо, раніше ми писали про те, чому дивні відео стають популярними.