Дослідження Microsoft показало, чи розпізнають користувачі зображення, згенеровані ШІ

На тлі зростаючих ризиків поширення ШІ-контенту, в Microsoft вказують на необхідність впровадження інструментів прозорості — компанія співпрацює з OpenAI в рамках фонду на 2 млн доларів, спрямованого на боротьбу з дезінформацією та фейковими візуальними матеріалами.
Штучний інтелект і картина. Фото - habr.com

Як інформує «Kreschatic» з посиланням на матеріал NeoWin, дослідження, проведене ініціативою Microsoft AI for Good, продемонструвало — більшість людей насилу відрізняють справжні зображення від згенерованих штучним інтелектом.

В даному експерименті взяли участь понад 12 500 осіб з різних країн, яким пропонувалося вгадати, які з 287 000 зображень є підробками, й в результаті виявилося, що користувачі в середньому правильно розпізнавали ШІ-контент лише в 62 відсотках випадків.

Найкраще «респонденти» визначали підроблені портрети людей — ймовірно, завдяки вродженій здатності помічати спотворення в обличчях. Однак при розпізнаванні пейзажів, міських сцен і предметної фотографії рівень точності знижувався до 59–61 відсотка — у таких зображень менше візуальних «підказок», які могли б видати «фейк».

При цьому, застарілі генеративні моделі (наприклад, на базі GAN) створювали менш глянцеві, але правдоподібні зображення, схожі на звичайні фото з телефону, що нерідко вводило користувачів в оману. На відміну від них, сучасні генератори на кшталт DALL-E 3 або Midjourney частіше залишають стилістичні «сліди».

Окремий блок дослідження був присвячений тестуванню внутрішнього детектора від OpenAI, призначеного для розпізнавання «діпфейків», створених DALL-E. Його точність перевищила 95 відсотків, що значно вище за людські показники, хоча і не гарантує ідеального результату.

Раніше ми писали про те, як створити ефективну систему розпізнавання обличчя.

Share This Article
Дізнайтеся першими про новини Києва з нами
Коментувати

Залишити відповідь

Ваша e-mail адреса не оприлюднюватиметься. Обов’язкові поля позначені *

Exit mobile version