Про це повідомляє “Kreschatic” з посиланням на The Conversation
Система рецензування наукових статей довгі роки вважалася гарантією якості та достовірності досліджень. Однак із появою штучного інтелекту цей процес починає втрачати свою прозорість та надійність. Одного разу науковець отримав коментарі до своєї роботи, які здалися йому підозріло одноманітними та поверхневими. Відсутність конкретних прикладів і навіть згадки про неіснуючі розділи викликали сумніви: чи не була ця рецензія написана штучним інтелектом?
Щоб перевірити свої підозри, дослідник завантажив свою роботу в кілька мовних моделей штучного інтелекту та порівняв їхні відгуки з отриманими коментарями. Збіги виявилися вражаючими. Наприклад, поради прибрати “надмірні пояснення” без вказівки конкретних місць або дивні вимоги до оформлення джерел нагадували автоматичні відповіді, а не критику колеги. Найбільше насторожило те, що коментарі рецензента були вкрай розпливчастими та не приносили жодної користі для поліпшення статті.
Проблема полягає в тому, що використання штучного інтелекту в рецензуванні досі не регулюється належним чином. Автори статей не мають можливості дізнатися, чи був залучений ШІ, а рецензенти не зобов’язані це розкривати. Таким чином, під виглядом експертної оцінки дослідники можуть отримувати автоматичні відповіді, що ставить під загрозу не лише якість окремих публікацій, а й довіру до всієї наукової спільноти. Якщо це питання залишиться без уваги, є ризик, що недостовірні або неперевірені дані поширюватимуться як наукові факти.
Нагадаємо, раніше ми писали про те, чому штучний інтелект імітує бажання, не відчуваючи їх насправді.