Про це повідомляє “Kreschatic” з посиланням на The Conversation
Вибух у каліфорнійській клініці за участю AI та публічна заява одного з творців сучасного штучного інтелекту про небезпеку його подальшого розвитку привернули увагу до потреби в негайному регулюванні технології. Професор Йошуа Бенджіо, лауреат премії Тюрінга, оголосив про запуск некомерційної ініціативи, що має на меті створити безпечну альтернативу звичним алгоритмам. Його нова модель — Scientist AI — повинна не лише забезпечувати прозорість у відповідях, а й виступати інструментом контролю за іншими AI-системами.
Компанії, що змагаються у швидкості запуску нових моделей, часто нехтують питаннями етики та безпеки, знижуючи стандарти для досягнення конкурентної переваги. Проблеми із «чорними скриньками», тобто непрозорими AI-моделями, лише загострюються на тлі реальних загроз. Використання AI в злочинах, як показує інцидент у США, — не сценарій фантастики, а факт, що змушує переглядати підходи до безпеки та відповідальності.
Як працюватиме Scientist AI
Модель, яку розробляє команда Бенджіо, базується на принципах прозорості та відповідальності. Вона має здатність оцінювати рівень впевненості у своїх відповідях, чого бракує більшості популярних систем сьогодні. Це дозволяє уникнути ситуацій, коли AI видає помилкову інформацію з абсолютною впевненістю, вводячи в оману користувача.
Ще однією особливістю моделі є можливість пояснювати власну логіку. Це критично важливо в контексті довіри до AI, оскільки дає людині змогу проаналізувати, як саме алгоритм дійшов певного висновку. Відсутність такої прозорості — серйозна вада багатьох сучасних моделей, які обирають швидкодію за рахунок інтерпретованості.
Контроль над іншими системами: AI проти AI
Scientist AI не лише відповідатиме на запити користувачів — його функціонал включає моніторинг і контроль менш безпечних AI-систем. Завдяки цьому з’являється можливість виявляти і зупиняти алгоритми, що можуть шкодити суспільству або передавати небезпечну інформацію. Таким чином, система виконує роль цифрового наглядача в середовищі AI.
Масштабні системи на зразок ChatGPT обробляють мільярди запитів щодня, і контроль за ними вручну неможливий. Використання одного AI для перевірки іншого — єдиний спосіб забезпечити ефективний нагляд у глобальному масштабі. Подібна практика вже застосовується в наукових дослідженнях, де різні моделі тестуються одна проти одної для виявлення слабких місць.
Додавання «моделі світу»: шлях до розуміння реальності
Команда Бенджіо також впроваджує до нової моделі так звану «модель світу» — структуру, яка дозволяє AI мати уявлення про фізичні закони, контексти та причинно-наслідкові зв’язки. Це має вирішити хронічну проблему багатьох мовних моделей — нездатність до логічного розуміння світу, попри їхню компетентність у генерації тексту.
Яскравим прикладом цієї проблеми є так званий «проблема рук» — більшість AI не можуть коректно зобразити або описати рухи людських рук через брак базового розуміння анатомії та фізики. Іншим прикладом є шахи, де мовні моделі здійснюють нелегальні ходи, на відміну від спеціалізованих систем, які мають вбудовану модель правил гри.
Перешкоди на шляху та фінансові виклики
Попри амбіційність проєкту, Scientist AI стикається з реальними труднощами. Фінансування в розмірі 30 мільйонів доларів, хоч і суттєве для наукової ініціативи, значно поступається масштабам державних програм, зокрема американського проєкту з бюджетом у 500 мільярдів доларів. Це створює нерівні умови для розвитку безпечних альтернатив.
Окрім фінансових обмежень, існує ще одна критична проблема — доступ до великих обсягів даних. Більшість таких ресурсів знаходиться у власності техногігантів, які не зацікавлені в передачі своїх даних стороннім дослідникам. Без достатньої бази для навчання навіть найрозумніша система не зможе працювати ефективно.
Хто контролюватиме контролера
Питання, яке залишається відкритим — як саме Scientist AI буде впливати на інші системи. Навіть якщо вона зможе виявляти небезпеки, її повноваження не є юридично чи технологічно обґрунтованими. Без інтеграції в більші платформи або підтримки урядів її можливості залишаться обмеженими.
Попри це, поява таких ініціатив свідчить про новий напрям у розвитку штучного інтелекту — пріоритет безпеки, прозорості та контролю. Якщо подібні моделі отримають визнання, це зможе кардинально змінити підхід до розробки майбутніх AI-систем.
Нагадаємо, раніше ми писали про те, як нова технологія MIT може скоротити енергоспоживання на нафтопереробці на 90%.