«Чесний» штучний інтелект: як засновник сучасного AI хоче зупинити загрозу

Розробка безпечного штучного інтелекту, здатного не лише пояснювати свої дії, а й контролювати інші небезпечні системи, може стати єдиним способом зберегти стабільність у технологічному середовищі. 
Технології. Фото - Pexels

Про це повідомляє “Kreschatic” з посиланням на The Conversation 

Вибух у каліфорнійській клініці за участю AI та публічна заява одного з творців сучасного штучного інтелекту про небезпеку його подальшого розвитку привернули увагу до потреби в негайному регулюванні технології. Професор Йошуа Бенджіо, лауреат премії Тюрінга, оголосив про запуск некомерційної ініціативи, що має на меті створити безпечну альтернативу звичним алгоритмам. Його нова модель — Scientist AI — повинна не лише забезпечувати прозорість у відповідях, а й виступати інструментом контролю за іншими AI-системами.

Компанії, що змагаються у швидкості запуску нових моделей, часто нехтують питаннями етики та безпеки, знижуючи стандарти для досягнення конкурентної переваги. Проблеми із «чорними скриньками», тобто непрозорими AI-моделями, лише загострюються на тлі реальних загроз. Використання AI в злочинах, як показує інцидент у США, — не сценарій фантастики, а факт, що змушує переглядати підходи до безпеки та відповідальності.

Як працюватиме Scientist AI

Модель, яку розробляє команда Бенджіо, базується на принципах прозорості та відповідальності. Вона має здатність оцінювати рівень впевненості у своїх відповідях, чого бракує більшості популярних систем сьогодні. Це дозволяє уникнути ситуацій, коли AI видає помилкову інформацію з абсолютною впевненістю, вводячи в оману користувача.

Ще однією особливістю моделі є можливість пояснювати власну логіку. Це критично важливо в контексті довіри до AI, оскільки дає людині змогу проаналізувати, як саме алгоритм дійшов певного висновку. Відсутність такої прозорості — серйозна вада багатьох сучасних моделей, які обирають швидкодію за рахунок інтерпретованості.

Контроль над іншими системами: AI проти AI

Scientist AI не лише відповідатиме на запити користувачів — його функціонал включає моніторинг і контроль менш безпечних AI-систем. Завдяки цьому з’являється можливість виявляти і зупиняти алгоритми, що можуть шкодити суспільству або передавати небезпечну інформацію. Таким чином, система виконує роль цифрового наглядача в середовищі AI.

Масштабні системи на зразок ChatGPT обробляють мільярди запитів щодня, і контроль за ними вручну неможливий. Використання одного AI для перевірки іншого — єдиний спосіб забезпечити ефективний нагляд у глобальному масштабі. Подібна практика вже застосовується в наукових дослідженнях, де різні моделі тестуються одна проти одної для виявлення слабких місць.

Додавання «моделі світу»: шлях до розуміння реальності

Команда Бенджіо також впроваджує до нової моделі так звану «модель світу» — структуру, яка дозволяє AI мати уявлення про фізичні закони, контексти та причинно-наслідкові зв’язки. Це має вирішити хронічну проблему багатьох мовних моделей — нездатність до логічного розуміння світу, попри їхню компетентність у генерації тексту.

Яскравим прикладом цієї проблеми є так званий «проблема рук» — більшість AI не можуть коректно зобразити або описати рухи людських рук через брак базового розуміння анатомії та фізики. Іншим прикладом є шахи, де мовні моделі здійснюють нелегальні ходи, на відміну від спеціалізованих систем, які мають вбудовану модель правил гри.

Перешкоди на шляху та фінансові виклики

Попри амбіційність проєкту, Scientist AI стикається з реальними труднощами. Фінансування в розмірі 30 мільйонів доларів, хоч і суттєве для наукової ініціативи, значно поступається масштабам державних програм, зокрема американського проєкту з бюджетом у 500 мільярдів доларів. Це створює нерівні умови для розвитку безпечних альтернатив.

Окрім фінансових обмежень, існує ще одна критична проблема — доступ до великих обсягів даних. Більшість таких ресурсів знаходиться у власності техногігантів, які не зацікавлені в передачі своїх даних стороннім дослідникам. Без достатньої бази для навчання навіть найрозумніша система не зможе працювати ефективно.

Хто контролюватиме контролера

Питання, яке залишається відкритим — як саме Scientist AI буде впливати на інші системи. Навіть якщо вона зможе виявляти небезпеки, її повноваження не є юридично чи технологічно обґрунтованими. Без інтеграції в більші платформи або підтримки урядів її можливості залишаться обмеженими.

Попри це, поява таких ініціатив свідчить про новий напрям у розвитку штучного інтелекту — пріоритет безпеки, прозорості та контролю. Якщо подібні моделі отримають визнання, це зможе кардинально змінити підхід до розробки майбутніх AI-систем.

Нагадаємо, раніше ми писали про те, як нова технологія MIT може скоротити енергоспоживання на нафтопереробці на 90%.

Share This Article
Щоб бути вільним потрібно знати правду.
Коментувати

Залишити відповідь

Ваша e-mail адреса не оприлюднюватиметься. Обов’язкові поля позначені *