Компанія Google DeepMind анонсувала нові моделі штучного інтелекту для робототехніки — Gemini Robotics 1.5 та Gemini Robotics-ER 1.5, передає ITechua. Вони дозволяють роботам спершу аналізувати завдання, а потім переходити до його виконання. Розробка створена на основі генеративних систем і має подолати обмеження нинішніх технологій, пише «Kreschatic».
Gemini Robotics складається з двох моделей. Версія ER 1.5 аналізує текстові та візуальні дані, формує план і може підключати зовнішні джерела інформації. Модель 1.5 перетворює інструкції на фізичні дії та коригує їх у процесі за допомогою візуального зворотного зв’язку.
Під час демонстрації робот Apollo склав валізу для подорожі, а Aloha 2 відсортував сміття. Навчання базувалося на даних про взаємодію з реальними об’єктами. Це дало змогу виконувати багатоступеневі завдання та переносити навички між різними роботами без переналаштування.
Попри успіхи, практичне використання залишається обмеженим. Gemini Robotics 1.5 доступна лише тестувальникам, тоді як версія ER 1.5 інтегрована у Google AI Studio. Фахівці наголошують, що для появи побутових роботів, здатних виконувати щоденні дії, ще потрібен час.
Нагадаємо, раніше ми писали про те, чому штучний інтелект може обманювати.