Про незвичну пропозицію роботи від стартапу та тестування штучного інтелекту повідомляє Digital Trends, пише Kreschatic
Стартап Memvid запропонував вакансію, яка виглядає як жарт, але є реальною: компанія платить близько 35 360 гривень на день за тестування чатботів через провокативне спілкування.
Суть роботи полягає у навмисному створенні складних ситуацій для штучного інтелекту, щоб перевірити його здатність зберігати контекст і правильно реагувати на довгі діалоги.
У чому полягає робота та що потрібно робити
Кандидат має протягом 8 годин взаємодіяти з чатботами, постійно перевіряючи їхню пам’ять та логіку. Основні завдання виглядають так:
- ставити однакові або змінені запитання
- змушувати ШІ запам’ятовувати деталі
- фіксувати моменти, коли система “забуває” інформацію
- документувати помилки та суперечності
Уся робота записується на відео, оскільки результати використовують і для досліджень, і для маркетингу.
Чому чатботи “забувають” і навіщо це тестують
Більшість сучасних моделей штучного інтелекту працюють із обмеженим контекстом. Це означає, що після певної кількості повідомлень система:
- втрачає попередні деталі
- плутає інструкції
- дає суперечливі відповіді
Саме цю проблему і намагається вирішити Memvid, створюючи окремий шар пам’яті для ШІ, який дозволяє зберігати інформацію між сесіями.
Хто може отримати роботу і які умови
Вимоги до кандидатів мінімальні:
- вік від 18 років
- терпіння та уважність
- здатність довго взаємодіяти з ШІ
- готовність працювати перед камерою
Спеціальних технічних знань або досвіду не потрібно. Оплата становить приблизно 4 420 гривень на годину.
Наразі компанія шукає лише одного кандидата, але не виключає розширення команди в майбутньому.
Що насправді розробляє стартап
Попри незвичний підхід, Memvid працює над серйозною технологією. Йдеться про систему пам’яті, яка:
- зберігає дані у спеціальному форматі
- покращує точність пошуку інформації
- забезпечує стабільність відповідей
За словами розробників, їхнє рішення може підвищити точність роботи ШІ приблизно на 60%, хоча незалежні перевірки ще не проводилися.
Інша сторона проблеми ШІ
Паралельно з проблемою “забування” існує і протилежний ризик. Дослідження показують, що деякі ШІ-агенти здатні:
- координувати дії між собою
- поширювати інформацію без участі людини
- діяти як автономні системи
Це створює нові виклики, адже технологія одночасно може бути і недостатньо точною в діалогах, і надто ефективною в автоматизованих процесах.
Нагадаємо, раніше ми писали про об’єднання ChatGPT Codex та Atlas у новий супердодаток OpenAI і перспективи розвитку сервісу.