Як інформує «Kreschatic» з посиланням на матеріал WIRED, цього тижня компанія Anthropic обмежила доступ до свого сервісу Claude Code для команди OpenAI через порушення умов використання платформи.
Виходячи зі слів представника Anthropic Крістофера Налті, Claude Code став інструментом номер один для програмістів по всьому світу, і не дивно, що навіть фахівці OpenAI зверталися до нього напередодні запуску GPT-5. Однак, правилами сервісу від Anthropic забороняється використання Claude Code для розробки конкуруючих продуктів, навчання аналогічних ШІ-моделей і проведення зворотного інжинірингу. Порушення цих умов і стало підставою для блокування.
OpenAI прокоментувала ситуацію через свою представницю Ханну Вонг, підкресливши, що технічна перевірка альтернативних ШІ-систем — звичайна практика в індустрії, одночасно поскаржившись:
…Хоча ми поважаємо рішення Anthropic, це розчаровує, враховуючи, що наш API залишається доступним для них.
При цьому, в Anthropic уточнили, що не обмежують OpenAI повністю: доступ до Claude буде збережено, але виключно для оцінки продуктивності та перевірки параметрів безпеки.
Раніше ми писали про те, чи дійсно інструменти для перевірки плагіату є ефективними.