Anthropic временно заблокировала аккаунт создателя OpenClaw

Ранним утром в пятницу создатель проекта OpenClaw Питер Штайнбергер опубликовал в X сообщение: «Да, народ, в будущем будет сложнее гарантировать, что OpenClaw продолжит работать с моделями Anthropic». К сообщению он приложил скриншот уведомления от Anthropic о приостановке его аккаунта из-за «подозрительной» активности.

Блокировка продлилась недолго. Через несколько часов, после того как пост стал вирусным, Штайнбергер сообщил, что его аккаунт восстановили. Среди сотен комментариев — многие из которых ушли в сторону теорий заговора, учитывая, что Штайнбергер сейчас работает в конкурирующей OpenAI — был ответ инженера Anthropic. Инженер заявил знаменитому разработчику, что Anthropic никогда не блокировала никого за использование OpenClaw, и предложил помощь.

Неясно, стал ли этот комментарий ключом к восстановлению аккаунта. Однако вся цепочка сообщений оказалась показательной.

Контекст блокировки

Эта история произошла после новости прошлой недели о том, что подписки на Claude от Anthropic больше не будут покрывать использование «сторонних оболочек, включая OpenClaw». Теперь пользователям OpenClaw придётся платить за такое использование отдельно, через API Claude, в зависимости от потребления. По сути, Anthropic, у которой есть собственный агент Cowork, ввела «налог на когти».

Штайнбергер утверждал, что следовал новому правилу и использовал свой API, но аккаунт всё равно заблокировали.

Объяснения и скепсис

Anthropic заявила, что изменила политику ценообразования, потому что подписки не были рассчитаны на «паттерны использования» когтей. Когти могут потреблять больше вычислительных ресурсов, чем обычные запросы или простые скрипты, поскольку они способны запускать непрерывные циклы рассуждений, автоматически повторять задачи и интегрироваться с множеством сторонних инструментов.

Штайнбергер, однако, не принял это объяснение. После изменения цен он написал: «Забавно, как совпадают сроки: сначала они копируют популярные функции в свою закрытую оболочку, а потом блокируют опенсорс». Хотя он не уточнял, возможно, речь шла о функциях, добавленных в агент Claude Cowork, таких как Claude Dispatch, который позволяет пользователям удалённо управлять агентами и назначать задачи. Dispatch появился за пару недель до изменения Anthropic политики ценообразования для OpenClaw.

Разочарование Штайнбергера в Anthropic снова проявилось в пятницу. Один пользователь намекнул, что часть вины лежит на нём за выбор работы в OpenAI, а не в Anthropic, написав: «У тебя был выбор, но ты пошёл не в ту компанию». Штайнбергер ответил: «Одна компания меня приняла, другая отправляла юридические угрозы».

Зачем тестировать Claude?

Когда несколько человек спросили, почему он вообще использует Claude, а не модели своего работодателя, он объяснил, что применяет его только для тестирования, чтобы убедиться, что обновления OpenClaw не сломают что-то для пользователей Claude.

«Нужно разделять две вещи, — написал Штайнбергер. — Мою работу в фонде OpenClaw Foundation, где мы хотим, чтобы OpenClaw отлично работал с *любым* поставщиком моделей, и мою работу в OpenAI, где я помогаю им с будущей продуктовой стратегией».

Многие также указали, что необходимость тестировать Claude связана с тем, что эта модель остаётся популярным выбором для пользователей OpenClaw по сравнению с ChatGPT. На это же ему указывали, когда Anthropic меняла цены, и он тогда ответил: «Работаю над этим». Это даёт намёк на содержание его работы в OpenAI.