“Sì gente, in futuro sarà più difficile garantire che OpenClaw funzioni ancora con i modelli antropici”, il creatore di OpenClaw Peter Steinberger pubblicato il X venerdì mattina prestoinsieme alla foto di un messaggio di Anthropic in cui si informava che il suo account period stato sospeso a causa di attività “sospette”.
Il divieto non durò a lungo. Poche ore dopo, quando il publish è diventato virale, Steinberger ha detto che il suo account period stato ripristinato. Tra centinaia di commenti – molti dei quali in ambito di teoria della cospirazione, dato che Steinberger è ora impiegato dal rivale antropico OpenAI – ce n’period uno di un ingegnere antropico. L’ingegnere ha detto al famoso sviluppatore che Anthropic non ha mai bannato nessuno per l’utilizzo di OpenClaw e si è offerto di aiutarlo.
Non è chiaro se quella fosse la chiave che ha ripristinato l’account. (Abbiamo chiesto informazioni advert Anthropic.) Ma l’intera stringa del messaggio è stata illuminante su molti livelli.
Per ricapitolare la storia recente: questo divieto ha fatto seguito alla notizia della scorsa settimana secondo cui gli abbonamenti a Claude di Anthropic non avrebbero più coperto “imbracature di terze parti, incluso OpenClaw”, ha affermato la società di modelli di intelligenza artificiale.
Gli utenti di OpenClaw ora devono pagare per story utilizzo separatamente, in base al consumo, tramite l’API di Claude. In sostanza, Anthropic, che offre il proprio agente, Cowork, sta ora addebitando una “tassa sugli artigli”. Steinberger ha detto che stava seguendo questa nuova regola e stava usando la sua API, ma è stato comunque bannato.
Anthropic ha affermato di aver istituito la modifica dei prezzi perché gli abbonamenti non sono stati creati per gestire i “modelli di utilizzo” di artigli. Gli artigli possono esserlo più ad alta intensità di calcolo rispetto ai immediate o ai semplici script perché possono eseguire cicli di ragionamento continui, ripetere o riprovare automaticamente le attività e collegarsi a molti altri strumenti di terze parti.
Steinberger, tuttavia, non credeva a quella scusa. Dopo che Anthropic ha cambiato i prezzi, ha pubblicato“È strano come i tempi corrispondano: prima copiano alcune funzionalità popolari nella loro imbracatura chiusa, poi bloccano l’open supply.” Anche se non lo ha specificato, potrebbe essersi riferito alle funzionalità aggiunte all’agente Claude’s Cowork, come Claude Dispatch, che consente agli utenti di controllare in remoto gli agenti e assegnare attività. Dispatch è stato lanciato un paio di settimane prima che Anthropic cambiasse la sua politica dei prezzi OpenClaw.
La frustrazione di Steinberger nei confronti di Anthropic è stata nuovamente in bella mostra venerdì.
Una persona ha lasciato intendere che parte di questo dipende da lui per aver accettato un lavoro presso OpenAI anziché Anthropic, pubblicando: “Avevi la scelta, ma sei andato in quella sbagliata”. Al che Steinberger ha risposto: “Uno mi ha accolto, l’altro ha inviato minacce legali”.
Ahi.
Quando più persone gli hanno chiesto perché usa Claude invece dei modelli del suo datore di lavoro, ha spiegato che lo usa solo per testare, per garantire che gli aggiornamenti a OpenClaw non rompano le cose per gli utenti di Claude.
Ha spiegato: “Devi separare due cose. Il mio lavoro presso la OpenClaw Basis, dove vogliamo che OpenClaw funzioni alla grande per *qualsiasi* fornitore di modelli, e il mio lavoro presso OpenAI per aiutarli con la futura strategia di prodotto.”
Molte persone hanno anche sottolineato che la necessità di testare Claude è dovuta al fatto che quel modello rimane una scelta popolare per gli utenti di OpenClaw rispetto a ChatGPT. Lo ha sentito anche quando Anthropic ha cambiato i suoi prezzi, al che ha risposto: “Ci sto lavorando”. (Quindi, questo è un indizio su cosa comporta il suo lavoro presso OpenAI.)
Steinberger non ha risposto a una richiesta di commento.













