Per gli sviluppatori che utilizzano l’intelligenza artificiale, il “vibe coding” in questo momento si riduce a fare da babysitter a ogni azione o rischiare di lasciare che il modello venga eseguito senza controllo. Antropico dice il suo ultimo aggiornamento di Claude mira a eliminare questa scelta lasciando che sia l’IA a decidere quali azioni è sicuro intraprendere da sola, con alcuni limiti.
Questa mossa riflette un cambiamento più ampio in tutto il settore, poiché gli strumenti di intelligenza artificiale sono sempre più progettati per agire senza attendere l’approvazione umana. La sfida è bilanciare velocità e controllo: troppi guardrail rallentano le cose, mentre troppo pochi possono rendere i sistemi rischiosi e imprevedibili. La nuova “modalità automatica” di Anthropic, ora in anteprima di ricerca – il che significa che è disponibile per i check ma non ancora un prodotto finito – è il suo ultimo tentativo di infilare quell’in the past.
La modalità automatica utilizza le protezioni dell’intelligenza artificiale per esaminare ogni azione prima che venga eseguita, controllando eventuali comportamenti rischiosi che l’utente non ha richiesto e segnali di tempestiva iniezione, un tipo di attacco in cui istruzioni dannose sono nascoste nel contenuto che l’intelligenza artificiale sta elaborando, inducendola a intraprendere azioni non intenzionali. Eventuali azioni sicure procederanno automaticamente, mentre quelle rischiose verranno bloccate.
Si tratta essenzialmente di un’estensione dell’attuale comando “salta-permessi” di Claude Code, che affida tutto il processo decisionale all’intelligenza artificiale, ma con un livello di sicurezza aggiunto in cima.
La funzionalità si basa su un’ondata di strumenti di codifica autonomi di aziende come GitHub e OpenAI, che possono eseguire attività per conto di uno sviluppatore. Ma fa un ulteriore passo avanti spostando la decisione su quando chiedere il permesso all’utente all’IA stessa.
Anthropic non ha dettagliato i criteri specifici utilizzati dal suo livello di sicurezza per distinguere le azioni sicure da quelle rischiose, qualcosa che gli sviluppatori probabilmente vorranno capire meglio prima di adottare ampiamente la funzionalità. (TechCrunch ha contattato l’azienda per ulteriori informazioni su questo fronte.)
La modalità automatica deriva dal lancio di Claude Code Overview da parte di Anthropic, il suo revisore automatico del codice progettato per individuare i bug prima che raggiungano la base di codice e Invio per Coworkche consente agli utenti di inviare attività agli agenti AI per gestire il lavoro per loro conto.
Evento Techcrunch
San Francisco, California
|
13-15 ottobre 2026
La modalità automatica verrà distribuita agli utenti Enterprise e API nei prossimi giorni. L’azienda afferma che attualmente funziona solo con Claude Sonnet 4.6 e Opus 4.6 e consiglia di utilizzare la nuova funzionalità in “ambienti isolati”: configurazioni sandbox tenute separate dai sistemi di produzione, limitando i potenziali danni se qualcosa va storto.













