In qualità di ingegnere veterano e chief di prodotto in Microsoft Azure, Rohit Tatachar ho visto che molte aziende stavano costruendo sistemi di intelligenza artificiale che non potevano monitorare o controllare completamente in produzione.
Nel suo nuovo ruolo in una startup di Seattle, sta facendo qualcosa al riguardo.
Tatachar è ora co-fondatore e CTO di Glacische crea registrazioni a prova di manomissione del comportamento dell’intelligenza artificiale, quello che il CEO Joe Braidwood ha definito un “registratore di volo per l’intelligenza artificiale aziendale”. Il suo arrivo arriva mentre Glacis lancia nuovi strumenti open supply per il monitoraggio e il controllo degli agenti IA.
Glacis, coperto per la prima volta da GeekWire nel novembre 2025, è stato avviato da Braidwood e dalla dottoressa Jennifer Shannon, psichiatra e professore a contratto presso l’Università di Washington.
L’azienda è nata da una lezione difficile: la precedente startup di Braidwood, Yara, uno strumento per la salute mentale basato sull’intelligenza artificiale, ha dovuto essere chiusa dopo che si è reso conto che i modelli si erano allontanati dal comportamento previsto durante conversazioni prolungate con utenti vulnerabili.
Dopo aver scritto della chiusura su LinkedIn, regolatori, medici, ingegneri e dirigenti assicurativi hanno fatto la stessa osservazione: quando i sistemi di intelligenza artificiale prendono decisioni, nessuno può verificare in modo indipendente se i controlli di sicurezza abbiano effettivamente funzionato.
Questa è stata la scintilla per Glacis.
Come funziona: Il prodotto principale della startup, chiamato Arbiter, si trova nel percorso di ogni chiamata di inferenza dell’intelligenza artificiale e crea un file firmato dell’enter, dei controlli di sicurezza eseguiti e dell’output finale.
La registrazione non può essere modificata dopo il fatto. Su larga scala, un sistema che Glacis chiama Witness Community autentica tali documenti in una traccia verificabile.
I clienti possono scegliere di far funzionare il sistema in “modalità ombra”, osservando senza intervenire, o in modalità di applicazione, dove vincola attivamente il comportamento dell’IA.

Shannon, direttore medico di Glacis, ha affermato che la posta in gioco è particolarmente alta nel settore sanitario. Come psichiatra childish praticante, ha visto scribi ambientali dotati di intelligenza artificiale avere allucinazioni nei suoi appunti clinici, inclusa la fabbricazione di prescrizioni di farmaci che non ha mai fatto.
“Mi piacerebbe poter tornare indietro e vedere ogni passo di come quel modello di intelligenza artificiale ha preso quella decisione”, ha detto. “Se non ci sono infrastrutture per questo, chi è responsabile? Nessuno farà causa all’IA. Sono io.”
La sfida di fondo: Tatachar ha lavorato presso Microsoft per due periodi nell’arco di quasi 19 anni, più recentemente come principale product supervisor nel workforce Microsoft Foundry, la sua piattaforma per la creazione e la distribuzione di applicazioni e agenti AI aziendali.
Ha detto di aver visto aziende costruire strumenti ed eseguire show di concetto ma lottare per portare l’intelligenza artificiale in produzione perché non potevano spiegare o verificare cosa stavano facendo i loro sistemi.
Ci sono tre dimensioni nel problema, ha detto: lo stato di base dell’infrastruttura di un cliente, il comportamento del modello e ciò che è noto come “deriva delle intenzioni”, in cui un sistema si comporta in modo diverso da quello previsto dal cliente, anche se il modello sottostante funziona normalmente.
Glacis monitora le distribuzioni in tutti e tre. “È solo quando si convergono questi tre aspetti che il cliente ha una visione reale di ciò che è realmente accaduto”, ha affermato Tatachar.
Nuove uscite: Glacis si sta liberando redteam automaticouno strumento open supply che attacca automaticamente i sistemi di intelligenza artificiale in una serie di categorie di vulnerabilità, quindi genera correzioni e ne verifica l’efficacia.
L’azienda pubblica anche OVER 1.0uno customary per quelle che definisce “show di verifica osservabili per l’affidabilità del runtime”, inteso a fornire alle organizzazioni un quadro per integrare una sicurezza IA dimostrabile nelle loro operazioni.
I lanci arrivano in un momento instabile per la sicurezza degli agenti AI. OpenClawun framework di agenti AI open supply, ha attirato centinaia di migliaia di sviluppatori sin dal suo debutto alla fantastic del 2025, ma la sua rapida adozione ha superato la sua architettura di sicurezza.
Principali aziende di sicurezza informatica tra cui CrowdStrike E Cisco hanno pubblicato analisi che mettono in guardia sulle vulnerabilità della sicurezza nel quadro. Braidwood ha affermato che ciò dimostra la necessità di un’infrastruttura in grado di applicare controlli di sicurezza in fase di esecuzione, non solo di testarli prima dell’implementazione.
Mercato di riferimento: L’azienda si concentra sui clienti del settore sanitario, fintech e assicurativo.
Ha firmato due accordi pilota nell’ambito della conferenza sanitaria di JP Morgan all’inizio di quest’anno, con altri tre in cantiere. Braidwood ha affermato che l’azienda considera l’assistenza sanitaria come il suo punto di ingresso, ma considera il problema in definitiva universale per qualsiasi implementazione dell’intelligenza artificiale.
Una novità questa settimana: anche Glacis lo è apertura di una lista d’attesa per un piano iniziale da $ 49 al mese che copre il purple teaming, l’applicazione e l’attestazione crittografica per un massimo di 10.000 eventi AI al mese. Un livello Professional da $ 499 copre fino a 100.000 eventi.
Braidwood ha affermato che la mossa è un cambiamento deliberato verso il rendere la tecnologia accessibile al di là delle imprese regolamentate e dei accomplice di progettazione con cui l’azienda ha lavorato finora.
Panorama più ampio: L’osservabilità e la sicurezza dell’intelligenza artificiale sono un mercato in forte espansione, con startup ben finanziate e grandi aziende che offrono monitoraggio del runtime e protezioni per l’intelligenza artificiale aziendale.
Braidwood ha affermato che Glacis si differenzia per la sua attenzione alla dimostrabilità crittografica, non solo rilevando problemi ma producendo show a prova di manomissione dell’esecuzione dei controlli di sicurezza, che secondo lui potrebbero aiutare le aziende a negoziare la copertura assicurativa e soddisfare le autorità di regolamentazione.
Finanziamento: Glacis ha raccolto $ 575.000 da un gruppo di investitori che embody Secure Synthetic Intelligence Fund di Geoff Ralston, Mighty Capital, Sourdough Ventures e AI2 Incubator.
Fa anche parte del programma Launchpad di Cloudflare e del terzo gruppo di acceleratori di Seattle di Plug and Play. Braidwood ha detto che la società spera di chiudere un spherical di seed entro la fantastic dell’anno.
Squadra: Glacis ha cinque dipendenti, inclusi i tre cofondatori e due ingegneri.
Tatachar ha affermato che il sesto “dipendente” dell’azienda sarà un agente AI incaricato di gestire il lavoro di conformità SOC 2 tramite Vanta. Il workforce scrive il codice crittografico principale in Rust e utilizza Claude, Codex e ChatGPT nel suo flusso di lavoro.
“Abbiamo un’azienda di 100 persone”, ha scherzato Braidwood. “Cinque di loro sono reali e il resto è nel cloud o sulla scrivania.”













