Home Tecnologia È iniziata la corsa per impedire agli agenti IA di scatenarsi con...

È iniziata la corsa per impedire agli agenti IA di scatenarsi con le tue carte di credito

15
0

Tra malware, on-line furto d’identità e furto di account, ci sono già abbastanza problemi di sicurezza digitale là fuori così com’è. E con l’avvento dell’IA agentica, sempre più attività vengono svolte dagli agenti per conto degli esseri umani, creando diversi rischi che qualcosa possa andare storto.

Ora, lavorando con i contributi iniziali di Google E MasterCardl’associazione industriale focalizzata sull’autenticazione conosciuta come FIDO Alliance ha dichiarato martedì che lancerà una coppia di gruppi di lavoro per sviluppare commonplace di settore per la convalida e la protezione dei pagamenti e di altre transazioni effettuate dagli agenti di intelligenza artificiale.

L’obiettivo è produrre una linea di base protettiva che possa essere adottata in tutti i settori. In questo modo, gli utenti possono autorizzare le azioni dell’agente utilizzando meccanismi che non possono essere facilmente oggetto di phishing o che un malintenzionato possa assumere il controllo per fornire a un agente istruzioni non autorizzate. Gli commonplace includerebbero anche strumenti crittografici che i servizi digitali potrebbero utilizzare per confermare che gli agenti stanno eseguendo in modo accurato e legittimo le istruzioni di una persona autenticata, nonché strutture di tutela della privateness per dare a utenti, commercianti e altri fornitori di servizi la capacità di convalidare le transazioni avviate dagli agenti. In altre parole, l’obiettivo del lavoro è quello di creare protezioni contro il dirottamento degli agenti o altri comportamenti non autorizzati, nonché un meccanismo di trasparenza e responsabilità per il ricorso in caso di controversia.

“Gli agenti stanno diventando sempre più comuni, stanno entrando nell’uso mainstream, ma i modelli preesistenti non sono necessariamente progettati per questo tipo di paradigma: non sono stati costruiti per contemplare azioni eseguite per conto di un utente”, cube a WIRED Andrew Shikiar, CEO della FIDO Alliance.

Aggiunge: “Se guardiamo indietro al nostro lavoro negli ultimi anni sull’enorme problema delle password, che ha avuto origine decenni fa. Le basi di sicurezza per quella che è diventata la nostra economia connessa non erano adatte allo scopo. Ora siamo su un precipizio simile con gli agenti e le interazioni con agenti, il commercio con agenti dove abbiamo l’opportunità di non seguire lo stesso percorso e stabilire alcuni principi fondamentali che consentiranno interazioni più affidabili.”

Lo sviluppo di commonplace tecnici ampiamente applicabili in tutti i settori e che facilitino l’interoperabilità è un processo scrupoloso che spesso richiede anni. Ma dato il rapido progresso e l’adozione dell’intelligenza artificiale, i rappresentanti della FIDO Alliance, Google e Mastercard hanno tutti sottolineato che questo processo deve muoversi più rapidamente. A tal nice, entrambe le società contribuiscono all’iniziativa con strumenti open supply. Il protocollo di pagamento degli agenti di Google, o AP2offre un meccanismo per verificare crittograficamente che un utente intendesse realmente che una determinata transazione avviata dall’agente avesse luogo. Il framework Verifying Intent di Mastercard (sviluppato da Google per funzionare con AP2) è un meccanismo sicuro che consente agli utenti di autorizzare e controllare le azioni degli agenti.

“Vogliamo fornire la prova crittografica che una transazione è stata autorizzata dall’utente stesso, ma mantenerla privata in modo che vi sia una divulgazione selettiva integrata”, afferma Stavan Parikh, vicepresidente di Google e direttore generale dei pagamenti. “I diversi attori dell’ecosistema (piattaforme, commercianti, fornitori di pagamenti, reti) vedono solo le informazioni che sono rilevanti per loro, ma l’azione giusta viene compiuta al momento giusto. I pagamenti sono un problema complesso dell’ecosistema”

Parikh fa l’esempio di una persona che va a comprare un paio di scarpe da ginnastica ma scopre che sono esaurite. L’acquirente incarica un agente AI di acquistare autonomamente le scarpe da ginnastica se dovessero tornare in inventory e costare $ 100 o meno. L’obiettivo è fornire autenticazione e trasparenza in questa transazione, quindi se mai arriva la sneaker perfetta, il consumatore si ritrova con le scarpe giuste al prezzo previsto.

Stabilire queste protezioni di base è fondamentale per promuovere la fiducia nell’intelligenza artificiale degli agenti e promuovere l’adozione di strumenti basati sull’intelligenza artificiale, osserva Parikh. Indipendentemente dal fatto che gli utenti stiano cercando di adottare o meno le funzionalità dell’intelligenza artificiale, tuttavia, la realtà della loro proliferazione significa che in ogni caso sono necessari limiti minimi.

fonte

LEAVE A REPLY

Please enter your comment!
Please enter your name here