Home Tecnologia 1 chief della sicurezza su 2 afferma di non essere pronto per...

1 chief della sicurezza su 2 afferma di non essere pronto per gli attacchi IA: 4 azioni da intraprendere ora

5
0

Image Alliance / Collaboratore / Image Alliance tramite Getty Photographs

Segui ZDNET: Aggiungici come fonte preferita su Google.


I principali punti salienti di ZDNET

  • La criminalità informatica basata sull’intelligenza artificiale rappresenta un rischio crescente per le imprese.
  • La maggior parte di queste organizzazioni si sente non protetta dalla minaccia.
  • EY evidenzia alcuni passaggi chiave per rafforzare le difese informatiche.

Oggi gli attacchi informatici guidati dall’intelligenza artificiale sono quasi universalmente considerati una grave minaccia per le aziende. Tuttavia, sia per ragioni finanziarie che logistiche, la maggior parte delle organizzazioni si sente inadeguatamente protetta e non dispone di una chiara tabella di marcia per rafforzare le proprie difese interne.

Questo divario tra consapevolezza e prontezza è il grande vantaggio di a rapporto pubblicato giovedì dalla società di consulenza EY. Sulla base di un sondaggio di dicembre condotto su oltre 500 funzionari senior della sicurezza informatica di tutti i settori, il rapporto ha rilevato che il 96% degli intervistati ritiene che “gli attacchi alla sicurezza informatica basati sull’intelligenza artificiale costituiscano una minaccia significativa per la propria organizzazione”, mentre meno della metà di quel numero (46%) afferma di sentirsi “fortemente fiducioso” che le proprie organizzazioni dispongano di meccanismi di sicurezza informatica adeguati per tenere a bada la minaccia.

Inoltre: 5 tattiche di sicurezza che la tua azienda non può sbagliare nell’period dell’intelligenza artificiale e perché sono fondamentali

La maggior parte degli intervistati (67%), inoltre, ha affermato di essere ancora “in modalità pilota” quando si tratta di definire la propria strategia per proteggere le proprie organizzazioni da questa nuova ondata di attacchi informatici.

Ma la modalità pilota non è sufficiente in un mondo in cui l’intelligenza artificiale fornisce continuamente ai criminali informatici nuovi mezzi di attacco, secondo Ganesh Devarajan, responsabile del rischio informatico presso EY Americas.

“Stiamo navigando in un panorama unico in cui l’intelligenza artificiale sta trasformando l’ambiente digitale in un’arma, proprio come rafforza le nostre difese”, ha detto a ZDNET. “Se fossi seduto di fronte a [chief information security officer] oggi il mio consiglio sarebbe semplice: il tempo dell'”aspettare e vedere” è finito. Proteggere un’azienda ora significa costruire una strategia olistica in cui l’intelligenza artificiale e i dipendenti non si limitano a lavorare fianco a fianco, ma amplificano anche i reciproci punti di forza”.

Inoltre: l’intelligenza artificiale renderà la sicurezza informatica obsoleta o la Silicon Valley sta di nuovo confabulando?

Un plateau intersettoriale

La sicurezza informatica non è l’unico ambito in cui le aziende che sperimentano l’intelligenza artificiale non sono riuscite a lanciarsi in modo solido e significativo. Nonostante l’elevato grado di interesse nell’utilizzo della tecnologia internamente, molte aziende faticano a farlo in modo da generare rendimenti reali. Le organizzazioni sono bloccate su una sorta di plateau mentre cercano di trasformare le iniziative interne di intelligenza artificiale in una crescita sostenuta; la forza di volontà c’è, ma la strada spesso non è chiara.

Uno studio del MIT, spesso citato, pubblicato advert agosto, advert esempio, ha riferito che il 95% delle iniziative interne di intelligenza artificiale delle imprese non sono riuscite a fornire un ROI sostanziale. È stato un campanello d’allarme per gli sviluppatori di intelligenza artificiale e i loro clienti aziendali. In breve, qualcosa nell’attuale approccio all’implementazione dell’intelligenza artificiale all’interno delle organizzazioni non funzionava.

Inoltre: perché gli agenti IA aziendali potrebbero diventare la massima minaccia interna

Un paio di mesi dopo, un sondaggio condotto su migliaia di chief aziendali in 21 paesi ha rilevato che la stragrande maggioranza (87%) ha affermato che l’intelligenza artificiale avrebbe “trasformato completamente” il modo in cui la loro organizzazione porta a termine il lavoro nel corso del prossimo anno, ma un misero 29% ha affermato che i loro staff avevano le competenze e la formazione necessarie per realizzare questo risultato.

Ostacoli alla sicurezza informatica

Entrambi questi temi sono stati ripresi nel nuovo rapporto di EY.

Inoltre: le minacce dell’intelligenza artificiale peggioreranno: 6 modi per eguagliare la tenacia dei tuoi avversari digitali

A grandi linee, la società di consulenza ha scoperto che mentre la maggior parte dei professionisti della sicurezza informatica di alto livello sono fin troppo consapevoli del fatto che l’intelligenza artificiale sta rapidamente dotando i loro avversari di modalità di attacco nuove e più sofisticate (come phishing e truffe deepfake), sono ostacolati dalla mancanza di un piano chiaro per rafforzare la loro sicurezza interna.

I vincoli finanziari sono risultati un problema significativo: secondo il rapporto, l’85% degli intervistati al sondaggio di EY ha affermato che “l’attuale finances per la sicurezza informatica del proprio datore di lavoro è insufficiente per far fronte alle minacce abilitate dall’intelligenza artificiale”. D’altra parte, EY ha anche scoperto che si prevede che il numero di organizzazioni che impegnano almeno il 25% del proprio finances per la sicurezza informatica nella creazione di soluzioni basate sull’intelligenza artificiale aumenterà dall’attuale 9% al 48% nei prossimi due anni.

Il consenso, in altre parole, sembra essere che il modo migliore per combattere le nuove minacce informatiche guidate dall’intelligenza artificiale sia con le difese guidate dall’intelligenza artificiale, una tendenza che ha già iniziato a manifestarsi nel settore finanziario.

Nello specifico, il sondaggio di EY ha rilevato che all’IA verrà dato un maggiore controllo in sei aree chiave della sicurezza informatica:

  • Rilevamento avanzato delle minacce persistenti
  • Rilevamento delle frodi in tempo reale
  • Gestione dell’identità e degli accessi
  • Gestione del rischio di terze parti
  • Privateness e conformità dei dati
  • Difesa dai deepfake e da altri usi dell’intelligenza artificiale per impersonare persone reali

Inoltre: secondo OpenAI, anche l’intelligenza artificiale sta rendendo più efficienti i flussi di lavoro dei criminali informatici

Anche la governance è stata un ostacolo importante: il 97% degli intervistati ha affermato che un solido quadro di sicurezza per l’uso interno dell’intelligenza artificiale period “essenziale” per generare ROI, ma solo il 20% ha dichiarato di aver realizzato completamente quel quadro.

Quattro consigli

OK, ma cosa possono fare in realtà gli esperti di sicurezza informatica Fare proprio adesso per affrontare la nuova ondata di minacce basate sull’intelligenza artificiale? EY ha evidenziato quattro aree chiave su cui dovrebbero concentrarsi.

  1. I finances devono essere rielaborati “per dare priorità alla sicurezza informatica basata sull’intelligenza artificiale”.
  2. Invece di provare a utilizzare una pletora di intelligenza artificiale per automatizzare attività specifiche – che EY ha suggerito essere un collo di bottiglia chiave che tiene bloccate le aziende nella fase pilota – le organizzazioni dovrebbero passare a un approccio “orchestrato e guidato dagli agenti”. In altre parole, implementare un modello di controllo top-down per l’uso interno dell’IA in modo che i chief della sicurezza informatica possano facilmente visualizzare le azioni degli agenti dell’IA e, se necessario, correggerle.
  3. I staff devono “investire in modo aggressivo” nella formazione dei propri dipendenti esistenti per collaborare in modo sicuro ed efficace con gli agenti di intelligenza artificiale.
  4. Adottare una mentalità da corsa agli armamenti per mantenere i guardrail interni, perché man mano che le difese informatiche assistite dall’intelligenza artificiale migliorano, aumenteranno anche le tattiche implementate dai criminali informatici assistiti dall’intelligenza artificiale. “Le organizzazioni che trattano la governance come un sistema vivente – in costante miglioramento e integrazione nella cultura e nelle operazioni – sono nella posizione migliore per creare fiducia, gestire i rischi emergenti e tradurre l’innovazione dell’intelligenza artificiale in un vantaggio competitivo duraturo”.



fonte

LEAVE A REPLY

Please enter your comment!
Please enter your name here