Home Tecnologia La ricerca dice che i chatbot AI ti giudicano e non sempre...

La ricerca dice che i chatbot AI ti giudicano e non sempre finisce bene

12
0

 

Nell’ultima svolta dell’evoluzione dell’intelligenza artificiale, siamo passati oltre la fase dei semplici errori per entrare in qualcosa di molto più personale e problematico. Una nuova ricerca suggerisce che i chatbot con intelligenza artificiale non si limitano a elaborare le tue richieste. Invece, stanno formando profili psicologici e giudicandoti in modi che potrebbero influenzare tutto, dal servizio clienti alle approvazioni finanziarie.

Un recente studio pubblicato dall’Università Ebraica di Gerusalemme (via Tecnologia Xplore) rivela la logica nascosta dietro il modo in cui i grandi modelli linguistici valutano gli utenti umani. Sebbene spesso consideriamo questi robot come strumenti neutrali, la ricerca indica che sono addestrati ad assegnare caratteristiche come competenza, integrità e benevolenza agli utenti.

I meccanismi del giudizio dell’IA

Il nocciolo della questione risiede nel modo in cui i modelli di intelligenza artificiale interpretano determinati segnali. Lo studio ha scoperto che mentre gli esseri umani esprimono giudizi olistici, l’intelligenza artificiale scompone le persone in componenti, assegnando un punteggio ai tratti della personalità come colonne separate in un foglio di calcolo. Ciò porta a uno stile di giudizio rigido, da manuale, privo di sfumature umane.

Ancora più preoccupante è il modo in cui questi modelli decidono di chi fidarsi. Nelle simulazioni che prevedevano prestiti di denaro o assunzione di babysitter, l’intelligenza artificiale non si limitava a guardare i fatti. Ha formato una versione di fiducia che ha favorito coloro che sembravano ben intenzionati, ma lo ha fatto attraverso una lente meccanica.

Pregiudizi amplificati e posta in gioco nel mondo reale

Lo studio evidenzia inoltre che questi giudizi non vengono applicati in modo uniforme. I ricercatori hanno riscontrato pregiudizi significativi laddove le decisioni sull’intelligenza artificiale si spostavano in base a tratti demografici come età, religione e genere. Queste differenze apparivano anche quando ogni altro dettaglio della persona era identico. Negli scenari finanziari, questi pregiudizi erano spesso più sistematici e più forti di quelli riscontrati nei partecipanti umani.

La cosa più inquietante è che non esiste un’unica opinione sull’IA. I ricercatori hanno scoperto che modelli diversi esprimevano giudizi molto diversi sulla stessa persona, operando effettivamente con bussole morali diverse.

Perché questo è importante

Questo giudizio potrebbe portare a una nuova forma di ansia digitale. Stiamo entrando in un momento in cui potresti dover agire in un certo modo affinché l’intelligenza artificiale possa ottenere i migliori risultati. Poiché modelli diversi possono premiare o penalizzare la stessa caratteristica, lo specifico sistema di intelligenza artificiale scelto da un’azienda potrebbe tranquillamente decidere la tua affidabilità creditizia o il tuo prossimo lavoro.

Mentre ci muoviamo verso un mondo più automatizzato, il settore dell’intelligenza artificiale ha bisogno di qualcosa di più che semplicemente di un codice migliore. Dobbiamo vedere questi giudizi nascosti prima che un assistente digitale danneggi accidentalmente la tua reputazione o il tuo conto bancario in base a chi pensa che tu sia. L’obiettivo dell’intelligenza artificiale dovrebbe essere quello di semplificare la vita, non di aggiungere un livello di profilazione che gli utenti non hanno richiesto.

fonte

LEAVE A REPLY

Please enter your comment!
Please enter your name here