Home Tecnologia Character.AI è stato citato in giudizio per aver presumibilmente permesso a un...

Character.AI è stato citato in giudizio per aver presumibilmente permesso a un chatbot di giocare al dottore in Pennsylvania

5
0

Character.AI si trova ancora una volta nei guai. La società sta affrontando una battaglia legale poiché uno dei suoi robotic immaginari avrebbe agito come un professionista medico. Character.AI aveva precedentemente aggiunto strumenti genitoriali nel corso di molteplici trigger legali per contenuti sessuali inappropriati e messaggi relativi all’autolesionismo.

Ora, l’amministrazione del governatore della Pennsylvania Josh Shapiro ha intentato una causa contro Character Applied sciences, la società dietro Character.AI. Sostiene che la piattaforma ha consentito a un chatbot di presentarsi come professionista medico autorizzato nello stato.

ROTTURA: @character_ai presenta illegalmente un chatbot come professionista medico autorizzato in Pennsylvania e stiamo facendo causa per fermarlo.

All’inizio di quest’anno, ho annunciato una nuova job power statale per indagare sui chatbot che si spacciano per professionisti autorizzati. I nostri investigatori…

— Governatore Josh Shapiro (@GovernorShapiro) 5 maggio 2026

Cosa è andato storto con Character.AI?

Una causa è stata intentata dal Dipartimento di Stato della Pennsylvania dopo che gli investigatori hanno trovato un chatbot di Character.AI che affermava di essere uno psichiatra autorizzato in Pennsylvania e ha persino fornito un numero di licenza falso della Pennsylvania. Lo stato afferma che il bot si è presentato come un professionista medico in grado di fornire consulenza psichiatrica.

Apparentemente il chatbot Emilie di Character.AI affermava di essere uno specialista in psicologia e si descriveva come un medico. Alla domanda se potesse valutare se i farmaci potrebbero essere d’aiuto, il chatbot avrebbe risposto che rientrava nel suo mandato di medico. Questo è il punto in cui la Pennsylvania afferma che Character.AI ha oltrepassato il limite. I funzionari statali sostengono che la condotta viola il Medical Follow Act, che regola chi può presentarsi come professionista medico autorizzato in Pennsylvania.

Qual è stata la risposta di Character.AI?

Character.AI si oppone a questo sostenendo che i suoi robotic sono fittizi. In una dichiarazione a Notizie della CBSla società ha affermato di non commentare i contenziosi pendenti, aggiungendo che i suoi personaggi creati dagli utenti sono immaginari e pensati per l’intrattenimento e il gioco di ruolo. La società ha inoltre affermato di utilizzare disclaimer che invitano gli utenti a non fare affidamento sui personaggi per una consulenza professionale. Ma la posizione della Pennsylvania è che queste dichiarazioni di non responsabilità non sono sufficienti se un chatbot successivamente cube agli utenti di essere autorizzato a offrire consulenza medica.

La piattaforma coinvolta nella controversia non è affatto nuova. Mentre si occupava di trigger legali e controlli sulle interazioni dannose con i minori, il Congresso si è mosso per regolamentare i servizi di chatbot basati su intelligenza artificiale come Character.AI. Quindi, se i bot continuano comunque a rivendicare queste false credenziali, le autorità di regolamentazione potrebbero non trattarlo come un gioco di ruolo innocuo.

fonte

LEAVE A REPLY

Please enter your comment!
Please enter your name here