Home Tecnologia L’intelligenza artificiale sanitaria e la legge: il tuo dottore chatbot potrebbe testimoniare...

L’intelligenza artificiale sanitaria e la legge: il tuo dottore chatbot potrebbe testimoniare contro di te?

15
0

Lo scorso luglio, OpenAI L’amministratore delegato Sam Altman ha detto al podcaster virale Theo Von che è “incasinato” che alle conversazioni con un aiutante di intelligenza artificiale non siano concesse le stesse protezioni legali delle conversazioni con un difensore umano.

“Penso che parlare con un’intelligenza artificiale dovrebbe essere come parlare con un avvocato o un medico. Spero che la società lo capisca presto,” Altman pubblicato a X.

L’amministratore delegato ha più volte sostenuto per tutele più forti della privacy per le conversazioni del suo chatbot con gli utenti, anche se gli stati hanno represso i robotic IA pubblicizzati come terapeutico o esperti legali.

Ma la privateness degli utenti non è l’unica ragione per cui persone come Altman stanno spingendo per uno scudo più forte tra le conversazioni dei chatbot e il tribunale, dicono gli esperti legali a Mashable: c’è anche una motivazione egoistica. Se i LLM rimangono intoccabili da parte dei tribunali, ciò isola non solo gli utenti dell’intelligenza artificiale, ma anche le aziende. In effetti, i commenti di Altman a Von potrebbero essere stati stimolati proprio da OpenAI problemi legali: I tribunali chiedevano al gigante dell’intelligenza artificiale di salvare e alla fantastic consegnare i registri delle chat degli utenti come scoperta legale, un’azione che avrebbe potuto essere bloccata se l’intelligenza artificiale fosse stata vista agli occhi della corte allo stesso modo di un terapista, un medico o un avvocato.

Qual è un modo per raggiungere questo obiettivo? Spingere per un cambiamento culturale che tratti la guida dell’intelligenza artificiale con la stessa riverenza dei professionisti umani, a cominciare dalla nostra salute.

VEDI ANCHE:

Utilizzi ChatGPT Well being? Leggi prima questo.

Cos’è esattamente il “privilegio AI”?

“Il privilegio ha un certo significato per gli avvocati e nel contesto giuridico”, ha spiegato Melodi Dinçer, procuratore senior del Progetto di legge sulla giustizia tecnologica. C’è il privilegio customary avvocato-cliente, advert esempio, così come il privilegio psichiatra-cliente e il privilegio coniugale. Anche le comunicazioni al clero, i voti politici, i segreti commerciali o di stato sono riconosciuti dai tribunali. In tutti questi casi, le comunicazioni tra le due parti sono confidenziali e non ammissibili in sede giudiziaria.

Anche gli stati hanno le proprie regole sui privilegi, coperte dalla legge statale per i casi tenuti nei tribunali statali. Alcuni stati, ha detto Dinçer, estendono i privilegi alle conversazioni tra te e il tuo medico di base, oltre al tuo psichiatra. Ma molti stati non lo fanno. Tutto questo è chiarito Regola 501 del Norme federali sulle proveha spiegato Dinçer, che consente ai tribunali federali di riconoscere in generale i privilegi che i tribunali statali già riconoscono.

Se vieni citato in giudizio, advert esempio, l’altra parte della causa non può ammettere gli appunti della seduta del tuo terapeuta, né potrebbero ammettere conversazioni riservate tra te, il tuo avvocato o il tuo coniuge.

“L’intero scopo di [client privilege] è essere in grado di avere discussioni franche e aperte con questi fornitori in modo che possano fornirti la migliore consulenza,” Lily Li, avvocato in materia di privateness dei dati e gestione del rischio AI e fondatrice di Legge del metaversoha detto a Mashable. “E da una prospettiva sociale, vogliamo che le persone siano franche, aperte e oneste con i loro avvocati, medici e psicologi”.

Ma queste sono condizioni poste alle relazioni umane, non a quelle digitali. Se ritieni che un chatbot basato sull’intelligenza artificiale sia efficace quanto un terapista umano o un consulente legale, anche quelle comunicazioni dovrebbero essere protette? Alcuni sviluppatori di intelligenza artificiale, come Altman, dicono di sì.

Chatbot AI: strumenti o persone?

“La causa sul copyright di Open AI ha messo a fuoco questo aspetto”, ha detto Li. Si riferisce a una serie di recenti consolidato trigger di copyright, 16 in totale, aperte contro OpenAI da editori, artisti e scrittori negli ultimi anni. Le questioni in questione, che includono questioni di truthful use e come gestire i dati utilizzati per formare gli LLM, sono una sorta di indicatore della temperatura per valutare la percezione dell’intelligenza artificiale agli occhi della corte.

Per questo motivo, gli esperti legali hanno monitorato attentamente il modo in cui i tribunali classificano gli sviluppatori di intelligenza artificiale, i loro prodotti e i dati degli utenti in essi contenuti. Più specificamente, devono tenere traccia del modo in cui la legge tratta i LLM, compresi i dati di formazione e i registri delle chat, durante le show e la scoperta.

Non vogliamo una situazione in cui esista solo uno scudo di pura responsabilità.

– Lily Li, Legge del Metaverso

A febbraio, un giudice federale ha deciso che i documenti di strategia legale generati dal chatbot Claude di Anthropic – e poi inviati da un cliente al suo avvocato – erano non coperto dal segreto professionale avvocato-cliente. La decisione ha fatto notizia. Il giudice del caso si è basato in parte sulla politica sulla privateness di Anthropic per determinare se le chat fossero protette. Poiché le regole di Anthropic non promettono la massima privateness quando si utilizza il suo prodotto pubblico, e poiché le comunicazioni non sono avvenute tra un avvocato autorizzato con il comprensione del fatto che sono confidenzialiil privilegio non si applicava. I documenti erano un gioco leale.

Ma quello stesso mese, un giudice diverso in un caso diverso, seppur simile ha stabilito il contrario. In questo caso, secondo il giudice, il privilegio avvocato-cliente si applicava al lavoro generato dall’intelligenza artificiale perché l’output diventava un “prodotto di lavoro avvocato-cliente”. Il chatbot non period una “persona” in questo caso d’uso, ma uno strumento utilizzato dall’avvocato e dal cliente. Questa è una distinzione importante, perché se il chatbot fosse stato visto come un’entità terza, il cliente gli avrebbe volontariamente fornito informazioni riservate in un modo che potrebbe rinunciare al riconoscimento dei privilegi.

Questi sono solo alcuni dei primi casi dei tribunali distrettuali federali, che coinvolgono quelle che vengono particular questioni di prima impressione. Fondamentalmente, nessuno si è mai posto queste domande e siamo solo nelle fasi iniziali per capirle.

Nel frattempo, i casi di copyright che coinvolgono OpenAI hanno sollevato ulteriori domande sulla scoperta e sui dati. Non molto tempo prima delle due sentenze sopra citate, OpenAI ha fatto appello con successo una decisione che stabilisce che la società ha rinunciato al suo privilegio avvocato-cliente, aprendo l’accesso a dati precedentemente riservati. Alla società period stato ordinato di consegnare milioni di registri di conversazioni ChatGPT anonimizzaticosì come le comunicazioni interne.

Aziende come OpenAI si sono opposte a story scoperta, sostenendone la riservatezza. I giudici che si sono pronunciati a favore dell’ammissione dei dati hanno argomentato che la rimozione delle informazioni di identificazione personale, il restringimento del focus dei registri e la mancata divulgazione dei dati all’esterno rendono i reperti digitali ammissibili in tribunale. Il panorama giuridico è pieno di domande come queste.

In generale, gli sviluppatori di intelligenza artificiale stanno spingendo per mantenere i propri dati interni lontani dalla scoperta. E mentre la privateness degli utenti è una delle questioni più urgenti nell’period dell’intelligenza artificiale, enumerare i privilegi dell’intelligenza artificiale in un contesto legale rappresenta un enigma. Come possiamo proteggere i dati privati ​​degli utenti, senza rendere impossibile ritenere responsabili i creatori di intelligenza artificiale?

“Non vogliamo una situazione in cui esiste solo uno scudo di pura responsabilità”, ha detto Li.


Una nuova serie di Mashable, AI + Well being, esaminerà come l’intelligenza artificiale sta cambiando il panorama medico e sanitario. Esploreremo come mantenere i tuoi dati sanitari al sicurotuffati nell’uso dell’intelligenza artificiale per decifrare le tue analisi del sanguescopri come due donne utilizzano l’intelligenza artificiale per rilevare una forma pericolosa di malattia cardiacae molto altro ancora.


L’intelligenza artificiale sanitaria è un grande enterprise

All’inizio di quest’anno, OpenAI ha lanciato ChatGPT Well being, una nuova “modalità” rivolta al consumatore per il suo chatbot tentacolare che intende trasformare l’intelligenza artificiale in un guru della salute personale. L’azienda incoraggia gli utenti a caricare la propria storia medica per personalizzare meglio l’esperienza. I dati non sono attualmente protetti ai sensi dell’artwork Legge sulla portabilità e responsabilità dell’assicurazione sanitaria (HIPAA), la normativa nazionale sulla privateness sanitaria dominante.

Altre aziende hanno seguito l’esempio di OpenAI, con Anthropic, Microsoft e Amazon che hanno rilasciato i propri chatbot orientati alla salute, alcuni conformi HIPAA e altri no, nei mesi successivi. Il concorrente di OpenAI, Google, investe da tempo nell’intelligenza artificiale per casi d’uso medici, principalmente per clinici e ricercatori. Fitbit, di proprietà di Google, offre coaching sanitario personale utilizzando un assistente Gemini integrato. L’azienda sta inoltre costruendo un “agente AI diagnostico conversazionale,” indicato come Articulate Medical Intelligence Explorer (o AMIE).

Altman e i suoi concorrenti lo sono affollandosi al potenziale di profitto del settore sanitario, anche se una regola sui privilegi dell’IA non è ancora all’orizzonte. A gennaio OpenAI ha acquisito la startup sanitaria Torche il MergeLabs sostenuto da Altmanuna società biotecnologica interessata alle interfacce cervello-computer (BCI), ha ottenuto una valutazione di 850 milioni di dollari.

Secondo un recente rapporto da Menlo Ventures, nel 2025 1,4 miliardi di dollari sono stati destinati a soluzioni di intelligenza artificiale generativa specifiche per il settore sanitario. La stragrande maggioranza di questi è andata alle startup di intelligenza artificiale. E queste statistiche comprendono solo prodotti di livello clinico, strumenti prodotti da aziende come OpenEvidence e Hippocratic AI destinati a professionisti medici, non spese in prodotti commerciali, come ChatGPT Well being.

Un mondo con privilegio di chatbot umani?

Tra i prodotti di grado non clinico, i dispositivi per il benessere e i chatbot non conformi all’HIPAA, c’è una mancanza di regolamentazione e chiarezza giuridica allarma molti esperti di privateness. Alcuni ipotizzano che il panorama politico incerto potrebbe essere un vantaggio per gli sviluppatori di intelligenza artificiale, lanciando i propri prodotti di intelligenza artificiale sanitaria in un miasma normativo in una mossa strategica per spingere i profitti dell’azienda. E guadagni legali.

Poiché i chatbot accumulano più conversazioni “confidenziali”, potrebbero essere implicati più privilegi ai sensi della Regola 501. Negli stati che proteggono le comunicazioni con il proprio medico, conterebbero anche i “medici” dell’intelligenza artificiale? Oppure consideriamo un esempio meno ovvio proposto da Dinçer: supponiamo che un utente chieda a un chatbot come ha contratto un’infezione a trasmissione sessuale nonostante il coniuge sia risultato negativo, la richiesta e la risposta potrebbero essere presentate come prova – o innescherebbero un’altra forma di protezione, come il privilegio coniugale?

In un mondo ipotetico con ampi privilegi di intelligenza artificiale, o anche in uno in cui i chatbot sono inseriti nelle regole sui privilegi esistenti, le aziende di intelligenza artificiale potrebbero provare a rifiutarsi di ammettere show evidenti di comportamenti illeciti. Advert esempio, se una società di intelligenza artificiale fosse citata in giudizio per aver ingannato le persone sulla loro salute, i pubblici ministeri non potrebbero utilizzare registri interni o analisi di chat contenenti i dati sanitari delle persone.

Forse, suggerisce Dinçer, se sempre più utenti inseriscono le loro cartelle cliniche personali, raggi X o altre informazioni sensibili nel prodotto rivolto al consumatore – e se sempre più aziende di intelligenza artificiale fossero collegate in una rete di informazioni personali identificabili e tecnologia sanitaria – i tribunali sarebbero più propensi a prendere in considerazione l’thought di privilegi estesi all’IA.

Questo potrebbe essere uno dei motivi per cui, oltre alle entrate, le aziende cercano di generare negli assistenti di intelligenza artificiale lo stesso tipo di fiducia che abbiamo nei professionisti umani. Con così tante persone che già consultano l’intelligenza artificiale per le loro esigenze sanitarie e aziende come OpenAI che stanno già affrontando un sacco di contenziosi, non è un mistero il motivo per cui dirigenti come Altman vogliano tenere le conversazioni dei chatbot lontane dagli occhi indiscreti di avvocati e giudici.


Le informazioni contenute in questo articolo sono solo a scopo educativo e informativo e non sono intese come consigli sanitari o medici. Consulta sempre un medico o un altro operatore sanitario qualificato per qualsiasi domanda tu possa avere su una condizione medica o obiettivi sanitari.

Divulgazione: Ziff Davis, la società madre di Mashable, aveva precedentemente intentato una causa contro OpenAI, sostenendo che avesse violato i diritti d’autore di Ziff Davis nella formazione e nel funzionamento dei suoi sistemi di intelligenza artificiale.



fonte

LEAVE A REPLY

Please enter your comment!
Please enter your name here