Il nuovo Muse Spark di Meta può essere presentato come un modello di intelligenza artificiale più intelligente, ma sulla base dei primi check, sembra il tipo di intelligenza artificiale che davvero non vuoi neanche lontanamente vicino a decisioni mediche serie.
Il recente reportage di WIRED ha parlato dell’esperienza con Muse Spark. Il modello di intelligenza artificiale incentrato sulla salute di Meta all’interno dell’app Meta AI non ha mostrato risultati promettenti. Secondo quanto riferito, il chatbot ha incoraggiato gli utenti a caricare informazioni mediche grezze come rapporti di laboratorio, letture del monitor del glucosio e registri della pressione sanguigna, quindi si è offerto di aiutare advert analizzare modelli e tendenze.
Tutto ciò sembra piuttosto utile finché non ti rendi conto di due preoccupazioni fast. Stai consegnando dati molto sensibili e se l’intelligenza artificiale è anche lontanamente abbastanza affidabile da interpretarli.
Cosa è andato storto nei primi check?
Il primo problema è piuttosto difficile da ignorare. In un’epoca in cui la vita sembra già troppo trasparente, Muse Spark si spinge ancora oltre. Non è inaspettato fornire le informazioni necessarie per una diagnosi accurata, ma consegnare i propri dati sanitari personali a un chatbot per un consiglio non sembra un rischio per la privateness.
A differenza dei dati condivisi con un medico o un ospedale, le informazioni immesse in un chatbot non comportano automaticamente le stesse aspettative o protezioni che le persone potrebbero ritenere siano in atto. Questa non è un’opinione verificata professionalmente, ed è ciò che rende l’thought traballante. L’intelligenza artificiale viene presentata come uno strumento utile, ma l’ambiente che la circonda sembra ancora molto più vicino a un prodotto di consumo che a un vero e proprio prodotto medico.

Questa non è nemmeno la parte peggiore
A parte i tipici rischi per la privateness legati alla condivisione di dati personali con qualsiasi gigante della tecnologia, ti aspetteresti almeno di ottenere una risposta utile. Ma il problema più serio sembrava riguardare la qualità della consulenza. Nei check di WIRED, il chatbot avrebbe generato un piano alimentare estremamente ipocalorico dopo essere stato interrogato sulla perdita di peso e sul digiuno intermittente aggressivo.
Sebbene il bot abbia segnalato alcuni dei rischi lungo questo percorso, un avviso non significa molto se il modello poi continua advert aiutare l’utente a compiere comunque la cosa pericolosa. È qui che risiede il vero problema con molti strumenti sanitari basati sull’intelligenza artificiale in questo momento. Possono sembrare cauti, informati e sembrare equilibrati fino al momento in cui iniziano a rafforzare le cattive ipotesi. Quel tono raffinato può offrire con sicurezza il consiglio sbagliato, il che rende il fallimento più pericoloso.











