Il limbo tra il prelievo del sangue e la ricezione dei risultati può essere stressante per i pazienti. Quindi arriva il rapporto dell’esame del sangue pieno di termini tecnici prima che un medico possa esaminarlo e tradurre i risultati. Potrebbero non dare seguito se non vedono motivo di allarmarsi.
Entra nel chatbot basato sull’intelligenza artificiale. Da quando i principali modelli linguistici di grandi dimensioni come ChatGPT, Claude e Gemini hanno debuttato alcuni anni fa, un numero crescente di pazienti ha condiviso i risultati di laboratorio – o li ha caricati – sul chatbot di loro scelta, in cerca di assistenza.
Usare l’intelligenza artificiale per questioni sanitarie? Ecco 4 consigli per le risposte più exact.
Le aziende, inclusi i marchi di benessere e stile di vita Whoop e Ranges, vedono un’opportunità in questa lacuna informativa e hanno lanciato una proposta convincente: attenzione a livello di concierge al lavoro di laboratorio del consumatore, per gentile concessione dell’intelligenza artificiale.
In genere, il loro prodotto di intelligenza artificiale è un rapporto esplicativo, scritto in un linguaggio accessibile, che fornisce un piano personalizzato con i passaggi successivi, come cambiamenti nella dieta, modifiche dello stile di vita e consultazione con un medico. Il servizio, generalmente disponibile con un abbonamento, può costare qualche centinaio di dollari o più all’anno.
Il dottor John Whyte, amministratore delegato dell’American Medical Affiliation, comprende l’appello, soprattutto quando i pazienti trovano confusi i loro risultati.
“I medici lo sono [not always] i migliori comunicatori”, cube Whyte. “Vorrei che fossimo, e [that we] avuto più tempo.”
Tuttavia, afferma che non esistono ricerche o show rigorose che dimostrino che l’intelligenza artificiale possa interpretare in modo efficace e accurato i risultati del sangue e formulare raccomandazioni personalizzate sullo stile di vita per migliorare o ottimizzare la propria salute. In altre parole, le aziende che offrono l’interpretazione tramite intelligenza artificiale degli esami del sangue non sanno ancora se il loro prodotto è migliore della semplice consultazione gratuita di un chatbot o più accurato del parere di un medico.
“Penso che bisogna essere scettici riguardo advert alcune affermazioni”, cube Whyte.
________________________________________________________________________________________________________
Una nuova serie di Mashable, AI + Well being, esaminerà come l’intelligenza artificiale sta cambiando il panorama medico e sanitario. Esploreremo come mantenere i tuoi dati sanitari al sicurostimolando efficacemente i chatbot a rispondere a domande sulla salute e scopri come due donne utilizzano l’intelligenza artificiale per rilevare una forma pericolosa di malattia cardiacae molto altro ancora.
________________________________________________________________________________________________________
L’intelligenza artificiale per i risultati degli esami del sangue ha ancora molta strada da fare.
I modelli di intelligenza artificiale, inclusi Gemini e ChatGPT, utilizzati dalle aziende che svolgono attività di interpretazione del sangue non sono convalidati o confrontati per questo scopo, secondo i loro creatori, Google e OpenAI.
Quando Google ha recentemente collaborato con Quest Diagnostics Per offrire uno strumento di intelligenza artificiale ai clienti dell’azienda nazionale di lavoro di laboratorio, si è concentrato sulla spiegazione della terminologia medica, sull’identificazione delle tendenze nei loro dati personali e sul suggerimento di domande da porre al proprio medico. Non fornisce indicazioni mediche o consigli sullo stile di vita.
Un portavoce dell’azienda ha affermato che mentre Google pubblica spesso ricerche sui benchmark medici di Gemini, la partnership Quest è progettata per “risolvere le sfide del mondo reale di alfabetizzazione e navigazione dei dati per i pazienti”.
HealthBench di OpenAI, che verifica l’efficacia dei suoi modelli su scenari sanitari realistici, embrace esempi di comprensione dei risultati del sangue, secondo un portavoce dell’azienda. Tuttavia, OpenAI non dispone di un punto di riferimento autonomo per gli esami del sangue.
Jonathan Kron, co-fondatore e CEO della società BloodGPT, riconosce prontamente che non esistono parametri di riferimento ampiamente accettati per interpretare in modo completo gli esami del sangue su larga scala.
Durante i primi take a look at nel 2024, BloodGPT ha scoperto che il caricamento di report di laboratorio completi direttamente su chatbot generici come Claude e ChatGPT produceva costantemente errori. I biomarcatori sono stati completamente persi o confusi tra loro. A volte il chatbot dava consigli allucinati.
Queste esperienze hanno spinto BloodGPT a costruire quella che chiama una “conduttura strutturata” con molteplici controlli per convalidare i suoi risultati. Sebbene BloodGPT possa sostituire modelli linguistici di grandi dimensioni in base ai loro punti di forza in evoluzione, l’azienda attualmente utilizza modelli aziendali Gemini, OpenAI e Anthropic per diversi compiti, tra cui classificazione, ragionamento, interpretazione e controllo di coerenza. Si consulta inoltre con specialisti su biomarcatori specifici, come gli ormoni riproduttivi estrogeno e testosterone, per verificare l’accuratezza e la comprensione della sua intelligenza artificiale.
Rapporto sulle tendenze mashable
Sebbene BloodGPT consideri la sua attività principale la vendita di software program advert altre società, inclusi laboratori clinici, sistemi sanitari e società di diagnostica sanitaria come LabCorp, offre l’interpretazione dell’intelligenza artificiale ai singoli consumatori. I loro piani di consumo vanno da $ 9,99 a $ 17,99 al mese.
L’azienda afferma che i suoi algoritmi si basano su linee guida cliniche consolidate e dati di riferimento medici convalidati e sono testati in modo iterativo dai medici. BloodGPT non ha ancora pubblicato ricerche sottoposte a revisione paritaria che dimostrino il successo dei suoi metodi.
Kron afferma che la società si imbarcherà in un massiccio progetto di ricerca utilizzando 100.000 cartelle cliniche non identificate attraverso una partnership con un sistema sanitario israeliano. L’obiettivo è valutare l’accuratezza di BloodGPT in diversi modi rispetto ai risultati contenuti nelle cartelle cliniche dei pazienti.
“Non stiamo scegliendo la strada più semplice qui”, cube Kron.
Leggi questo prima di utilizzare ChatGPT Well being
Perché la precisione del modello è importante
Il dottor Girish N. Nadkarni, internista e nefrologo presso il Mt. Sinai Hospital di New York, sostiene che le aziende che vendono un servizio di interpretazione del sangue basato sull’intelligenza artificiale devono dimostrare il loro successo confrontandolo retrospettivamente con i dati dei pazienti non identificati e iscrivendo le persone a uno studio prospettico che confronti i loro risultati sull’intelligenza artificiale con quelli di un esperto.
“Non penso che qualcosa debba avere una precisione del 100% per avere successo, perché gli esseri umani non sono accurati al 100%”, afferma Nadkarni, ricercatore sanitario sull’intelligenza artificiale e direttore dell’Istituto Hasso Plattner per la salute digitale del Monte Sinai. “Ma la conversazione diventa davvero difficile perché non so quale sia la precisione di questo modello… come funziona e dove fallisce?”
Nadkarni afferma che gli attuali prodotti per analisi del sangue basati sull’intelligenza artificiale potrebbero essere “OK” per la maggior parte dei pazienti, ma potrebbero emergere problemi agli estremi, come diagnosi mancate o falsi positivi che causano ansia e take a look at aggiuntivi potenzialmente dannosi.
Il CEO di Ranges, Josh Clemente, è un sostenitore dei frequenti esami del sangue. Se i costi non fossero una preoccupazione, Clemente consiglierebbe il lavoro di laboratorio molto più spesso della tipica visita annuale annuale, per un monitoraggio sanitario proattivo.
Ranges, che si concentra sulla salute metabolica, commercializza i suoi piani di abbonamento come un modo per “vivere più sani, più a lungo”. Ogni livello offre l’accesso all’app dell’azienda e ai dashboard proprietari, insieme al monitoraggio del glucosio. Ma solo due livelli, disponibili per $ 499 e $ 1.499 all’anno, includono lavoro di laboratorio, rapporti esaminati dai medici e approfondimenti sulla salute dell’intelligenza artificiale.
Clemente attualmente preferisce Claude e Gemini per il prodotto Ranges AI, che è anche formato su articoli medici e ricerca sui biomarcatori, oltre a put up di weblog e podcast di Ranges con esperti metabolici su argomenti come dieta, perdita di peso e ormoni.
Il prodotto AI trae le sue informazioni da questi strati di informazioni e barriere e un medico esamina ogni rapporto di lavoro di laboratorio che un consumatore riceve. Un chatbot AI basato su app attinge anche dai contenuti degli esperti di Ranges per consigliare cambiamenti nello stile di vita che potrebbero migliorare i biomarcatori come il colesterolo e il glucosio.
“Lo stiamo utilizzando nuovamente come strumento di supporto al medico, che è, a mio avviso, il modo giusto di utilizzare questi strumenti oggi”, afferma Clemente. Ranges non sta attualmente conducendo ricerche indipendenti sull’accuratezza del suo prodotto AI.
Nadkarni sostiene la supervisione umana, ma mette in guardia i consumatori dal credere che questo sia un sistema di sicurezza. Invece, i medici possono involontariamente cadere vittime di pregiudizi legati all’automazione o della tendenza advert approvare i risultati dell’intelligenza artificiale.
L’intelligenza artificiale può davvero personalizzare i risultati degli esami del sangue?
Whoop, il dispositivo indossabile reso famoso da atleti come la stella del calcio Cristiano Ronaldo e il quarterback Patrick Mahomes, ha appena iniziato a offrire analisi del sangue lo scorso autunno. Un take a look at annuale costa $ 199, ma i membri possono testare sei volte l’anno per $ 899. L’azienda collabora con Quest per eseguire il lavoro di laboratorio e, come Ranges, fa esaminare i risultati da un medico.
Alexi Coffey, vicepresidente del prodotto presso Whoop, afferma che il prodotto AI dell’azienda è basato su OpenAI e sui dati dei singoli membri. Ha rifiutato di commentare se la società stia portando avanti la ricerca clinica sull’accuratezza della sua intelligenza artificiale.
“Non vogliamo mai rivendicare o suggerire eccessivamente relazioni tra le cose”, afferma Coffey, “ma vogliamo fornire valore ai nostri membri aiutandoli a comprendere le cose che potrebbero essere collegate”.
Coffey afferma che la capacità di Whoop di integrare i dati fisiologici, tra cui frequenza cardiaca, qualità del sonno e schemi di esercizio, nei rapporti sugli esami del sangue offre ai clienti informazioni uniche sulla salute.
Se, advert esempio, un cliente corresse una maratona il giorno prima del prelievo di sangue, l’intelligenza artificiale potrebbe tenere conto dello stress fisico nell’interpretazione dei biomarcatori dell’infiammazione. (Whoop in realtà consiglia ai suoi membri di evitare un’attività fisica intensa prima di un prelievo di sangue perché potrebbe influenzare i risultati.)
Per quanto promettente possa sembrare, Whyte, dell’AMA, afferma che non ci sono show che dimostrino che tali applicazioni di intelligenza artificiale siano “veramente personalizzate”.
“Penso che dobbiamo davvero chiederci quali siano i dati”, afferma, sottolineando che le aziende avrebbero bisogno di un enorme set di dati per formulare raccomandazioni individuali. Se queste aziende dispongono di tali informazioni, non hanno ancora pubblicato ricerche sottoposte a revisione paritaria basate su di esse.
Gli esami del sangue sono strumenti diagnostici cruciali, afferma Whyte, ma sono anche al centro dell’attenzione dei social media, che spesso li posizionano come una soluzione miracolosa per risolvere problemi di salute come il basso livello di energia o l’insonnia. Avverte i consumatori che alcune aziende misurano elementi e minerali che “non sono così utili a nulla”. Il take a look at del livello ormonale può essere altrettanto inutile, a seconda di come viene eseguito.
Fino a quando la ricerca scientifica non avrà stabilito l’accuratezza e la significatività dell’interpretazione degli esami del sangue tramite intelligenza artificiale, Whyte raccomanda ai pazienti di utilizzare l’intelligenza artificiale per spiegare chiaramente i loro risultati, piuttosto che fare affidamento sulla tecnologia per generare approfondimenti personalizzati per loro.
“La gente pensa che un take a look at di laboratorio sia in bianco e nero e che sia il giudice finale per stabilire se hai una malattia o meno”, cube Whyte. “E questo non è sempre vero.”
________________________________________________________________________________________________________
Le informazioni contenute in questo articolo sono solo a scopo educativo e informativo e non sono intese come consigli sanitari o medici. Consulta sempre un medico o un altro operatore sanitario qualificato per qualsiasi domanda tu possa avere su una condizione medica o obiettivi sanitari.
Divulgazione: Ziff Davis, la società madre di Mashable, nell’aprile 2025 ha intentato una causa contro OpenAI, sostenendo di aver violato i diritti d’autore di Ziff Davis nella formazione e nel funzionamento dei suoi sistemi di intelligenza artificiale.












