15 C
Comune di Caselle Torinese
martedì, Marzo 17, 2026

    ChatGPT Health: il medico digitale di domani?

    Di solito le rivoluzioni tecnologiche arrivano con un tono rassicurante. Questa, invece, bussa alla porta con una domanda che mette a disagio: “Vuoi che io sappia tutto della tua salute?”

    - Advertisement -

    Il fatto di cronaca è chiaro. Il 7 gennaio 2026 OpenAI ha annunciato, per ora solo negli Stati Uniti, una nuova estensione di ChatGPT dedicata alla salute personale. L’idea è potente e, a modo suo, inevitabile: permettere alle persone di collegare cartelle cliniche, referti, dati provenienti da dispositivi indossabili e applicazioni come Apple Health o MyFitnessPal, per ottenere spiegazioni, interpretazioni, supporto alle decisioni. Non diagnosi ufficiali, non sostituzione del medico (almeno nelle dichiarazioni), ma un livello di comprensione più profondo e continuo del proprio stato di salute. Del resto, oltre 230 milioni di utenti chiedono già ogni settimana a ChatGPT informazioni mediche. Il mercato, prima ancora dell’etica, ha già deciso che questo bisogno esiste .

    - Advertisement -

    È qui che la memoria torna indietro. A quando, nel 2008, Google Health prometteva qualcosa di sorprendentemente simile: centralizzare i dati sanitari dei pazienti, renderli leggibili, portabili, “a misura di cittadino”. Un progetto ambizioso, chiuso nel 2012 dopo pochi anni di vita. Ufficialmente per scarsa adozione. In realtà per una combinazione letale di fattori: fiducia insufficiente verso un’azienda percepita come macchina pubblicitaria, frammentazione tecnica del sistema sanitario, valore pratico poco chiaro per l’utente finale. Google Health non aiutava a prenotare visite, non facilitava rimborsi, non parlava davvero con i medici. Era una promessa senza attrito. E senza attrito, nella vita reale, non si va lontano.

    Allora perché oggi dovrebbe essere diverso?

    La risposta più onesta è che non è cambiata solo la tecnologia. È cambiata la società. O meglio: è cambiato il nostro rapporto con la tecnologia. ChatGPT non arriva come un portale da compilare, ma come una conversazione. E soprattutto arriva in un momento storico in cui siamo già abituati a delegare a sistemi opachi una parte crescente delle nostre decisioni quotidiane, dalla navigazione all’alimentazione, dal sonno alla produttività. In questo senso, ChatGPT Health ha un vantaggio strutturale enorme rispetto a Google Health: non deve convincere le persone a usare l’AI. Le persone stanno già usando l’AI. Deve solo spostare la conversazione su un piano più sensibile. OpenAI lo sa, e infatti accompagna il lancio con una serie di rassicurazioni: dati sanitari separati dalle altre conversazioni, crittografia dedicata, possibilità di cancellare memorie, promessa di non usare queste informazioni per addestrare i modelli. Tutto corretto, tutto importante. Ma non sufficiente a dissolvere il nodo centrale: chi controlla davvero il ciclo di vita di questi dati, dall’acquisizione alla conservazione, arrivando fino alla cancellazione, se richiesto? E soprattutto, anche quando i dati non vengono “ceduti”, possono essere dedotti automaticamente. È il punto più sottile e più pericoloso dell’AI contemporanea: non serve dichiarare una malattia perché un sistema inizi a classificarci come “vulnerabili”.

    Ed è proprio qui che entra in gioco un paradosso che conosciamo bene: le persone dichiarano di essere sempre più preoccupate per la privacy dei dati sanitari, e allo stesso tempo continuano a condividere informazioni biometriche, comportamentali, emotive con una facilità disarmante. Non perché siano ingenue, ma perché i benefici sono immediati e i rischi sono astratti, differiti, invisibili. Se oggi hai in mano un referto pieno di sigle e valori fuori range, l’AI te lo traduce in italiano in dieci secondi, ti dice quali numeri contano davvero, cosa chiedere al medico e perfino cosa monitorare nei prossimi giorni: un grande sollievo istantaneo, quasi fisico. Il possibile danno, invece, che da quelle stesse conversazioni si possa ricostruire un profilo di fragilità sanitaria, usabile un domani in modi non previsti, non si vede, non fa rumore, e soprattutto non arriva subito. È il cosiddetto “paradosso della privacy”: sappiamo che stiamo cedendo qualcosa di prezioso, ma lo facciamo comunque, perché l’alternativa è sentirsi esclusi, ignoranti, arretrati.

    A complicare il quadro c’è un altro elemento raramente discusso fuori dagli ambienti accademici: il bias algoritmico, ovvero i pregiudizi “nascosti” nelle risposte dell’IA, quello che arriva senza rumore e si traveste da neutralità. Nel 2025 un lavoro pubblicato su Nature Medicine dal team della Icahn School of Medicine at Mount Sinai ha messo i modelli sotto stress-test vero: nove LLM, mille scenari da pronto soccorso e 36.000 profili paziente, ottenuti replicando gli stessi casi clinici ma cambiando soltanto etichette socio-demografiche. Risultato inaspettato e inquietante: a parità di sintomi e condizioni, l’AI raccomandava percorsi diversi. Per pazienti associati a reddito più alto aumentavano le probabilità di suggerire esami avanzati come TAC o risonanze; per altri profili, ad esempio a reddito più basso, comparivano più spesso raccomandazioni a “non approfondire” o evitare test aggiuntivi. È la fotografia perfetta di come la macchina possa replicare e amplificare le disuguaglianze già presenti nel sistema, aggiungendo però la sua “patina di oggettività”.
    E qui arriva il secondo livello di inquietudine: noi ci crediamo. Un’altra ricerca del 2025 (MIT) mostra che molti pazienti tendono a dare più credito ai consigli generati dall’AI che a quelli di un medico umano, anche quando sono errati (quelli dell’AI). L’oggettività percepita della macchina diventa una scorciatoia cognitiva: la delega perfetta, comoda, rapida. E soprattutto: senza contraddittorio.

    Il nodo normativo è centrale: negli Stati Uniti, dove ChatGPT Health debutta, la protezione dei dati sanitari è frammentata, settoriale, piena di zone grigie. In Europa, il GDPR offre tutele più robuste, almeno sulla carta. Ma la tecnologia, come sempre, corre più veloce delle leggi. E soprattutto corre più veloce della nostra alfabetizzazione digitale. La maggior parte delle persone non sa davvero cosa succede ai propri dati, né come esercitare i diritti che formalmente possiede.
    Il punto, allora, non è stabilire se ChatGPT Health sia “buono” o “cattivo”. Sarebbe una domanda sbagliata, quasi infantile. La vera questione è un’altra: che tipo di patto sociale stiamo stipulando quando affidiamo a sistemi privati l’interpretazione delle nostre fragilità più intime? Siamo a un bivio. Da una parte c’è l’opportunità di una sanità più comprensibile, più accessibile, più informata. Dall’altra il rischio di normalizzare un modello in cui conoscere meglio sé stessi significa anche essere più leggibili per il mercato e per gli interessi economici di aziende straniere private. La tecnologia, come sempre, non decide al posto nostro. Ma accelera le conseguenze delle nostre scelte.
    Sta a noi – cittadini, professionisti, legislatori – capire se vogliamo un’AI che ci aiuti a capire la nostra salute, o un sistema che impari a conoscerci meglio di quanto siamo pronti ad ammettere. La differenza non è tecnica. È culturale. E, soprattutto, politica.

    LASCIA UN COMMENTO

    Per favore inserisci il tuo commento!
    Per favore inserisci il tuo nome qui
    Captcha verification failed!
    Punteggio utente captcha non riuscito. Ci contatti per favore!

    Questo sito utilizza Akismet per ridurre lo spam. Scopri come vengono elaborati i dati derivati dai commenti.

    - Advertisment -

    Iscriviti alla Newsletter

    Ricevi ogni giorno, sulla tua casella di posta, le ultime notizie pubblicate

    METEO

    Comune di Caselle Torinese
    cielo sereno
    15.2 ° C
    16 °
    13 °
    47 %
    2.1kmh
    0 %
    Mar
    15 °
    Mer
    14 °
    Gio
    15 °
    Ven
    14 °
    Sab
    11 °

    ULTIMI ARTICOLI

    La tragedia del popolo istriano-giuliano-dalmata. Un giorno per ricordare davvero

    0
    Una legge istituita il 30 marzo 2004, la n. 92 recita: “La Repubblica riconosce il 10 febbraio quale "Giorno del ricordo" al fine di conservare...

    Surrettizio