Dalla ricerca su Google alle risposte dell’AI: Francesco Sardanelli e Federico Cabitza spiegano come sfruttare l’AI senza sostituire il medico.
Mi fa male la pancia, perché? Leggi queste analisi. Ho l’ansia, cosa posso prendere? Eccole, alcune delle domande che oggi si pongono direttamente all’intelligenza artificiale, per avere una risposta a quesiti medici. Una modalità, questa, che sta diventando sempre di più di uso comune. Al Festival della Prevenzione LILT Milano, durante la conversazione “Tranquilli, è solo intelligenza artificiale”, è emerso che il 5% dei messaggi generati e inviati a GPT riguarda temi legati alla salute. Inoltre, tra le persone che utilizzano attivamente la chatbot almeno una volta alla settimana, una su quattro pone almeno una domanda di ambito sanitario. In altre parole, il “dottor GPT”, ma anche il “dottor Gemini” e il “dottor Claude”, sono ormai entrati a pieno titolo nella quotidianità delle abitudini legate alla salute. E addirittura OpenAI sta lanciando ChatGPT salute per aiutare, recita il claim online, a sentirsi più preparati, informati e sicuri nella gestione della propria salute. Insomma, è inutile fare finta di nulla, L’AI sta sempre più diventando “l’altro medico”. Ma come fare a non perdere di vista la realtà? Ecco cosa hanno raccontato i due esperti ospiti del Festival. Con una raccomandazione: prima di qualsiasi decisione, parlare col medico. Quello reale.
Non più solo Google: l’era delle risposte immediate
Il ricorso alla rete per ottenere informazioni sanitarie non è un fatto recente. Da almeno quindici anni, e forse di più, si parla del cosiddetto “dottor Google”. Cos’è cambiato dunque? La differenza sta nel modo in cui queste informazioni vengono fornite. Google propone una lista di siti, lasciando all’utente il compito di valutare quali siano affidabili e quali no. ChatGPT, Gemini e altre chatbot, invece, offrono una risposta diretta e focalizzata. «Questo non è necessariamente un limite, anzi rappresenta un passo avanti rispetto alla semplice navigazione tra risultati di ricerca», interviene Francesco Sardanelli, radiologo, coordinatore Comitato scientifico LILT Milano. «L’intelligenza artificiale è uno strumento di enorme potenza. Per chi, come me, ha lavorato a lungo in ambito accademico e clinico la novità più significativa è un’altra: questi sistemi non si limitano ad analizzare dati, ma lo fanno in modo tale da permettere previsioni sempre più personalizzate. Previsioni che, pur non essendo necessariamente più “giuste” in senso assoluto, risultano spesso più aderenti al singolo individuo rispetto a quelle ottenute con i metodi statistici tradizionali. E’ però fondamentale ricordare che la qualità delle risposte, in ambito sanitario come in qualsiasi altro, dipende strettamente dalla qualità della domanda. Più il quesito è mirato, preciso e circostanziato, e maggiori saranno le probabilità di ottenere una risposta utile e pertinente. Va anche detto che spesso questi strumenti oggi inseriscono delle avvertenze, ricordando che è sempre meglio rivolgersi al proprio medico. E questa è un’avvertenza da seguire».
Usare l’AI senza subirla
Da una ricerca condotta dalla Bournemounth University su circa 31mila adulti in 35 Paesi, è emerso che il 45% degli intervistati a livello globale si affiderebbe all’AI per far sì che svolga il ruolo del proprio medico. E questo rende ancora più acceso il dibattito e apre anche a una certa dose di preoccupazioni sul livello di affidabilità dei consigli sanitari, quando a fornirli è un “robot”. «Sicuramente il consiglio è di rimanere un po’ scettici, di mantenere sempre uno spirito critico», aggiunge Federico Cabitza, Professore di Informatica all’Università di Milano-Bicocca e direttore del Centro Digital Health & Wellbeing di Fondazione Bruno Kessler. «Per evitare di cadere nella trappola di considerare questi sistemi automaticamente competenti, il consiglio è di fare una cosa molto semplice: porre la stessa domanda a più di un sistema. Oppure, copiare la risposta fornita da una chatbot e sottoporla a un’altra. In questo modo si crea una sorta di piccolo “confronto” tra agenti conversazionali, e la persona si ritaglia un ruolo più attivo. In sostanza, diventa un po’ come un giudice che deve valutare quale versione sia più convincente, o comunque decidere a quale dare più credito. È una strategia che non richiede grandi risorse, anche perché spesso questi strumenti, almeno nelle versioni base, sono gratuiti, ma che aiuta a uscire da una possibile relazione di dipendenza, o addirittura di manipolazione. Si passa a una posizione più consapevole: siamo noi a scegliere, a confrontare, a prendere il meglio da ciascun sistema, in base a quello che riteniamo più affidabile».
Giornalista scientifica dal 1992, specializzata in comunicazione della salute con particolare attenzione all'oncologia. Esperienza pluriennale in campagne informative e divulgazione scientifica. Vincitrice del premio Giovanni Maria Pace nel 2019 per il giornalismo in ambito oncologico.
