L’uso dell’intelligenza artificiale nel campo della salute sta diventando sempre più diffuso, ma anche più regolamentato. A fine ottobre 2025, OpenAI, la società creatrice di ChatGPT, ha aggiornato le proprie Politiche di utilizzo, suscitando una notevole attenzione da parte dei media internazionali.
In molti hanno parlato di una “svolta” che avrebbe messo fine ai pareri medici forniti dal chatbot. In realtà, le nuove regole non segnano una cesura, ma piuttosto un chiarimento: ChatGPT continuerà a offrire informazioni sanitarie generali, ma non potrà fornire consulenze personalizzate che sostituiscano il giudizio di un medico.
Una distinzione fondamentale, che riflette le nuove direttive sull’uso responsabile dell’IA e la crescente attenzione verso la sicurezza degli utenti.
Le nuove regole di OpenAI
Dal 29 ottobre 2025, OpenAI ha unificato e aggiornato le norme che regolano l’utilizzo dei propri sistemi. Tra i punti principali, viene ribadito che l’intelligenza artificiale non può essere impiegata per fornire consigli che richiedano l’intervento di professionisti qualificati, come medici, avvocati o consulenti finanziari.
Si tratta di una misura che non modifica il funzionamento del chatbot, ma chiarisce i limiti entro cui l’IA può operare in modo etico e sicuro.
ChatGPT resta quindi autorizzato a spiegare concetti sanitari, termini medici o procedure diagnostiche, ma non può suggerire terapie, prescrivere farmaci o fornire diagnosi personalizzate. Il principio guida è quello della collaborazione e non della sostituzione: l’IA deve affiancare, non rimpiazzare, l’esperienza del professionista.
ChatGPT come strumento informativo
Nell’ambito della salute, l’uso di ChatGPT può rappresentare un valido supporto divulgativo. Può aiutare a orientarsi tra esami e sintomi, o a trovare informazioni di carattere generale su patologie e stili di vita.
OpenAI ha inoltre rafforzato le misure di sicurezza per le conversazioni sensibili, in particolare quelle legate alla salute mentale. Il modello è ora in grado di riconoscere segnali di disagio e di indirizzare l’utente verso fonti di aiuto o professionisti qualificati.
Questo aggiornamento, frutto della collaborazione con esperti del settore, nasce dall’esigenza di ridurre i rischi di risposte inadeguate nei casi di vulnerabilità psicologica.
Potrebbe interessarti anche:
- Arterie più vecchie di 5 anni: il danno del Covid, specialmente nelle donne
- Alzheimer: ecco il numero ideale di passi al giorno per rallentare il declino cognitivo
- L'Intelligenza Artificiale sconfigge la grave azoospermia: nasce una nuova speranza
I rischi dell’uso improprio dell’IA
Diversi studi accademici hanno messo in luce i limiti dei modelli linguistici generativi in ambito clinico.
Una ricerca pubblicata su arXiv nel 2025 ha mostrato che, in un numero significativo di casi, le risposte fornite a domande di tipo medico potevano risultare incomplete o potenzialmente dannose.
Questi risultati sottolineano come l’IA non disponga di dati personali, anamnesi o contesto clinico, elementi indispensabili per un giudizio medico accurato.
L’informazione generata dall’intelligenza artificiale può dunque essere utile, ma solo se interpretata correttamente e integrata nel dialogo con professionisti reali.
Il chiarimento di OpenAI si inserisce in un contesto normativo in evoluzione, segnato anche dall’AI Act europeo, che definisce regole più stringenti per l’uso dei sistemi di intelligenza artificiale ad alto rischio. L’obiettivo è garantire trasparenza, sicurezza e tutela degli utenti.
In questo scenario, la scelta di OpenAI non appare come una limitazione, ma come un passo verso un utilizzo più maturo della tecnologia. L’intelligenza artificiale può essere un potente strumento di divulgazione e supporto, ma deve rimanere entro confini chiari: informare sì, sostituire il medico no.
Fonti: