OpenAI ha tracciato una nuova linea di confine nel rapporto tra intelligenza artificiale e responsabilità umana. Dal 29 ottobre 2025, con l’introduzione delle nuove usage policies, ChatGPT non è più autorizzato a fornire consigli personalizzati in ambito medico, legale e finanziario. Un cambio netto, che segna il passaggio da un’IA conversazionale apparentemente onnisciente a uno strumento più cauto, regolato e consapevole dei propri limiti. Non si tratta di un guasto o di un errore temporaneo: la decisione è il frutto di un riposizionamento strategico, tanto legale quanto etico.
OpenAI chiarisce che ChatGPT continuerà a offrire informazioni generiche e contenuti educativi, ma non potrà più agire da consulente virtuale. L’IA non sostituirà l’avvocato, il medico, il commercialista, né offrirà diagnosi, pareri legali o raccomandazioni finanziarie. Il divieto si estende a tutte le aree in cui è richiesto un titolo professionale riconosciuto per esercitare la consulenza: ciò include sanità, giustizia, educazione, credito e assicurazioni. Il rischio, sottolinea l’azienda, è che un sistema automatizzato possa generare errori con conseguenze potenzialmente gravi su decisioni che incidono sulla vita reale delle persone.
Dietro questa svolta, due pressioni convergenti: da un lato il nuovo AI Act europeo, che ha introdotto divieti stringenti per i sistemi di intelligenza artificiale considerati ad alto o inaccettabile rischio; dall’altro, la crescente minaccia di cause legali negli Stati Uniti, dove la mancanza di riservatezza delle conversazioni con chatbot ha aperto interrogativi sulla loro natura e sul loro ruolo giuridico. Sam Altman, CEO di OpenAI, aveva già messo in guardia gli utenti: ciò che si scrive a ChatGPT può essere reso pubblico in caso di controversia. Evitare che il chatbot venga classificato come dispositivo medico o consulente legale è anche una forma di protezione per l’azienda stessa.
Il provvedimento riguarda anche i cosiddetti GPT personalizzati: versioni adattate di ChatGPT per usi specifici, che ora dovranno rispettare gli stessi vincoli. Se un GPT viola le regole, può essere rimosso da OpenAI senza preavviso, anche se gli sviluppatori avranno diritto a un ricorso. La policy aggiornata, inoltre, vieta l’utilizzo del sistema per creare deepfake senza consenso, svolgere riconoscimenti biometrici o aiutare gli utenti a imbrogliare in ambito accademico. È vietato anche sfruttare l’IA in ambito militare, di intelligence o sicurezza nazionale senza autorizzazione preventiva.
Un’attenzione particolare è stata dedicata alla tutela dei minori e alla gestione dei contenuti sensibili. ChatGPT non può generare materiale che promuova comportamenti pericolosi, come autolesionismo o disturbi alimentari. OpenAI ha rafforzato il modello con l’aiuto di oltre 170 esperti di salute mentale, riducendo drasticamente il numero di risposte inadeguate nei casi di crisi. Il sistema è ora in grado di riconoscere segnali di disagio psicologico e fornire risposte empatiche, proponendo il ricorso a servizi di emergenza o supporto professionale. Con una base utenti settimanale che supera gli 800 milioni, anche lo 0,07% di casi problematici equivale a centinaia di migliaia di persone in potenziale stato di fragilità.
La reazione degli utenti è stata mista. Sui forum abbondano le lamentele di chi si è visto negare un parere che prima riceveva in pochi secondi. Alcuni segnalano che il blocco non è ancora omogeneo per tutti gli utenti, ma è solo questione di tempo prima che le restrizioni siano pienamente operative. Il timore, tra molti, è che nel tentativo di ridurre i rischi si stia sterilizzando il potenziale dell’intelligenza artificiale, rendendola meno utile. Tuttavia, è proprio questa la sfida del futuro: sviluppare un’IA potente ma responsabile, utile ma non invadente, capace di convivere con le regole, le professioni e le vulnerabilità umane.
Anche gli altri grandi player si stanno muovendo nella stessa direzione. Google, Canva e Microsoft hanno già adottato policy che vietano l’uso dei loro strumenti per fornire consulenze professionali. L’intelligenza artificiale non è più vista come sostitutiva dell’esperto umano, ma come un supporto che non può prescindere dal giudizio e dalla responsabilità delle figure abilitate. In Italia, la legge 103/2025 ha rafforzato questa distinzione, chiarendo che l’uso dell’IA da parte dei professionisti è lecito solo se integrato, e non sostitutivo, dell’attività intellettuale. La trasparenza sull’impiego dell’IA è ora un obbligo informativo, anche se privo di sanzione specifica, e la violazione può avere conseguenze sul piano deontologico.
L’AI Act europeo ha infine segnato un punto fermo: ci sono usi dell’intelligenza artificiale semplicemente inaccettabili. Sistemi di manipolazione cognitiva, punteggio sociale, sorveglianza biometrica in tempo reale e riconoscimento emotivo sono stati banditi. I sistemi generativi come ChatGPT devono rispettare requisiti di trasparenza, dichiarare la propria natura artificiale e spiegare i contenuti prodotti. È il segnale che la regolamentazione dell’IA non è più un tema futuristico, ma una necessità urgente e concreta, per evitare derive tecnologiche incompatibili con i valori democratici.
La ritirata di ChatGPT dalle consulenze personalizzate può sembrare una rinuncia, ma rappresenta in realtà un passo verso un’IA più adulta. È la prova che la maturità tecnologica non si misura solo in capacità predittive, ma anche in consapevolezza dei limiti. In gioco non c’è solo la qualità del servizio, ma la fiducia degli utenti, la sicurezza delle persone e la credibilità di un intero settore.
 
 
 
 
 
 
 