Circola in rete una voce secondo cui l’intelligenza artificiale di OpenAI avrebbe smesso di offrire indicazioni in campo sanitario e giuridico. Si tratta, però, di un’informazione completamente errata. È stata la stessa OpenAI a fare chiarezza, sottolineando come le linee guida attuali non abbiano subito modifiche rilevanti. Le normative esistevano già da tempo: il sistema non è autorizzato a rilasciare consulti su misura in settori che necessitano di abilitazione professionale, mentre può condividere contenuti informativi di carattere generale.
La controversia è nata da una pubblicazione diventata virale – successivamente cancellata – che denunciava una presunta “censura” da parte della società. Una ricostruzione completamente distorta. Come ha precisato Karan Singhal, responsabile dell’intelligenza artificiale in ambito medico per OpenAI, il chatbot rimarrà “uno strumento prezioso per approfondire questioni giuridiche e di salute“, ma mai un’alternativa a medici o legali qualificati.
Nuove direttive: educare sì, diagnosticare no
A partire dal 29 ottobre 2025 OpenAI ha semplicemente consolidato le proprie direttive in un testo più trasparente, conformandosi anche alle disposizioni dell’AI Act dell’Unione Europea. Le regole proibiscono l’impiego dell’intelligenza artificiale per erogare pareri personalizzati in settori quali medicina, diritto, economia, occupazione e formazione, a meno che non vi sia la supervisione di un esperto certificato.
Ciò implica che il sistema può illustrare cosa sia un accordo contrattuale o una patologia respiratoria, ma non può redigere disposizioni testamentarie personalizzate o raccomandare farmaci specifici. Lo scopo è proteggere gli utilizzatori da pericoli reali: recentemente sono emersi casi di avvelenamenti e perfino disturbi mentali acuti causati da risposte inappropriate dei chatbot.
OpenAI ammette che questi sistemi possono sembrare comprensivi e credibili, ma non devono mai prendere il posto del giudizio professionale. L’intelligenza artificiale deve supportare, non sostituire, chi dispone di qualifiche professionali riconosciute. In un momento storico in cui milioni di persone affidano a ChatGPT riflessioni personali o difficoltà psicologiche, la differenza tra divulgazione e cura, tra supporto e valutazione clinica, risulta fondamentale. Il principio è chiaro ma cruciale: il chatbot può facilitare la comprensione, ma non può scegliere per te.
Fonte: OpenAI
