Recentemente, un hacker ha rilasciato una versione jailbroken di ChatGPT chiamata “modalità Dio“, che permette al chatbot di aggirare le restrizioni imposte da OpenAI. Questa versione ha consentito agli utenti di ottenere risposte dettagliate su argomenti pericolosi, come la produzione di droghe e sostanze esplosive. In risposta, OpenAI ha rapidamente bloccato l’accesso a questa versione. Tuttavia, la vicenda mette in luce la continua lotta tra hacker e aziende tecnologiche.
La storia della “modalità Dio” di ChatGPT segue un modello noto nel mondo degli hacker da decenni. Pliny the Prompter, un hacker e red teamer dell’AI, ha annunciato su X (ex Twitter) il rilascio di una versione jailbroken di GPT-4, libera dalle limitazioni standard.
Questa versione permetteva agli utenti di sperimentare l’intelligenza artificiale senza restrizioni, fornendo risposte che normalmente sarebbero state censurate. Il concetto di “modalità Dio” deriva dal mondo dei videogiochi, dove il personaggio diventa invulnerabile e ha accesso a risorse illimitate.
Pliny the Prompter ha condiviso screenshot che mostrano il funzionamento della modalità Dio, utilizzando il “leetspeak” per eludere i sistemi di sicurezza di OpenAI. Gli screenshot mostravano il chatbot fornire istruzioni dettagliate su come creare metanfetamina e napalm utilizzando articoli domestici comuni.
Anche test condotti da altre fonti hanno dimostrato che la versione jailbroken di ChatGPT era in grado di fornire istruzioni per la produzione di LSD e per avviare un’auto senza chiavi. Questi esempi dimostrano come la modalità Dio possa superare i limiti etici imposti da OpenAI.
La reazione di OpenAI
Non è la prima volta che gli utenti tentano di aggirare le barriere di ChatGPT. Già in passato, i ricercatori avevano scoperto che i criminali utilizzavano ChatGPT per migliorare il codice di malware.
Tuttavia, la risposta di OpenAI è stata rapida: la portavoce Colleen Rize ha dichiarato che OpenAI aveva preso provvedimenti contro la modalità Dio, bloccandone l’uso.
Attualmente, non è possibile utilizzarla, ma è probabile che nuovi tentativi di jailbreak emergeranno. La continua evoluzione delle tecniche di hacking e la risposta delle aziende tecnologiche rappresentano una sorta di gioco del gatto e del topo che sembra destinato a continuare.