C’è una probabilità del 70% che l’IA danneggi l’umanità: l’allarme degli ex dipendenti di OpenAI

Entra nel nuovo canale WhatsApp di NextMe.it Intelligenza Artificiale IA

Un gruppo di ex e attuali dipendenti di OpenAI ha pubblicato una lettera aperta sollevando nuovamente preoccupazioni riguardo ai problemi di sicurezza legati alla tecnologia. Questi dipendenti denunciano una sottovalutazione dei rischi e una corsa imprudente verso l’intelligenza artificiale generale (IAG) da parte dell’azienda. Uno di loro stima che vi siano circa il 70% di probabilità che l’IA possa causare danni catastrofici all’umanità a causa delle negligenze in materia di sicurezza.

Mentre la tecnologia si evolve a un ritmo vertiginoso, l’IA è al centro di dibattiti continui sui rischi che potrebbe comportare per la società. Promossa come prossima a uguagliare o addirittura superare molte competenze umane, diversi esperti temono che possa arrecare danni all’umanità in numerosi modi. I rischi includono la perdita massiva di posti di lavoro, la perdita di controllo sui sistemi autonomi di IA, la manipolazione delle informazioni e la disinformazione. Le stesse aziende che sviluppano IA e i pionieri della tecnologia, insieme ad altri esperti, hanno riconosciuto questi pericoli.

Cultura imprudente e pratiche discutibili in OpenAI

Nonostante gli avvertimenti, OpenAI sembra aver instaurato una preoccupante cultura dell’imprudenza nello sviluppo dei suoi strumenti. Un gruppo di nove ex e attuali dipendenti dell’azienda ha co-firmato una lettera aperta denunciando le pratiche di sicurezza discutibili. Tra i firmatari vi sono anche un ex e un attuale dipendente di Google DeepMind. La lettera è inoltre supportata da tre pionieri dell’IA: Geoffrey Hinton, Yoshua Bengio e Stuart Russell.

Il gruppo afferma che, sebbene alcune norme di sicurezza siano in vigore, esse sono insufficienti rispetto alla portata dei potenziali impatti. Viene inoltre denunciato che l’azienda prioritizza i profitti e la crescita rispetto alla sicurezza e impone una politica restrittiva per chi desidera sollevare problemi di sicurezza.

Daniel Kokotajlo, uno dei firmatari e ex ricercatore di OpenAI, ha dichiarato al New York Times:

OpenAI è davvero entusiasta della creazione dell’IAG e si precipita imprudentemente per essere il primo.

Kokotajlo ha lasciato l’azienda ad aprile di quest’anno, affermando di aver perso fiducia nell’impegno di OpenAI a comportarsi responsabilmente con la tecnologia.

Gravi negligenze in materia di sicurezza

Assunto da OpenAI nel 2022, Kokotajlo era incaricato di prevedere i progressi dell’IA e i suoi potenziali impatti. Inizialmente stimava che l’IAG sarebbe stata disponibile entro il 2050, ma osservando la rapidità dei progressi, ora crede che vi siano il 50% di probabilità che sia disponibile entro il 2027. Inoltre, stima che ci sia il 70% di probabilità che l’IAG causi danni catastrofici all’umanità (una statistica soprannominata «p(doom)»), date le carenze in materia di sicurezza.

Nonostante l’azienda abbia implementato un protocollo di sicurezza, questo sarebbe insufficiente o non applicato correttamente. Nel 2022, Microsoft ha testato discretamente in India una nuova versione del suo motore di ricerca Bing, alimentata da una versione non ancora approvata di GPT-4. Questo test è stato effettuato senza l’approvazione del comitato di sicurezza, come confermato da Microsoft.

Dopo aver espresso le sue preoccupazioni al CEO di OpenAI, Sam Altman, Kokotajlo non ha visto progressi significativi in materia di sicurezza e trasparenza. Nella lettera aperta, il gruppo afferma quanto segue:

Le società di IA possiedono importanti informazioni non pubbliche sulle capacità e i limiti dei loro sistemi, sull’adeguatezza delle misure di protezione e sui livelli di rischio di diversi tipi di danni. Tuttavia, attualmente hanno poche obbligazioni di condividere queste informazioni con i governi, e nessuna con la società civile.

Clausole di riservatezza severe per gli ex dipendenti

L’azienda fa inoltre firmare agli ex dipendenti un accordo di non denigrazione, pena la perdita dei capitali acquisiti. Questo accordo implica il divieto di divulgare informazioni negative sull’azienda. Kokotajlo ha lasciato l’azienda rischiando di perdere circa 1,7 milioni di dollari accumulati. Nella lettera aperta, il gruppo scrive:

Accordi di riservatezza ci impediscono di esprimere le nostre preoccupazioni, tranne che alle stesse aziende che non riescono a risolvere questi problemi.

Tuttavia, OpenAI ha smentito queste affermazioni, dichiarando di non aver mai recuperato i capitali di ex dipendenti e di non aver intenzione di farlo, e ha affermato che rimuoverà le clausole di non denigrazione.

Nella lettera, il gruppo di dipendenti ed ex dipendenti chiede una politica più aperta da parte dell’azienda e un maggiore impegno per la sicurezza e la responsabilità tecnologica. Dopo la pubblicazione della lettera, OpenAI ha rilasciato un aggiornamento affermando:

Concordiamo che un dibattito rigoroso sia cruciale data l’importanza di questa tecnologia e continueremo a collaborare con i governi, la società civile e altre comunità in tutto il mondo.