Un “pulsante d’emergenza” per spegnere l’Intelligenza Artificiale: la proposta dei ricercatori

Entra nel nuovo canale WhatsApp di NextMe.it pulsante rosso IA kill switch

La proposta di un meccanismo di emergenza, noto come “kill switch”, per l’interruzione dell’operatività dei sistemi di Intelligenza Artificiale (IA) in situazioni di necessità ricorda le misure precauzionali adottate per il controllo delle armi nucleari. Questa iniziativa emerge da un documento collaborativo di eminenti istituzioni accademiche, tra cui il Leverhulme Centre dell’Università di Cambridge, l’Oxford Internet Institute e la Georgetown University, con il contributo di alcuni ricercatori di ChatGpt. L’obiettivo è quello di sviluppare un sistema capace di fermare l’uso dell’IA in casi di applicazioni dannose o di violazioni normative.

Il documento analizza vari aspetti dell’IA, come il sistema di calcolo, le vaste infrastrutture che lo sostengono, e i chip per l’addestramento dei modelli di IA, prodotti da un limitato numero di aziende. Questi elementi, insieme ai vincoli della catena di approvvigionamento dei semiconduttori, forniscono ai regolatori gli strumenti per una migliore comprensione dell’implementazione dell’infrastruttura di IA, della sua accessibilità e delle possibilità di imporre restrizioni per un uso non conforme.

Le sfide e le contraddizioni nella regolamentazione dell’Intelligenza Artificiale

Nonostante l’attrattiva di un “kill switch” per l’IA, il documento sottolinea i potenziali rischi di un suo impiego improprio o nelle mani sbagliate, che potrebbe ostacolare lo sviluppo dell’intelligenza artificiale. Inoltre, viene evidenziata la posizione ambivalente di OpenAI, la società dietro ChatGpt, che, pur sostenendo la necessità di una regolamentazione, deve bilanciare questa esigenza con gli obiettivi commerciali e l’innovazione costante. Un esempio recente di questa tensione è lo sviluppo di Sora, un sistema IA capace di generare video realistici di un minuto a partire da un testo, sollevando preoccupazioni per le sue implicazioni nel cinema e nella diffusione di deepfake.

Il dibattito sull’introduzione di un “kill switch” per l’IA solleva questioni fondamentali sulla sicurezza, la regolamentazione e l’equilibrio tra innovazione e responsabilità nel campo dell’intelligenza artificiale. Mentre la proposta mira a offrire una soluzione per mitigare i rischi associati all’IA, sottolinea anche la complessità di governare una tecnologia in rapida evoluzione e il bisogno di un approccio ponderato che tenga conto di tutti gli stakeholder coinvolti