Bruxelles ha avviato un’inchiesta ufficiale contro Grok, il sistema di intelligenza artificiale presente su X, ritenuto responsabile di aver agevolato la generazione di contenuti sessuali espliciti raffiguranti persone reali senza il loro consenso. Secondo quanto riferito dalla Commissione europea, questa pratica ha già causato “danni significativi” ai residenti del continente, con particolare riferimento a donne e minorenni.
L’esecutivo comunitario ha quindi dato il via a un procedimento investigativo per accertare se la piattaforma X abbia ottemperato ai requisiti stabiliti dal Digital Services Act (DSA), la legislazione che obbliga le grandi realtà digitali a identificare e ridurre i pericoli associati ai propri sistemi, specialmente quando questi possono incentivare la propagazione di materiale illecito o dannoso.
Al centro dell’attenzione vi sono i pericoli connessi alla generazione e alla distribuzione di:
- contenuti sessuali alterati digitalmente (deepfake)
- materiale pedopornografico
- contenuti che incitano alla violenza basata sul genere
Secondo l’organo comunitario, X potrebbe aver omesso di condurre un’analisi preventiva dei pericoli specifici associati a Grok prima di implementare funzionalità che hanno alterato sostanzialmente il livello di rischio complessivo del servizio. Tale verifica rappresenta un adempimento vincolante secondo il DSA, particolarmente quando vengono introdotti strumenti in grado di produrre contenuti delicati su vasta scala.
Qualora le infrazioni venissero accertate, la società guidata da Elon Musk rischierebbe una sanzione pecuniaria che può raggiungere il 6% dei ricavi annuali mondiali.
A peggiorare ulteriormente la situazione ci sono le cifre emerse. Secondo un’inchiesta pubblicata dal New York Times, nel corso di soli nove giorni, a partire dall’ultimo periodo di dicembre, il sistema avrebbe prodotto approssimativamente 1,8 milioni di raffigurazioni sessualmente esplicite di soggetti femminili. Una quantità che evidenzia l’ampiezza del fenomeno e la velocità con cui l’intelligenza artificiale può creare materiale lesivo, privo di autorizzazione e di controlli adeguati.
Le immagini sessualmente esplicite create artificialmente raffiguranti donne e minori rappresentano una forma brutale e intollerabile di umiliazione. Verificheremo se X abbia adempiuto ai propri doveri normativi oppure se abbia considerato i diritti dei cittadini europei come effetti secondari indesiderati del proprio modello di business, afferma la vicepresidente esecutiva della Commissione Europea, Henna Virkkunen.
In sintesi, le istituzioni europee intendono verificare se la protezione degli individui sia stata subordinata alla rapidità dell’innovazione tecnologica e al coinvolgimento degli utenti.
Non è soltanto l’Unione europea a prendere posizione: negli ultimi tempi, iniziative normative contro Grok sono state intraprese anche da Regno Unito, Australia, Canada, Giappone, India, Malesia, Indonesia, Filippine, Irlanda e Francia. Un’alleanza internazionale in continua espansione che dimostra come la questione non sia circoscritta, ma sistemica.
Già nei primi giorni di gennaio Bruxelles aveva imposto a X di mantenere l’intera documentazione e i dati interni riguardanti Grok, qualificando le immagini emerse come “raccapriccianti” e “ripugnanti”. Da quel momento si sono intensificate le investigazioni nazionali e le sollecitazioni politiche.
Oltre ai singoli episodi, la questione è più radicale: l’intelligenza artificiale generativa sta penetrando nella quotidianità senza protezioni concrete, senza normative effettivamente applicate, e frequentemente senza una valutazione autentica delle conseguenze sui diritti fondamentali. E quando un sistema è capace di generare milioni di raffigurazioni sessualizzate in pochi giorni, il pericolo è già concreto.
L’inchiesta europea su Grok rappresenta un momento cruciale. Non concerne esclusivamente una piattaforma o un chatbot, ma il principio secondo cui la tecnologia non può espandersi compromettendo la sicurezza delle persone più esposte.
