Avrebbe permesso “la produzione di contenuti sessualmente espliciti” senza alcuna autorizzazione. Tre giovani americane hanno deciso di portare in giudizio xAI, la compagnia di intelligenza artificiale fondata da Elon Musk, denunciando che il sistema Grok ha realizzato contenuti pornografici utilizzando le loro immagini autentiche come base.
L’azione legale giunge dopo che l’Unione Europea ha avviato un’inchiesta ufficiale e potrebbe coinvolgere negli Stati Uniti più di mille giovani vittime. Il procedimento si ricollega ai deepfake diffusi su X durante le festività di Capodanno, ora oggetto di indagine anche da parte delle autorità californiane.
xAI ha deliberatamente deciso di monetizzare lo sfruttamento sessuale di individui reali, compresi minori, pur essendo perfettamente consapevole delle implicazioni derivanti dalla realizzazione di uno strumento tanto rischioso, ha affermato Vanessa Baehr-Jones, legale rappresentante delle denuncianti.
La dinamica dei fatti
Le giovani hanno scoperto che materiali modificati attraverso l’intelligenza artificiale – comprese fotografie e filmati deepfake – erano in circolazione sulla rete, pubblicati inizialmente su server Discord e poi diffusi anche su altre piattaforme come Telegram.
In una circostanza specifica, una delle ragazze avrebbe ricevuto tramite Instagram un messaggio da mittente sconosciuto che la informava dell’esistenza di materiali che la raffiguravano senza vestiti e in atteggiamenti sessuali, insieme ad altre giovani della sua età. Alcuni contenuti sarebbero stati prodotti partendo da fotografie scattate quando era ancora minorenne, incluse immagini presenti nell’annuario scolastico.
Stando a quanto emerge dalla denuncia, questi materiali sarebbero stati impiegati anche come “valuta di scambio” in reti clandestine per acquisire ulteriore materiale pedopornografico.
Dopo aver allertato le forze dell’ordine, gli agenti hanno proceduto all’arresto di un individuo sospettato, rinvenendo sul suo dispositivo mobile contenuti illegali che sarebbero stati prodotti proprio mediante strumenti basati sulla tecnologia sviluppata da xAI.
La denuncia sostiene che il materiale sia stato realizzato attraverso applicazioni sviluppate da terzi che sfruttano Grok grazie a licenze ufficiali. Sebbene non generato direttamente sulla piattaforma X, il sistema si baserebbe comunque sui server di xAI, che ricaverebbe guadagni dalla distribuzione della propria tecnologia.
I legali accusano la società di aver sostanzialmente delegato le responsabilità a sviluppatori esterni, senza implementare verifiche adeguate sull’utilizzo degli strumenti forniti.
Una questione internazionale in espansione
Il procedimento si colloca all’interno di un quadro più esteso di investigazioni e contenziosi contro xAI relativi alla produzione di immagini sessualizzate senza autorizzazione. Secondo alcune ricerche, Grok avrebbe generato milioni di immagini di questa natura nell’arco di poche settimane, tra cui migliaia che coinvolgerebbero persone minorenni.
Elon Musk ha precedentemente smentito che il sistema sia stato impiegato per produrre materiali illegali, dichiarando di non avere conoscenza di immagini di minori create dalla piattaforma e sostenendo che Grok sarebbe stato progettato per conformarsi alle normative locali.
Questa vicenda non può che riportare l’attenzione su una questione sempre più pressante: l’utilizzo senza controllo dell’intelligenza artificiale nella modifica delle immagini e l’assenza di protezioni concrete, specialmente quando le vittime sono adolescenti.
Fonte: The Guardian
