Vai al sito Mister Credit

IL BLOG DI
MISTER CREDIT

Il caso Grok e i rischi dell'intelligenza artificiale senza limiti


Tempo di lettura stimato: 4 minuti

Elon Musk è spesso associato a uno stile manageriale fuori dagli schemi. Nel corso del tempo questo approccio ha portato più volte l'imprenditore a confrontarsi una serie di denunce, generando diverse controversie legali legate ai suoi comportamenti pubblici e alle dinamiche interne delle sue aziende.
L’ultimo episodio che lo vede coinvolto ha però una risonanza particolarmente ampia. Non si tratta solo dell’ennesimo caso mediatico, ma di un esempio concreto di quanto l’intelligenza artificiale possa diventare potenzialmente rischiosa, quando non è accompagnata da regole chiare e da solide linee guida etiche.
Si tratta quindi di una vicenda che non riguarda solo Musk, ma che apre una riflessione più ampia su come dovremmo governare le tecnologie emergenti per garantire un uso responsabile e sicuro.

Cos'è e cosa si può fare con Grok

Grok è il modello di IA sviluppato da xAI (società di Musk) e integrato all'interno di X, l'ex social network Twitter che l'imprenditore ha acquistato alcuni anni fa tra molte polemiche. Negli ultimi mesi, Grok è finito al centro di una tempesta di proporzioni intercontinentali, dopo la scoperta del suo utilizzo da parte degli utenti per produrre immagini esplicite e/o violente di donne e bambini. Secondo la CNN, si parla di migliaia di immagini al giorno, le quali, riporta l'organizzazione no-profit AI Forensic, riguardano donne nell'81% dei casi e nel 2% dei casi minori.

Molte donne hanno denunciato di essersi riviste in immagini esplicite e straordinariamente realistiche, generate da utenti malintenzionati tramite Grok. Un vero e proprio tsunami di immagini: il Center for Countering Digital Hate ne ha contate oltre tre milioni in soli undici giorni, di cui due milioni ritraevano donne e quasi 25.000 bambini.

Una funzionalità, quella della generazione di immagini sessualmente esplicite, che ha innescato l'intervento di diverse autorità.

Le autorità contro Grok e i rischi dell'intelligenza artificiale generativa

Regno Unito, Irlanda, Spagna, Italia e altri paesi sono intervenuti, tramite le rispettive autorità competenti, per segnalare numerosi profili di illegalità legati a Grok. Le contestazioni riguardano la diffusione di deepfake, la creazione e circolazione di immagini esplicite senza il consenso delle persone coinvolte e, in modo particolarmente rilevante, gli aspetti che coinvolgono contenuti riferiti a minori.

In Italia, il Garante, in un suo comunicato, ha richiamato i fornitori di servizi di IA, e in particolare X, a sviluppare le proprie funzionalità e i propri servizi garantendo il rispetto della disciplina sulla privacy e in generale della legge, inclusa la normativa italiana sull'Intelligenza artificiale entrata in vigore a ottobre 2025, che sancisce il reato di deepfake. È andato oltre il governo del Regno Unito, che ha direttamente minacciato di bandire X dal paese.

In risposta, Elon Musk ha limitato le funzionalità di generazione di immagini esplicite all'interno di Grok agli utenti paganti. Un provvedimento che non ha convinto la Commissione Europea, la quale a fine gennaio ha deciso di lanciare un'indagine per verificare il rispetto delle normative europee da parte di X, e in particolare il Digital Services Act e quelle che proteggono i diritti delle donne e dei bambini cittadini dell'UE.

UNICEF: i deepfake un pericolo per i bambini

La sofferenza causata dagli abusi legati ai deepfake è reale e urgente”: è quanto affermato dall'UNICEF in un suo comunicato. L'agenzia dell'ONU per la protezione dell'infanzia ha rivelato che nell’ultimo anno almeno 1,2 milioni di minori dichiarano di essere stati vittima della manipolazione non consensuale delle loro immagini a scopo sessuale. In alcuni paesi, questo significa un bambino su 25. Ma se le immagini deepfake sono false, il danno e il dolore che provocano sono reali e drammatici.

L'UNICEF ha chiamato a intraprendere immediatamente una serie di azioni:

  • i governi devono includere il materiale generato dall'IA all'interno della definizione di materiale pedopornografico, e criminalizzarne la creazione, l'acquisizione, il possesso e la distribuzione
  • gli sviluppatori di IA devono implementare la cosiddetta “safety-by-design”, vale a dire delle stringenti limitazioni per prevenire l'uso illecito dei modelli di IA fin dalla loro progettazione
  • le aziende digitali devono investire in tecnologie e strumenti di moderazione allo scopo non solo di rimuovere i materiali pedopornografici generati dall'IA, ma anche di prevenirne la circolazione.

Una cosa è certa: i rischi di un'intelligenza artificiale non regolamentata sono già visibili e per certi versi anche già sfuggiti al controllo, e un intervento normativo e giudiziario forte è più urgente che mai.

Vuoi uno strumento in più per proteggere i tuoi dati e la tua identità in rete? Scopri SICURNET e affidati al servizio ne sorveglia la diffusione (anche nel Dark Web) e ti avvisa se sono a rischio!