Vai al sito Mister Credit

IL BLOG DI
MISTER CREDIT

Le sfide dell'IA alla nostra privacy: intervista al Professor Matteo Flora


Tempo di lettura stimato: 11 minuti

Policy complesse, tecnologie dalle potenzialità enormi, leggi che faticano a tenere il passo dell'innovazione. L'intelligenza artificiale pone delle sfide alla nostra privacy che spesso non è semplice comprendere appieno.

Per spiegarcele, abbiamo parlato con Matteo Flora, Professore in Corporate Reputation and Storytelling all'Università di Pavia, imprenditore seriale e creatore di Ciao internet!, il canale YouTube di Tech Policy più seguito in Italia.

A partire da metà aprile Meta ha cominciato a utilizzare i dati pubblici degli utenti delle sue app per addestrare i suoi motori di intelligenza artificiale. Detto in parole povere, significa che Meta usa le nostre foto e i post che condividiamo sui nostri profili come training per la sua IA?

Ni. Non verranno impiegati i contenuti privati, quindi ciò che viene condiviso sui nostri profili privati su Facebook e Instagram, i messaggi tra utenti, le conversazioni su Whatsapp e via dicendo. Verranno invece impiegati i contenuti pubblici per migliorare l'addestramento della loro intelligenza artificiale. Partiamo dalle luci e poi vediamo le ombre.

Le luci: si tratta di un passaggio necessario, soprattutto se vogliamo dei contenuti realizzati dall'IA che siano più adatti al contesto culturale delle singole nazioni. Nel nostro caso, se vogliamo contenuti in italiano che siano effettivamente in italiano, e non in inglese e poi tradotti in italiano. L'esempio classico è chatGPT che se deve generare un'e-mail la inizia con “Ciao, spero che questa e-mail ti trovi bene”, che è il classico convenevole di apertura di un'e-mail di impostazione anglofona. Se vogliamo che i contenuti siano più vicini al tono e alle specificità italiani, i contenuti con cui addestrare l'IA sono quelli dei cittadini italiani.

Anche la scelta di che cosa utilizzare per l'addestramento è abbastanza onesta, trattandosi di contenuti prettamente pubblici, senza andare a recuperare quelle informazioni che possono essere considerate sensibili come le conversazioni private, e insomma tutto ciò che non fa parte della sfera pubblica.

Ma c'è un ma. Ovviamente questo ci spaventa, perché sui social siamo abituati a essere in una sorta di finta piazza pubblica la cui estensione massima è quella della rete sociale a cui arriviamo, a meno di fenomeni di rilancio. Siamo abituati a parlare ad alta voce in una metro affollata, e non con un megafono in Piazza Duomo. E tendiamo a sopravvalutare l'importanza delle nostre conversazioni rispetto alle altre. Tanti pensano “non voglio che il mio stile venga copiato”. Come se il nostro stile non fosse già il risultato di tutti gli stili che abbiamo incontrato nella nostra vita.

E poi Meta arriva ultima dopo molte altre piattaforme. Twitter, ora X, utilizza questi dati da molto più tempo. È un po' un passaggio obbligato. Se il processo tipico di monetizzazione delle piattaforme è quello di creare contenuti e dare un'impostazione per la creazione di contenuti, non possiamo aspettarci niente di diverso.

Meta si ostina però a utilizzare una modalità di opt-out, e non di opt-in. Siamo coinvolti per definizione, a meno di compiere tutta una serie di azioni difficili per il singolo utente. Il razionale è quello dello sforzo cognitivo. Metti l'azione che per te è più conveniente come azione di default. Tuttavia, Meta dovrà fare attenzione. I garanti di mezza Europa le tengono il fiato sul collo, anche perché, non dimentichiamocelo, si tratta di una misura che Meta aveva già preso alcuni anni fa, e che poi aveva dovuto bloccare. E poi c'è tutta la questione del Digital service act, che vieta l'uso dei cosiddetti dark pattern1 e stabilisce che ottenere l'opt-out deve essere facile e veloce.

Il piccolo paranoico dentro di me ha una visione negativa di tutto questo. Il me stesso imprenditore, che conosce la real politik, pensa che Meta stia agendo in modo abbastanza pulito, e soprattutto con un livello di garanzie superiore a quello di tanti servizi che comunicano in modo meno chiaro.

Bisogna poi aggiungere che gli unici contenuti sottoposti a training sono quelli degli utenti che hanno esplicitamente dichiarato di aver raggiunto la maggiore età, che questa dichiarazione sia veritiera o meno.


A proposito di questo: poco tempo fa qui su Mister Credit abbiamo parlato dello sharenting, un tema che si ricollega a un suo video in cui ha parlato del caso delle immagini dei bambini brasiliani impiegate per addestrare una IA. Questa nuova decisione di Meta significa, ad esempio, che le immagini dei bambini condivise dai genitori saranno impiegate per addestrare l'IA?

Questo è un problema enorme. E non solo perché le immagini di minori diventano parte di un sistema di addestramento, ma perché i soggetti coinvolti troveranno molto difficile se non impossibile, allo stato attuale, opporsi a questo trattamento. Questo è forse uno degli aspetti peggiori di questo sistema. E non è colpa di Meta in particolare, ci sono decine di altre realtà che fanno la stessa cosa.

Facciamo un esempio, un papà che posta su un social media la foto di classe di suo figlio. A quel punto tutte le persone coinvolte finiscono nel training set. Lo stesso accade con un gruppo di amici che si fanno un selfie che uno poi condivide sui social. Al momento non esiste un modo per escludere un viso dal training set.

Dunque sì, le immagini di bambini postate da adulti vengono utilizzate come training per l'IA. Ma non è solo questo che deve preoccuparci. Un altro punto preoccupante è il fatto che al momento non esiste un modo per i minori coinvolti di riappropriarsi della propria immagine e opporsi all'utilizzo dei propri dati personali. Meta, così come X, Tiktok e tutti gli altri, scarica questa responsabilità sull'utente che per primo ha immesso quell'immagine senza averne titolarità.

Il tema della privacy in relazione all'IA è immenso, ma se dovesse riassumerlo: quali sono i punti di criticità che dovrebbero preoccupare maggiormente un qualunque utente della rete?

Tagliando un po' con l'accetta, possiamo dire che il dato ha due funzioni principali: la prima è una funzione descrittiva, la seconda è una funzione di profilazione. Vale a dire che con abbastanza dati, puoi desumere abitudini, comportamenti e via dicendo.

Prendiamo l'esempio di qualcuno che richiede un finanziamento. La finanziaria a cui l'ha richiesto si rivolge a un SIC per conoscere la sua storia creditizia. Ma se le informazioni che ha a disposizione, oltre a quelle dei Sistemi di Informazioni Creditizie, includono dati che riguardano le spese compiute tramite pagamento elettronico, le spese online, gli account sui social, e via dicendo, questo significa che la finanziaria può dedurre in dettaglio il tenore e lo stile di vita del richiedente. Prima questo non era possibile.

E se questa nuova possibilità può essere utilizzata in modo corretto e rispettoso della legge, in altri casi, specialmente se i dati diventano parte di un training set, può andare contro i desiderata delle persone coinvolte.

Il profiling – lo sappiamo bene da Cambridge Analytica in poi – permette di inferire un'enormità di informazioni aggiuntive da un dataset sufficientemente strutturato. Ad esempio, bastano pochi post sui social network per desumere tratti psicologici importanti, anche di persone potenzialmente vulnerabili.

Il problema della privacy non è per forza il dato in sé. Ovviamente, un certificato medico che parla di un mio problema di salute mentale è un dato che fa parte della sfera privata e che tale deve rimanere. Ma la questione che è più preoccupante in termini di scala è la possibilità di desumere informazioni non pubbliche da dati che, presi singolarmente, hanno un interesse moderato.

Immaginiamo una donna di 30 anni che posta le sue fotografie in rete nel corso del tempo. Avendone a disposizione una serie, un'intelligenza artificiale, in modo molto veloce, può riuscire a desumere ad esempio se la donna ha fatto un intervento di chirurgia estetica, e dunque catalogarla insieme ad altre persone che hanno svolto interventi simili e targetizzarla.

Dalle immagini postate in rete un'IA può dedurre lo stato di salute. Analizzando la camminata di una persona in un video può stabilire se c'è la possibilità che sviluppi problemi neurologici e dare questa informazione a un'assicurazione. Può analizzare la posizione degli occhi nel corso del tempo, individuare un disallineamento e dare un marker di rischio rispetto all'ictus o a problemi neurologici, utilizzando l'informazione a scopo di profilazione.

Nessun essere umano può fare qualcosa del genere, ma è una cosa banale, semplicissima, per l'intelligenza artificiale. E questo è decisamente preoccupante.


L'AI Act e la normativa europea a protezione della privacy (GDPR) riescono a porre un freno a tali criticità?

L'AI act e il GDPR non servono per porre un freno, ma per stabilire un framework basato sul rischio per capire l'incentivazione o la disincentivazione di alcuni modelli di business, tra cui la vendita di informazioni. La parte di contrasto agli abusi dipende dalle autorità nazionali preposte al controllo, non dalla normativa stessa. Se ci riescono o meno, dipende da quante risorse ricevono.

Ciò che le normative ci permettono di ottenere sono due cose: una riduzione del rischio, eliminando i più palesi utilizzi impropri della tecnologia; e poi una cornice all'interno della quale le attività non considerate improprie vengono consentite. Senza normative chiare, ogni cosa è soggetta a interpretazione. È indispensabile avere un sestante giuridico che armonizza i comportamenti delle singole nazioni. Si tratta in realtà di una cornice che non include solo l'AI Act e il GDPR ma anche il Digital Markets Act e il Digital Services Act.

È poi ormai di dominio pubblico che probabilmente vedremo una revisione al ribasso sia dell’AI Act che del GDPR. Si parla di semplificazione, ma in realtà bisognerebbe parlare di escamotage. E questo perché è in corso una battaglia geopolitica per quella che viene chiamata la “supremacy” nell'ambito dell'intelligenza artificiale, vale a dire per assicurarci di essere almeno alla pari con gli altri.

Se sul campo di battaglia ci sono due grandi potenze, Stati Uniti e Cina, che non hanno nessun paletto, e poi c'è l'Unione Europea, che invece ha molti paletti – che tra l'altro si applicano indiscriminatamente a tutti i soggetti, dalle startup alle aziende che fatturano miliardi – chiaramente per le realtà più piccole competere è molto difficile.

Dunque, molto probabilmente ci troveremo ad avere un GDPR e un AI Act “light” per le aziende medio piccole, che fino a che non raggiungeranno dimensioni più grandi si muoveranno ai limiti di applicazione delle normative.


Parliamo di proprietà intellettuale: mettiamoci nei panni di un artista, o di un'azienda che produce scarpe e che vende online i suoi prodotti. Come possono proteggere le loro creazioni per evitare che finiscano nel minestrone con cui vengono nutrite le IA?

Esistono tutta una serie di normative che a intervalli irregolari vengono applicate o disapplicate. Ma la loro attuazione dipende dall'interesse politico prevalente. La proprietà intellettuale funziona laddove porta un beneficio ad interessi nazionali e internazionali, tutelando alcune forme di potere. Fino ad ora è stato così, ma non è detto che questo continuerà ancora per molto.

Oggi le grandi corporation si esprimono contro la proprietà intellettuale, perché rappresenta il maggiore ostacolo alla loro crescita. Un ostacolo principalmente economico, ma anche di tempo. Il tempo richiesto per agire nel rispetto della proprietà intellettuale può essere incompatibile con la tabella di marcia di altre realtà che invece non la rispettano.

Nella famosa lettera firmata dalle grandi dell'intelligenza artificiale qualche settimana fa, il punto centrale è proprio lo scontro tra Stati Uniti e Cina. Le aziende affermano che bloccandole in nome della proprietà intellettuale, questa non verrà tutelata, semplicemente le aziende statunitensi resteranno indietro a vantaggio di quelle cinesi.

Non è un discorso sbagliato, è un discorso politico nel senso più elevato, vale a dire di visione della società. Cosa è più importante? La proprietà intellettuale o la supremazia tecnologica? Certamente non è una scelta che può essere presa a cuor leggero e, ancora più importante, che può essere presa da una corporation. Deve essere frutto di una concertazione tra le parti che al momento manca, perché mancano le competenze e perché le parti si muovono solo sulla base di posizioni ideologiche. È normale che le diverse parti in gioco sostengano i loro interessi, e dall'altra parte bisogna comprendere quale direzione sta prendendo il mondo e se quella direzione ci va bene. È un discorso profondamente politico in cui al momento paradossalmente fa sentire la sua voce la politica del lobbismo e non quella delle piazze.

 

1Ovvero tecniche ingannevoli che hanno lo scopo di manipolare gli utenti online affinché compiano azioni indesiderate.