Vai al sito Mister Credit

IL BLOG DI
MISTER CREDIT

L'intelligenza artificiale tra visioni apocalittiche e pericoli reali: intervista a Andrea Daniele Signorelli


Quali sono i pericoli delle nuove tecnologie basate sulle intelligenze artificiali (da qui in poi IA)? Ne parliamo con Andrea Daniele Signorelli, giornalista che da molti anni si occupa di innovazione digitale e del suo impatto sulla società, e autore di Technosapiens: come l'essere umano si trasforma in macchina.

 

In parole povere, cosa sta succedendo nel mondo delle IA? Perché oggi se ne parla così tanto?

Per prima cosa bisogna comprendere che non siamo di fronte a una nuova forma di IA, ma a un'evoluzione molto significativa, importante e anche abbastanza repentina di qualcosa che già esisteva. L'esempio classico è quello di ChatGPT: i chatbot conversazionali con i quali è possibile parlare ottenendo risposte spesso coerenti sono in uso da almeno 10 anni, da quando ha iniziato davvero a prendere piede la rivoluzione del deep learning. ChatGPT tuttavia è uno strumento più potente, che può poggiare su una maggiore quantità di dati, e ha quindi fatto compiere all'IA basata sul deep learning uno scarto significativo. Uno scarto che si accompagna a tutto il tema delle IA generative, ovvero capaci di generare testo, immagini, musica e via dicendo. Anche qui, non sono una novità assoluta, ma siamo di fronte ai primi software che riescono a produrre risultati a volte di qualità davvero notevole, e sono inoltre facili da utilizzare e alla portata di tutti.
Insomma, quello che stiamo vivendo è un salto qualitativo di una tecnologia che a livello teorico nasce negli '40, inizia a formarsi negli anni '80 e poi nei primi anni del 2010 compie il vero salto. Negli ultimi 10 anni l'IA ha già cambiato il mondo in cui viviamo.
È anche per questo che io tendo a sminuire i discorsi sui rischi esistenziali legati all'idea che le nuove forme di IA diventino coscienti, perché ho un po' l'impressione che ci sia una memoria corta. Tutti questi discorsi li abbiamo già affrontati tra il 2016 e il 2017, quando hanno iniziato a diffondersi forme di deep learning che davano prova di poter compiere in autonomia dei task sempre più impressionanti. Adesso invece ci sembra tutto normale. Vedere che un algoritmo è in grado di riconoscere delle immagini o che Spotify è bravissimo a consigliarci la musica da ascoltare non ci impressionava più, quindi avevamo smesso di fantasticare che da qui saremmo arrivati ai robot super intelligenti e a cominciare a occuparci dei veri rischi connessi a questo tipo di strumenti. Mi auguro che sia solo questione di tempo e che si possa tornare presto a parlare dei rischi seri legati all'intelligenza artificiale e non di questi scenari fantascientifici.

 

In diversi articoli hai parlato del rischio che una visione “catastrofista” dei potenziali pericoli dell'IA, chiamata “lungotermismo” possa in realtà nascondere i rischi reali. Puoi spiegarci cosa significa?

I rischi reali li conosciamo già molto bene perché li stiamo fronteggiando da parecchio tempo. Uno dei temi ai quali mi sono dedicato di più perché penso che sia davvero cruciale e che si è ripresentato nuovamente anche con gli strumenti di IA generativa che abbiamo citato, è quello dei cosiddetti pregiudizi algoritmici, dei bias. Sappiamo per esempio che chiedendo in inglese (quindi senza un’indicazione di genere) a DALL-E 2 di disegnare un “avvocato” escono solo immagini di uomini bianchi, mentre con “assistente” escono solo immagini di donne. Probabilmente accade anche con altri software, ma con DALL-E 2 lo sappiamo per certo perché è stato testato.
Questo non ha solo implicazioni teoriche. Prendiamo ad esempio un altro software basato sul deep learning, Google Translate, ovvero lo strumento di traduzione di Google, uno dei principali artefici dell'evoluzione dell'IA: ebbene se gli si chiede di tradurre dall'italiano all'inglese “si sta occupando delle pulizie di casa”, lui tradurrà la frase al femminile con il pronome “she”, mentre se gli si chiede di tradurre “ha scelto di lavorare nell'alta finanza”, declina automaticamente la frase al maschile. Questo accade nel 90% dei casi.
Si tratta di esempi se vogliamo accademici di quelli che però sono i potenziali rischi nel momento in cui questi strumenti, come già sappiamo essere più e più volte successo, attuano le stesse logiche discriminatorie in campi molti più importanti. Sappiamo per certo che uno strumento di selezione del personale di Amazon tendeva a penalizzare le donne per determinate posizioni lavorative solo in quanto donne. Il motivo è che questi strumenti funzionano in base ai dati, al database che hanno a disposizione. Se in quel database, essendo basato sull'esperienza del passato, l'80% dei curriculum presenti per indicare quali possono essere i migliori candidati per diventare un manager nell'alta finanza appartengono a uomini, il database imparerà a scartare le donne. Questo avviene anche per le minoranze etniche o per i disabili. Ha fatto scuola un caso in Polonia in cui i disabili venivano discriminati per l'accesso a determinate posizioni di lavoro.
Questi sono rischi presenti, che dobbiamo affrontare oggi e che dipendono tutti da chi programma questi strumenti, con quale attenzione, se c'è un board etico che è in grado di mettere a frutto l'esperienza per verificare che tutto funzioni bene, com'è costruito il database, come e se si possono controllare i risultati e via dicendo.
Un altro esempio è quello della disinformazione di massa. La foto di Papa Francesco col piumino è un campanello d'allarme che ci mostra quello che rischia di essere il nostro futuro, un futuro in cui distinguere ciò che è vero da ciò che è falso potrebbe diventare estremamente complicato.
Anche i deep fake non sono una novità, ma ciò che è cambiato è che fino a poco fa i deep fake a livello video o erano di pessima qualità o richiedevano grandi competenze, risorse economiche importanti e molto tempo, con un lavoro mirato su un solo video. Con gli attuali strumenti di intelligenza artificiale generativa potenzialmente accessibili a chiunque diventa molto facile produrre video di ogni tipo, così come ChatGPT può diventare uno strumento di creazione illimitata di contenuti fasulli cuciti su misura in base a qualsiasi esigenza, e DALL-E 2 o Midjourney possono trasformarsi in produttori massivi di foto inventate. Tutto questo inonderà la rete. Io mi auguro che le cose non vadano così, che si trovi una soluzione, ma si tratta di un altro rischio concreto. Poi ci sarebbe da parlare dell'impatto sul mondo del lavoro.
Insomma, di rischi veri, non fantascientifici, ce ne sono tanti. Non vedo perché passare il tempo a immaginare scenari alla Terminator.


In che modo le IA possono essere impiegate dai cybercriminali?

È chiaro che nel momento in cui ChatGPT è in grado di programmare e quindi di creare software o almeno assistere al loro sviluppo, diventa uno strumento che può essere usato per la creazione di software malevoli. Ma in verità il rischio legato a ChatGPT per quanto riguarda la cybersicurezza è soprattutto quello che possa essere impiegato per creare una moltitudine di e-mail di phishing e di social engeneering – che sappiamo essere ancora le porte di accesso più efficaci per gli hacker – di qualità molto superiore a quella a cui siamo abituati, diversificate in base a ogni singola categoria e personalità per aumentarne drasticamente l'efficacia.
Bisogna poi considerare un altro aspetto: l'IA fino ad oggi è stata impiegata principalmente a scopo di difesa. Oggi le società di cybersicurezza utilizzano gli strumenti di deep learning per identificare comportamenti anomali nel traffico o nelle attività presenti sul sito, portale o servizio online che vogliono proteggere. Queste IA hanno conoscenze estremamente dettagliate su ciò che è la norma, in termini ad esempio di comportamenti degli utenti, orari d'uso, transazioni finanziarie e via dicendo, e sono in grado di identificare gli scostamenti. Fino ad oggi le IA sono state grandi alleate della sicurezza, ma forse ora stiamo giungendo al passo successivo, in cui diventano un'arma utilizzabile proprio per rendere sempre più efficienti e di alta qualità i tentativi di phishing.
Altro aspetto interessante è che questi strumenti generativi possono essere utilizzati – e sappiamo che già accade – per riprodurre la voce di qualcuno e dunque mettere in atto delle truffe. Di recente è uscita la notizia di una truffa che prevedeva di chiamare qualcuno utilizzando una voce contraffatta fingendosi un parente finito in galera e domandando un immediato aiuto economico. Ci vuole pochissimo. Già oggi basta cercare online e si trovano strumenti di IA in grado di riprodurre la voce di una persona in maniera praticamente indistinguibile dal reale (soprattutto se udita al telefono) a partire dai messaggi vocali.

 

Visto tutto questo, cosa possiamo fare per difenderci?

In linea di massima credo che le possibilità siano due. In primo luogo è assolutamente fondamentale che si diffonda nella società civile una comprensione maggiore di come funzionano questi strumenti di IA. La migliore arma di difesa di fronte a uno scenario come quello che stiamo delineando è sapere con cosa si ha a che fare. Sapere come funziona, e di conseguenza anche quali possono essere gli elementi identificativi che ci saranno sempre, ma diventeranno sempre più sottili, diventa veramente l'unico modo per difendersi.
La seconda possibilità, ma per ora è una speranza, è che vengano sviluppati strumenti digitali che consentano di riconoscere se un video è un deep fake e via dicendo. Dei software che magari tutti avremo installato sui nostri dispositivi e che sono in grado di riconoscere se un video non è genuino. Non so se si può fare e di certo non saranno infallibili, ma mi auguro che vengano creati.
A latere, vorrei fare un'altra riflessione. Penso che per il mondo del giornalismo qui si apra una grande opportunità. Oggi che il giornalismo ha perso di qualità e credibilità, nella nebbia di confusione creata dall'invasione di contenuti fasulli il giornalista può tornare ad essere un punto di riferimento per le persone, per aiutarle a comprendere di quali contenuti fidarsi e di quali no. Negli ultimi anni il giornalismo spesso è stato complice o vittima della confusione, adesso si apre una possibilità per tornare invece a svolgere un ruolo molto più utile per la società.

Le autorità nazionali e internazionali stanno intervenendo per regolamentare queste tecnologie, ad esempio con l'AI Act dell'UE. Stanno facendo abbastanza?

Sì, secondo me le autorità si sono mosse in maniera adeguata. L'Unione Europea, nonostante le difficoltà iniziali ha messo a punto un testo che mi pare non sia male, affrontando anche temi molto critici, come sorveglianza e polizia predittiva. L'AI Act dovrebbe essere approvato definitivamente a metà giugno e lì vedremo il testo definitivo, ma mi sembra ci siano ottime premesse. L'UE, come ha già fatto in materia di protezione dei dati con il GDPR, si stia dimostrando l'istituzione che più di ogni altra vuole essere sul pezzo, difendere i cittadini da eventuali abusi e regolare queste nuove tecnologie, che devono essere regolamentate. Non si può pensare che così si “rallenta l'innovazione”. L'innovazione deve essere regolamentata, perché altrimenti fa del bene solo ai tecnomiliardari e ai cittadini fa solo danni. Non vedo quale sia il problema se la tecnologia procede con un po' più di calma.
Siamo in ritardo? Certo che sì, ma la politica ha tempi molto più lenti rispetto all'innovazione tecnologica. Infatti mentre l'AI Act sta giungendo a termine, il grado tecnologico dell'IA su cui si basa è già stato superato, ponendo tutta una serie di nuovi problemi. I legislatori europei sono stati obbligati a fermarsi e riconsiderare, ad esempio, la questione dell'IA generativa con tutte le sue problematiche, modificando tutta una serie di passaggi per regolamentare le questioni sollevate da ChatGPT e simili.
I tempi della riflessione e della deliberazione politica non sono quelli con cui agiscono le grandi società o le startup particolarmente aggressive come OpenAI, il cui CEO Sam Altman ha rilasciato ChatGPT al mondo intero senza una briciola di quella cautela di cui pure sono pieni i suoi comunicati stampa e le sue dichiarazioni. Penso che si possa sempre fare di meglio, ma che l'approccio dell'UE sia assolutamente necessario e mi auguro che quando il testo sia varato definitivamente possa rappresentare per l'IA quello che il GDPR ha rappresentato per la protezione dei dati, cioè un punto di riferimento assoluto per il resto del mondo.