IL BLOG DI
MISTER CREDIT
L’intelligenza artificiale al servizio dei cybercriminali raggiunge un nuovo livello con la diffusione dei deep fake o video falsi. Un fenomeno in crescita che rappresenta una vera e propria minaccia informatica.
Qualche tempo fa, un video di Tom Cruise che giocava a golf era diventato virale, prima su TikTok poi ovunque in rete. Pur sembrando vero, il video è un falso, realizzato grazie all’intelligenza artificiale. Questo tipo di manipolazione prende il nome di “deepfake”, riguarda anche immagini e audio e la sua diffusione preoccupa gli esperti di cybersecurity, sia a livello governativo che in ambito aziendale.
Il fenomeno sta iniziando ad attirare l’attenzione dei media generalisti, anche grazie ad altri deepfake, come il finto discorso di Natale 2020 della regina Elisabetta, creato negli studi di Channel 4 per mettere in guardia contro i rischi di queste manipolazioni.
Ormai siamo abituati a diffidare di email con link o allegati strani e di messaggi che ci arrivano da sconosciuti, ma cosa succede se la voce di una persona o la sua immagine in video possono essere falsificate alla perfezione? La naturale fiducia che siamo portati a dare quando riconosciamo una voce o un volto che ci sono familiari potrebbe trarci in inganno. Come nel caso del dipendente di un’azienda energetica britannica che, in seguito alla telefonata del CEO (una persona dall’inconfondibile accento tedesco), ha trasferito 250.000 sterline su un conto che sarebbe dovuto appartenere a un fornitore dell’azienda stessa. Ma la voce del CEO al telefono era stata falsificata e il conto, ovviamente, apparteneva ai truffatori.
Questa storia, raccontata da Nina Schick nel suo libro Deepfakes, sottolinea come il rischio più grande sia in ambito aziendale, con la compromissione delle comunicazioni con fornitori e clienti, oppure con la compromissione dell’identità dei dipendenti stessi, come racconta Carola Frediani, esperta di cybersicurezza, che riferisce anche di un’allerta dell’FBI in materia di deepfake: i pericoli possono arrivare anche da agenzie di intelligence di altri paesi.
Al momento ci sono alcuni elementi (come difetti o deformazioni poco visibili nelle immagini e nei video) che possono aiutarci a identificare un falso, ma con il perfezionamento delle tecnologie, anche i falsi rischiano di diventare sempre più credibili.
È quindi necessario aumentare la nostra consapevolezza: dobbiamo infatti considerare che un video, un audio o un’immagine non sono più un elemento sufficiente a stabilire la veridicità di una identità. Cercare altri riscontri in un controllo incrociato dovrebbe diventare la norma. Continuiamo inoltre a proteggere i nostri profili e ciò che contengono, diffidando di richieste di informazioni personali.
Per una maggiore sicurezza, possiamo usare servizi come Sicurnet, che controlla la circolazione dei nostri dati personali e finanziari sul web oppure Identikit, che ci avvisa ogni volta che una linea di credito viene aperta a nostro nome.
Cerca
Fai la tua ricerca sul sito