IL BLOG DI
MISTER CREDIT
Tempo di lettura stimato: 3 minuti
Come sa chi ci segue da tempo, i deepfake sono un fenomeno complesso, in grado di sfruttare le ultime tecnologie, e in particolare l'intelligenza artificiale, con cui è possibile generare immagini, video e audio completamente fasulli, che riescono però a imitare in modo molto credibile le sembianze o persino la voce di una persona.
Inutile dire che i deepfake sono uno strumento molto potente in mano ai cybercriminali, che possono usarli per gli scopi più diversi, da manipolare l'opinione pubblica con video e immagini che hanno come protagonisti dei personaggi importanti, a effettuare truffe allo scopo di estorcere denaro.
Ebbene, oggi vogliamo affrontare un tema particolare, quello dei deepfake vocali e delle AI voice scam.
La definizione l'abbiamo già data poco sopra: un deepfake vocale è un audio fasullo creato con l'intelligenza artificiale, in cui viene imitata la voce di una persona a uno scopo malevolo, ad esempio estorcere denaro o manipolare le persone.
Spesso questa tipologia di AI voice scam (truffa vocale) viene impiegata per effettuare truffe mirate, ad esempio, per convincere i manager di un'azienda a trasferire una grossa somma di denaro imitando la voce del CEO. Come è in effetti accaduto nel 2019, quando un dipendente di un'azienda britannica ha ricevuto una telefonata dal suo (presunto) capo che gli ordinava di inviare su un determinato conto in banca ben 250.000 dollari. Naturalmente, una volta effettuato il bonifico, è emerso che la telefonata era falsa e la voce del capo era stata ricreata con l'intelligenza artificiale.
Facciamo subito una precisazione: a differenza delle classiche tecniche di phishing ad esempio via e-mail, dove possono essere presi di mira milioni di bersagli in un giorno solo, la realizzazione di un deepfake audio richiede un tempo di “studio” e la presenza di materiali audio di partenza che ne impediscono l'applicazione su larghissima scala.
Per comprendere meglio questo punto, vediamo come viene realizzato un deepfake che riguarda la voce:
Come si può vedere, si tratta di un tipo di truffa che utilizza sì la tecnologia, ma che usa come grimaldello nient'altro che la fiducia dell'essere umano.
Anche se i deepfake vocali possono avere come bersaglio chiunque, dato che richiedono un certo “lavoro” da parte dei cybercriminali tendono a prendere di mira le aziende o persone che hanno accesso a somme significative di denaro. I consigli che forniremo, quindi, partono da questo presupposto. Ora vediamo tre regole da seguire:
Proteggi i tuoi dati personali con SICURNET, il servizio di Mister Credit che ti avvisa se le tue informazioni sono finite nelle mani sbagliate (anche nel Dark Web) e ti assiste per risolvere il problema!
Cerca
Fai la tua ricerca sul sito