Vai al sito Mister Credit

IL BLOG DI
MISTER CREDIT

Intelligenza Artificiale e Sicurezza: il caso di ChatGPT


Le intelligenze artificiali rappresentano una minaccia per la sicurezza? E in che modo? Abbiamo affrontato la relazione tra intelligenza artificiale e sicurezza in questo articolo.

Vediamo quali conclusioni possiamo trarre a partire dal caso dell'IA più discussa del momento: ChatGPT. Ma prima, parliamo un po' delle intelligenze artificiali generative, ovvero la tipologia di IA di cui ChatGPT fa parte.

Intelligenza artificiale e sicurezza: le intelligenze artificiali generative

Prima di parlare dei rischi per la sicurezza legati alle intelligenze artificiali e in particolare a ChatGPT, dobbiamo chiarire cosa sono le intelligenze artificiali generative.

Queste ultime sono software che, partendo da un database, sono capaci di comprendere degli ordini ed eseguirli generando un risultato. Proprio come ChatGPT, a partire da un database di testi, è in grado a sua volta di scrivere una lettera formale, un discorso o un articolo su un qualunque tema. Funzionano allo stesso modo le IA che elaborano immagini, musica e persino video.

Rispetto al passato, oggi queste IA riescono ad ottenere risultati molto più realistici e per questo spesso, soprattutto per quanto riguarda i testi, indistinguibili da quelli elaborati da un essere umano.

 

ChatGPT è pericoloso?

Il possibile impiego criminoso di ChatGPT non balza subito agli occhi, eppure è segnalato da moltissimi esperti. Esistono fondamentalmente due possibili rischi per la nostra sicurezza legati a ChatGPT.

 

Creazione di contenuti di phishing sempre più realistici e personalizzati

Anche se il phishing è già oggi uno strumento efficacissimo in mano ai cybercriminali (e infatti il flusso di dati personali rubati che finiscono nel Dark web non accenna a diminuire), la maggior parte degli attacchi sono piuttosto rozzi.
Parliamo delle tipiche e-mail che tutti riceviamo, che parlano di false consegne da parte di corrieri inesistenti, presunti premi che abbiamo vinto, offerte troppo belle per essere vere e via dicendo. Di solito contengono molti errori grammaticali e sono di qualità scarsa, cosa che le rende abbastanza facilmente riconoscibili come truffaldine.
Ebbene, grazie a ChatGPT può essere possibile creare enormi quantità di contenuti di phishing che appaiono assai più autentici e personalizzati, privi di errori grammaticali e di tutti quei segnali qualitativi che possono metterci in allarme.


Creazione di software malevoli

Un altro ambito di applicazione di ChatGPT è la scrittura di codice. Questo può consentire anche ai cybercriminali meno esperti di creare software malevoli rapidamente e in quantità, da usare per gli scopi criminosi più diversi.


Come proteggerci dai rischi di ChatGPT

Vediamo ora qualche consiglio per minimizzare i rischi per la cybersicurezza legati a ChatGPT:

  • Non comunicare mai i tuoi dati personali via e-mail, SMS o messaggistica, se non all'interno di canali ufficiali che già conosci (come la tua app di home banking).
  • Impara a riconoscere i tentativi di phishing giocando al nostro Cyberninja.
  • Mantieni aggiornati i tuoi dispositivi e software antivirus perché siano sempre in grado di identificare le ultime minacce.
  • Proteggi la tua identità e monitora la sicurezza dei tuoi dati online con SICURNET.