Una nuova minaccia si profila all’orizzonte della rete, stavolta la truffa si muove tramite la tecnologia dei cosiddetti ‘deepfake’.
Il progressivo aumento dei video deepfake appare strettamente connesso all’intelligenza artificiale; man mano che la tecnologia migliora e supera quanto era stato previsto, diventa sempre più facile fare video falsi, capaci di illudere lo spettatore. La nuova frontiera della truffa si avvantaggia dell’intelligenza artificiale, la utilizza a trecentosessanta per colpire i più vulnerabili.
In questo contesto l’allarme non giunge né dai catastrofisti, né dai geek, ma dalla Banca d’Italia stessa che ha diffidato dal credere ai videomessaggi che circolano sulla Rete. Molti truffatori li usano infatti per ingannare bambini, anziani e persone meno tecnologicamente alfabetizzate. I deepfake vengono utilizzati onde creare truffe 2.0.
Molti di questi video si spacciano – ed è il caso più estremo – per la Banca d’Italia stessa, ma nessuno di questi è autentico. Occorre sottolineare come simili azioni siano vietate – fare video deepfake di altre persone senza consenso è un atto criminale, perseguibile dalla legge non solo italiana, ma europea.
Che cosa consiglia la Banca d’Italia? Naturalmente di esercitare un sano scetticismo nei confronti del messaggio in questione, di non cliccare su eventuali link, allegati e via dicendo e infine di non condividerlo, onde spezzare queste catene di Sant’Antonio di condivisioni. La diffusione di queste truffe via Social è infatti molto pericolosa.
In questo contesto la Banca d’Italia ha ricordato che, se ha comunicazioni ufficiali da compiere, le fa sempre e solo attraverso gli strumenti (e i Social) ufficiali. L’app, innanzitutto; le mail certificate; e i canali Social ufficiali. I video deepfake stanno diventando un problema sempre più grave; vengono applicati ai politici onde far diffondere informazioni false, ma stanno circolando anche tra le persone comuni, sempre col fine di estorcere dati personali e/o denaro.
Proprio di recente il Presidente del Consiglio ne era stata vittima; Giorgia Meloni infatti era stata replicata tramite un video deepfake con una versione pornografica. Il padre e il figlio autori di questa ‘trovata’ sono allo stato odierno a processo, con una richiesta di risarcimento della Presidente pari a 100mila euro.
Negli Stati Uniti, onde cercare di controllare il fenomeno, i video del presidente Joe Biden vengono sottoposti a un sistema di verifica crittografica che ne certifica l’autenticità. Anche la cantante Taylor Swift ne era stata vittima, con una ricaduta negativa in questo caso su X, un tempo noto Twitter. L’ennesimo problema per l’infelice Social di Elon Musk.
Vi imbattete spesso in File Dat e non sapete cosa sono: scopriamoli e capiamo come…
Se vuoi eliminare un contatto bloccato su WhatsApp, sappi che è estremamente facile. Scopriamo come…
Collegare il tablet alla Tv in casa è davvero molto semplice: bastano pochi passaggi ed…
Il Play Store occupa un ruolo importantissimo, ma a volte non si apre. Scopriamo come…
Scopriamo insieme il mondo delle estensioni di Google Chrome ed in che modo installarle sugli…
Honor ci ha abituati a dei modelli molto, ma molto potenti, ma quello migliore da…