Hai già scaricato la mia app?

Attenti alle robocall: i truffatori falsificano le voci di celebrità, parenti e politici per truffarci

Le truffe con le voci contraffatte con l’intelligenza artificiale usate per telefonate automatiche sono un problema sempre più grave. In America stanno correndo ai ripari, ora dobbiamo farlo anche da noi.

L’intelligenza artificiale può essere usata anche per le “robocall” che ci arrivano dai call center in modo automatico. Ma negli ultimi tempi ci sono sempre più casi di truffe con questo tipo di chiamate: i criminali falsificano le voci di personaggi famosi, di politici e persino dei nostri familiari in modo credibile.

Lo scopo è rubarci denaro, dati personali o diffondere fake news. Negli Stati Uniti hanno detto basta a questo tipo di chiamate e la Federal Communications Commission, l’agenzia del governo che regola le comunicazioni, ha deciso che le voci generate dall’intelligenza artificiale nelle chiamate automatizzate sono illegali; questa è un’arma in più per proteggere le persone, in quanto è illegale l’atto stesso di utilizzare l’intelligenza artificiale per generare voci per le chiamate.

Per ora la regolamentazione specifica vale solo negli USA, ma ogni stato deve averne una e i paesi del mondo devono al più presto mettersi d’accordo sulle stesse regole da adottare per proteggere i cittadini a livello globale e in modo più possibile univoco. È importante, perché le chiamate automatizzate con l’AI possono diventare molto pericolose. Chi è più vulnerabile rischia di essere ingannato più facilmente da un finto parente che lo contatta dicendo di avere bisogno di denaro, ad esempio. Ma pensiamo anche alla pericolosità delle robocall per la politica: ci può arrivare la telefonata di qualcuno che si spaccia per un politico raccontando falsità per disinformare o per manipolarci.

L’Europa è al lavoro per dare regole generali sull’utilizzo dell’intelligenza artificiale e cercare di tutelare i cittadini. Sta lavorando l’AI Act, che è il primo testo al mondo che si propone di regolamentare l’uso dell’intelligenza artificiale. Ma ci vorrà tempo affinché le leggi entrino in vigore nel nostro Paese.

Intanto dobbiamo trovare subito modi concreti per proteggerci. Per esempio, bisognerebbe sempre usare i watermark, cioè dei segni particolari, per far capire chiaramente alle persone quali contenuti sono stati creati dall’AI. È altrettanto importante che tutti noi facciamo attenzione specialmente quando ci chiedono soldi, dati personali o informazioni. Blocchiamo subito le telefonate inattese e da sconosciuti che ci sembrano sospette e non diamola vinta a chi sfrutta le tecnologie per farci del male.

Condividi su: