Con una videoconferenza, un’impiegata di una multinazionale è stata convinta a trasferire l’equivalente di 23 milioni di Euro sui conti bancari dei truffatori, clonando volti e voci dei suoi superiori con la tecnica del deepfake.
Spesso vi ho detto come i deepfake vengano usati per estorcere denaro a dipendenti che credono di parlare con i propri superiori. Come avevo previsto, ecco uno dei primi casi gravi: a Hong Kong, un’impiegata di una multinazionale è stata ingannata da truffatori che hanno sfruttato l’intelligenza artificiale e la tecnologia deepfake, assumendo le sembianze dei suoi datori di lavoro in tempo reale, durante una videocall, convincendola a trasferire 200 milioni di Dollari hongkonghesi (23 milioni di Euro) proprio sui conti bancari dei truffatori.
Un caso importante, che ci fa capire quanti pericoli possano nascondersi nell’uso scorretto e malevolo dell’intelligenza artificiale e della tecnica del deepfake in qualsiasi contesto. In questo caso, la trappola è scattata durante il lavoro, ma sono tantissimi gli ambiti e i metodi in cui può essere sfruttata per fare del male alle persone, per rubare o estorcere denaro o danneggiare cittadini e aziende.
È sempre più urgente e necessario che le regolamentazioni sull’intelligenza artificiale, che stanno arrivando, siano a livello globale e che ci siano accordi tra i diversi stati. Ma ancora più urgente trovare delle soluzioni pratiche da applicare, come ad esempio watermark, a tutela delle persone e della riconoscibilità di contenuti generati con l’AI.
Così come ognuno di noi deve dubitare e accendere il cervello, soprattutto quando ci vengono fatte richieste di denaro, dati personali e informazioni su di noi e sulle aziende in cui lavoriamo.