Archivio
- Novembre 2024 (39)
- Agosto 2024 (1)
- Dicembre 2023 (73)
- Novembre 2023 (1333)
- Ottobre 2023 (1631)
- Settembre 2023 (1468)
- Agosto 2023 (1417)
- Luglio 2023 (1389)
- Giugno 2023 (441)
- Maggio 2020 (30)
- Marzo 2020 (94)
- Febbraio 2020 (1)
- Gennaio 2018 (10)
Clonare la voce con l’IA per estorsioni e truffe: la nuova frontiera del cybercrime
I criminali informatici stanno utilizzando le nuove tecnologie, come l’intelligenza artificiale e il machine learning, per compiere reati quali truffe ed estorsioni. L’allarme arriva dagli esperti dell’azienda di sicurezza Trend Micro che parlano di ascesa del cosiddetto «rapimento virtuale». Secondo quanto riportato dall’Ansa, si tratta di un nuovo tipo di crimine che sfrutta le potenzialità delle tecnologie più avanzate per clonare la voce delle persone.
We talk about how cybercriminals are discussing and using #ChatGPT in the cybercriminal underground in our new report.
Read about our observations here: https://t.co/dP5xVSbyxI
— Trend Micro (@TrendMicro) September 1, 2023
Il caso della donna in Arizona
Un esempio citato dall’agenzia, è quello del caso successo ad aprile in Arizona, dove una donna ha ricevuto una chiamata nella quale un anonimo diceva di aver rapito la figlia. Grazie a strumenti di IA, il criminale era riuscito a replicare la voce e il pianto della bambina da far ascoltare alla madre. Prima del pagamento richiesto però, la vittima ha potuto verificare che sua figlia fosse al sicuro e che non fosse stata rapita. La polizia ha poi identificato la telefonata come una comune truffa. La Federal Trade Commission degli Stati Uniti ha stimato che nel 2022 le perdite derivanti da queste attività illecite hanno raggiunto i 2,6 miliardi di dollari.
Lo schema dei criminali informatici
Sempre secondo Trend Micro, lo schema messo in atto dai criminali informativi è questo: raccogliere informazioni dai social riguardo alle vittime e ai loro cari, incluse foto e filmati; replicare con strumenti tecnologici la voce delle persone e riprodurla in maniera più accurata possibile. Questo processo, definito «clonazione vocale» si attua quando la biometria vocale è utilizzata per compiere estorsioni o frodi. Inoltre, attraverso l’utilizzo di un chatbot, un cybercriminale può fondere grandi set di dati di potenziali vittime con altri elementi come la geolocalizzazione.