Una telefonata che squilla, un silenzio prolungato dall’altra parte della cornetta e poi la linea che cade improvvisamente. Quello che appare come un semplice errore tecnico o una fastidiosa chiamata da un call center nasconde in realtà uno dei più sofisticati meccanismi di truffa degli ultimi anni. Le cosiddette chiamate mute rappresentano infatti la porta d’ingresso privilegiata per una nuova generazione di cybercriminali che sfruttano l’intelligenza artificiale per clonare le voci delle loro vittime, dando vita a un fenomeno criminale che sta registrando una crescita esponenziale in Italia e nel mondo.
Il meccanismo alla base di questa truffa è tanto semplice quanto pericoloso. Sistemi automatizzati chiamano migliaia di numeri ogni giorno e quando qualcuno risponde con un innocuo “Pronto?”, il dispositivo registra quei pochi secondi di voce. Secondo le ricerche condotte da McAfee nel 2023, bastano appena tre o quattro secondi di audio per permettere agli strumenti di intelligenza artificiale di creare un clone vocale convincente con una corrispondenza stimata dell‧85 percento. Con tecnologie più avanzate e un investimento minimo, i truffatori possono raggiungere una precisione del 95 percento, rendendo la voce clonata praticamente indistinguibile dall’originale.
La portata del fenomeno assume dimensioni allarmanti quando si esaminano i dati statistici. Uno studio globale condotto dalla stessa azienda di sicurezza informatica su settemila persone ha rivelato che una persona su quattro ha sperimentato direttamente o conosce qualcuno che è stato vittima di una truffa basata sulla clonazione vocale tramite intelligenza artificiale. Il 77 percento delle vittime di queste truffe ha subito perdite economiche, mentre la ricerca ha evidenziato che il 77 percento degli utenti non è in grado di distinguere una voce reale da una generata artificialmente. L’FBI ha registrato un incremento del 30 percento delle truffe telefoniche che coinvolgono intelligenza artificiale, mentre secondo i dati di CrowdStrike l’utilizzo della clonazione vocale basata su intelligenza artificiale è aumentato del 442 percento tra la prima e la seconda metà del 2024.
In Italia la situazione appare particolarmente preoccupante. Secondo Federconsumatori Toscana, si è registrato un aumento del 40 percento dei casi di truffe basate sulla clonazione vocale rispetto all’anno precedente, con danni medi per vittima superiori ai settemila euro. Solo nei primi otto mesi del 2025, nell’area fiorentina sono stati registrati 936 reclami, di cui il 10 percento legati a truffe con uso di intelligenza artificiale, un dato che rappresenta un’esplosione rispetto ai soli due casi dello stesso periodo del 2024. A livello nazionale, il fenomeno ha visto un incremento del 456 percento delle segnalazioni di frodi digitali tra maggio 2024 e aprile 2025, secondo quanto riportato dalla Polizia Postale. Nel triennio 2022-2024, il denaro sottratto attraverso truffe online e frodi informatiche ha raggiunto complessivamente 559,4 milioni di euro, con un aumento del 30 percento solo negli ultimi dodici mesi.
La tecnologia che permette questa forma di crimine è diventata sorprendentemente accessibile. Su internet proliferano decine di siti web che offrono servizi di clonazione vocale, sia gratuiti che a pagamento, con interfacce semplificate che non richiedono particolari competenze tecniche. Strumenti come Speechify Voice Cloning utilizzano algoritmi avanzati di deep learning per creare cloni vocali dal suono naturale partendo da campioni audio di soli trenta secondi. Piattaforme come Resemble.ai permettono di creare voci personalizzate per assistenti virtuali, mentre Veed.io consente di registrare una voce, digitare un testo e generare una voce fuori campo che replica fedelmente il profilo vocale dell’utente. Vidnoz AI Voice Changer contiene oltre cento voci preimpostate e supporta più di centoquaranta lingue, permettendo di clonare voci di personaggi famosi o di utilizzare la propria voce per creare contenuti multilingue.
Una volta ottenuto il campione vocale attraverso le chiamate mute, i criminali passano alla seconda fase della truffa. Il clone viene utilizzato per contattare familiari, amici o colleghi della vittima, simulando situazioni di emergenza che richiedono interventi economici immediati. Le chiamate arrivano spesso in orari notturni o durante il fine settimana, momenti in cui le persone sono più vulnerabili emotivamente e meno propense a verificare l’autenticità della richiesta. I truffatori sfruttano la paura e il senso di urgenza, raccontando di incidenti automobilistici, arresti improvvisi o problemi medici che richiedono bonifici immediati o l’invio di codici di accesso bancari.
La tecnica si è dimostrata efficace anche contro bersagli di alto profilo. Nel febbraio 2025, la voce del ministro della Difesa Guido Crosetto è stata clonata per contattare importanti imprenditori italiani come Moratti, Della Valle e Tronchetti Provera. I truffatori, spacciandosi per funzionari del ministero, hanno richiesto bonifici su un conto a Hong Kong con la scusa di liberare giornalisti italiani presi in ostaggio in Medio Oriente. La voce clonata del ministro è stata utilizzata per convincere le potenziali vittime dell’autenticità della richiesta, dimostrando come anche persone esperte e avvezze a trattare affari di alto livello possano cadere in queste trappole sempre più sofisticate.
Il fenomeno rientra nella categoria dello spear phishing, una forma di truffa mirata che colpisce individui specifici utilizzando informazioni personali raccolte online. I criminali analizzano profili social, post pubblici, foto e tag per rendere le loro richieste più credibili, citando ad esempio un viaggio recente o il nome di un familiare reale. I social media rappresentano un terreno particolarmente fertile per i truffatori, poiché gli utenti condividono liberamente contenuti personali senza rendersi conto che un semplice video o un messaggio vocale pubblicato online può essere utilizzato per scopi fraudolenti. Secondo Starling Bank, il 28 percento delle persone intervistate è stato vittima o bersaglio di questo tipo di truffa almeno una volta nell’ultimo anno, mentre il 46 percento degli intervistati non era nemmeno a conoscenza dell’esistenza di questa forma di frode.
Le chiamate mute servono anche a verificare quali numeri sono attivi e a quali orari è più probabile trovare qualcuno a rispondere. I dati raccolti vengono poi inseriti in database che circolano tra diverse reti criminali. Alcuni gruppi useranno i numeri per ulteriori tentativi di phishing, altri per vendere le informazioni a sistemi di robocalling o a chi intende creare cloni vocali. La registrazione della voce può avvenire anche attraverso un semplice colpo di tosse o un rumore di sottofondo, sufficiente per far capire che quel numero è attivo e appartiene a una persona reale.
Gli esperti di sicurezza informatica hanno individuato diverse caratteristiche che permettono di riconoscere queste truffe. Le chiamate arrivano spesso da numeri sconosciuti o mascherati, a volte con prefissi esteri come Grecia o Romania. Quando si risponde, dall’altra parte c’è silenzio o la chiamata si interrompe immediatamente. In alcuni casi vengono utilizzate tecniche di spoofing, che permettono ai truffatori di far apparire sul display numeri italiani, spesso simili a quelli delle vittime o associati a enti noti come banche e servizi pubblici. Laura Grandi, presidente di Federconsumatori Toscana, ha messo in guardia sul fatto che con l’intelligenza artificiale i truffatori possono far pronunciare alla vittima frasi mai dette, rendendo validi contratti o autorizzazioni senza un reale consenso. La parola più pericolosa da pronunciare durante una chiamata sospetta è proprio il semplice “sì”, che può essere registrato e utilizzato per creare un falso consenso.
Le ricerche condotte dai laboratori di McAfee hanno evidenziato che i sistemi di intelligenza artificiale riescono a replicare con facilità accenti provenienti da tutto il mondo, che si tratti di Stati Uniti, Regno Unito, India o Australia. Tuttavia, le voci più distintive risultano più difficili da copiare, come quelle di persone che parlano con un ritmo, un passo o uno stile insolito. Tali voci richiedono più sforzi per essere clonate accuratamente e le persone che le possiedono sono meno propense a diventare vittime, almeno allo stato attuale della tecnologia. I ricercatori hanno anche scoperto che negli strumenti di conversione da testo a voce, alcuni sistemi faticano a leggere acronimi o a fare pause tra le frasi o a rappresentare l’emozione accurata di una frase. Al contrario, alcuni strumenti risultano molto naturali, fanno brevi pause tra frasi lunghe per prendere fiato o aggiungono esitazioni per rendere il tutto più naturale.
Difendersi da queste truffe richiede l’adozione di una serie di misure preventive. Il consiglio principale degli esperti di sicurezza informatica è di non rispondere a chiamate provenienti da numeri sconosciuti o non registrati in rubrica. Se la chiamata è importante, chi cerca di contattare lascerà un messaggio o troverà un altro modo per comunicare. Nel caso si decida comunque di rispondere, è fondamentale restare in silenzio e lasciare che sia l’interlocutore a parlare per primo. Se dall’altra parte non si riceve alcuna risposta, bisogna terminare immediatamente la chiamata, bloccare il numero e segnalarlo come sospetto per ridurre il rischio di ulteriori contatti indesiderati o tentativi di frode.
Gli esperti Matthew Wright e Christopher Schwartz dell’Università di Rochester suggeriscono di prestare particolare attenzione anche alle telefonate inattese provenienti da persone note. Un semplice messaggio o una email inviati in anticipo per concordare la chiamata possono essere utili a verificare l’identità dell’interlocutore. Non è sufficiente fidarsi dell’identificativo del chiamante, perché le tecnologie di clonazione e falsificazione vocale possono contraffarlo con facilità. Se si riceve una chiamata da un parente o un amico che chiede soldi in modo urgente, anche se sembra la sua voce, è necessario riagganciare e richiamare direttamente il contatto per verificare. I deepfake audio sono sempre più realistici e difficili da rilevare, anche per le persone addestrate, quindi non bisogna fidarsi ciecamente della voce.
Un’altra strategia di difesa consiste nello stabilire con i propri cari una parola segreta o un codice da usare in caso di emergenze reali. Questo sistema permette di verificare immediatamente l’identità della persona al telefono senza dover effettuare ulteriori controlli. Durante una chiamata sospetta, è utile fare domande specifiche che solo la persona reale potrebbe conoscere, come dettagli su eventi familiari recenti o informazioni personali che non sono disponibili pubblicamente. Se la voce sembra sospetta o si percepisce qualcosa di strano, è fondamentale interrompere immediatamente la chiamata e non fornire mai dati personali o bancari al telefono, nemmeno con voci che sembrano familiari.
La protezione dei dati personali rappresenta un altro aspetto cruciale della difesa. È necessario limitare la condivisione di messaggi vocali e video in cui si parla con voce chiara, soprattutto sui social network se si hanno profili pubblici o non si conoscono personalmente i contatti che seguono. Impostare i profili in modalità privata può fare una grande differenza nel ridurre il rischio di furto di campioni vocali. Meno contenuti vocali si pubblicano online, minori sono le possibilità che vengano clonati dai criminali. È importante evitare di pubblicare video o registrazioni audio che contengano la propria voce su piattaforme accessibili pubblicamente.
Gli smartphone moderni offrono funzionalità utili per contrastare questo fenomeno. È possibile attivare il blocco automatico delle chiamate sconosciute attraverso le impostazioni del telefono, riducendo drasticamente il numero di chiamate indesiderate che raggiungono l’utente. Molti operatori telefonici hanno inoltre implementato sistemi di filtro che identificano e bloccano automaticamente le chiamate sospette. Dal 19 agosto 2025, in Italia è entrato in vigore un provvedimento dell’Autorità per le Garanzie nelle Comunicazioni che dispone un blocco automatico delle chiamate falsificate con numeri fissi italiani, con un’estensione prevista anche per le chiamate verso i cellulari a partire dal 19 novembre 2025.
Se si sospetta di essere stati vittima di una truffa o si riceve una chiamata muta sospetta, è fondamentale segnalare l’episodio alle autorità competenti. La Polizia Postale ha attivato un sistema di segnalazioni online sul sito del Commissariato di PS Online, anche se queste segnalazioni non costituiscono vere e proprie denunce o querele. Per presentare una denuncia formale è necessario recarsi personalmente presso un ufficio territoriale della Polizia Postale. In caso di emergenza o se si rende conto che è in atto un tentativo di truffa, è possibile chiamare il numero unico di emergenza 112 o il 113. Il Garante per la Privacy ha inoltre messo a disposizione un modulo online per segnalare chiamate indesiderate e numeri sospetti.
Dal punto di vista legale, la clonazione vocale per scopi fraudolenti configura reati gravi nell’ordinamento italiano. La sostituzione di persona, sancita dall’articolo 494 del codice penale, si verifica quando qualcuno si fa passare per un’altra persona con l’intento di ingannare terzi, creando danni economici, morali o legali. La pena varia da uno a cinque anni di reclusione, ma se il reato è aggravato dalla complessità dell’inganno, come nel caso dell’uso di intelligenza artificiale per clonare una voce, le sanzioni possono essere aumentate. Sono applicabili anche i reati di truffa secondo l’articolo 640 del codice penale e le interferenze illecite nella vita privata secondo l’articolo 615-bis, applicabile se la clonazione vocale comporta la captazione o diffusione non autorizzata di dati personali.
Le istituzioni stanno cercando di adeguare le normative alle sfide poste dalle tecnologie emergenti. Negli Stati Uniti, la Federal Communications Commission ha dichiarato nel febbraio 2024 che le chiamate automatizzate generate da intelligenza artificiale sono illegali, per prevenire l’uso nefasto della clonazione vocale. Questa misura consente di applicare multe alle compagnie coinvolte e di bloccare queste chiamate, ma resta fondamentale che i cittadini siano consapevoli del fenomeno. In Italia, la Polizia Postale ha intensificato le attività di contrasto alle truffe digitali, con particolare attenzione ai finti call center, alle voci clonate e ai video manipolati con volti noti. Secondo un sondaggio Ipsos, il 61 percento degli italiani teme che l’intelligenza artificiale venga usata per truffarli, una preoccupazione pienamente giustificata dai dati sulle denunce in costante aumento.
Angelo Parente, direttore tecnico del Centro operativo sicurezza cibernetica della Polizia Postale Lombardia, ha sottolineato che i truffatori utilizzeranno sempre di più l’intelligenza artificiale per creare situazioni credibili ma false, portando le persone ad avere dubbi su cosa sia reale e cosa no. Man mano che la tecnologia avanza, si riuscirà ad avere risultati sempre più fedeli al timbro reale. L’obiettivo dei truffatori è far cadere sempre più persone nella loro trappola, intascando sempre più denaro. Le persone più vulnerabili restano gli anziani, che spesso vivono da soli, hanno meno strumenti per verificare la veridicità delle informazioni ricevute e sono abituati a fidarsi del prossimo. I truffatori ne approfittano con tecniche di manipolazione psicologica studiate nei minimi dettagli.
Il fenomeno delle chiamate mute e della clonazione vocale rappresenta solo la punta dell’iceberg delle minacce legate all’intelligenza artificiale nel campo della sicurezza informatica. I casi di frode basati su deepfake hanno registrato un balzo del 3000 percento solo nel 2024, spinti dalla generale accessibilità di potenti strumenti di intelligenza artificiale che attingono al vasto oceano dei dati personali online. I truffatori non hanno più bisogno di risorse degne di un film hollywoodiano, ma è sufficiente un software di facile reperibilità che clona una voce da un breve clip sui social media o crea un video convincente ma falso a partire da foto di dominio pubblico.
La consapevolezza del problema rappresenta il primo passo fondamentale per la difesa. Conoscere l’esistenza della clonazione vocale e trattare con cautela qualsiasi clip audio sospetta, soprattutto se il contenuto è scioccante o crea un senso di urgenza, può fare la differenza tra cadere nella trappola e proteggersi efficacemente. I truffatori fanno leva sull’emotività delle vittime, quindi è essenziale prendersi un momento per riflettere prima di agire quando una voce chiede denaro urgente. La verifica attraverso canali noti o il contatto con un parente fidato prima di prendere decisioni finanziarie importanti deve diventare una prassi consolidata.
Le aziende e le istituzioni finanziarie stanno investendo in tecnologie evolute per contrastare questo fenomeno. Sistemi di analisi comportamentale permettono di rilevare accessi insoliti, azioni fuori orario o download sospetti. Soluzioni di sicurezza basate su intelligenza artificiale analizzano contenuti, link e allegati sospetti, bloccando i messaggi prima che raggiungano l’utente. I protocolli SPF, DKIM e DMARC vengono configurati per evitare che attori malevoli possano fingere di essere mittenti legittimi. Le videoconferenze vengono protette con password, disattivazione del controllo remoto e limitazione dell’accesso solo agli utenti verificati.
La formazione rappresenta un elemento cruciale nella difesa contro queste truffe. I programmi di sensibilizzazione devono essere aggiornati includendo i nuovi rischi legati ai deepfake vocali, ai video falsi e ai messaggi personalizzati generati da intelligenza artificiale. Le simulazioni periodiche, come i phishing drill e i test interattivi, allenano le persone a riconoscere e segnalare tentativi sospetti. È fondamentale creare un ambiente in cui i dipendenti e i cittadini possano segnalare email anomale o comportamenti sospetti senza timore, favorendo la segnalazione immediata di qualsiasi attività che appaia fuori dall’ordinario.
Anche gli enti di verifica stanno sviluppando strumenti per identificare i contenuti generati artificialmente. Esistono piattaforme specializzate nel riconoscimento di deepfake e voice cloning mediante intelligenza artificiale, che attraverso perizie foniche possono verificare se una registrazione è stata creata tramite intelligenza artificiale, clonazione vocale o sistemi automatici. Queste analisi avvengono tramite diverse metodologie e strumenti, tra cui l’analisi della continuità del background noise, la verifica della presenza di tagli, il rilevamento di punti di discontinuità senza zero crossing nelle onde sonore, finalizzate a validare l’integrità di file audio o la presenza di eventuali tracce di manipolazione.
La battaglia contro le truffe basate sulla clonazione vocale richiede un approccio multilivello che coinvolge tecnologia, normativa, formazione e consapevolezza individuale. Mentre le autorità lavorano per aggiornare i quadri normativi e le aziende tecnologiche sviluppano sistemi di difesa sempre più sofisticati, la prima linea di difesa resta la vigilanza personale. Un silenzio sospetto al telefono non è più solo un fastidio da ignorare, ma un potenziale segnale di allarme che richiede attenzione e cautela. La voce, che per secoli è stata considerata uno degli elementi più sicuri per identificare una persona, può oggi trasformarsi in un’arma nelle mani dei criminali. La consapevolezza di questa realtà e l’adozione di comportamenti prudenti rappresentano gli strumenti più efficaci per proteggere se stessi e i propri cari da questa minaccia in costante evoluzione. Per restare sempre aggiornato scarica GRATIS la nostra App!
