• BitMAT
  • BitMATv
  • Top Trade
  • Linea EDP
  • Itis Magazine
  • Industry 5.0
  • Sanità Digitale
  • ReStart in Green
  • Speciale Data Center
  • Contattaci
Close Menu
    Facebook X (Twitter) Vimeo Instagram LinkedIn RSS
    Trending
    • Cybersecurity: serve il Super-analista
    • Deepfake al telefono: come individuarli e non caderne vittima?
    • Clusit, cyber attacchi + 49% nel 2025 rispetto al 2024
    • Attacchi alla supply chain: la minaccia informatica più comune per le aziende nell’ultimo anno
    • Cyberdifesa: la sovranità è ben più che un requisito normativo
    • Resilienza 2026: perché la sicurezza di un’azienda dipende anche dai fornitori
    • Cybersecurity: limiti e futuro dell’attuale crittografia
    • Anche le imprese familiari italiane nel mirino del cybercrime
    Facebook X (Twitter) Vimeo Instagram LinkedIn RSS
    BitMAT | Speciale Sicurezza 360×365
    • Attualità
    • Opinioni
    • Ricerche
    • Soluzioni
    BitMAT | Speciale Sicurezza 360×365
    Sei qui:Home»Speciale Sicurezza»Attualità»Deepfake al telefono: come individuarli e non caderne vittima?
    Attualità

    Deepfake al telefono: come individuarli e non caderne vittima?

    By Redazione BitMAT13 Marzo 20265 Mins Read
    Facebook Twitter LinkedIn Tumblr Reddit Telegram WhatsApp Email

    Sabrina Curti, Marketing Director di ESET Italia, analizza  come funzionano questi attacchi, quali sono i segnali utili che possono aiutare a individuare una voce sintetica e quali le misure da valutare per difendersi

    WordPress-password-deepfake
    Sabrina Curti, Marketing Director di ESET Italia

    Possiamo ancora fidarci di ciò che sentiamo? Sempre più spesso la risposta è negativa. L’AI generativa (GenAI) ha reso accessibile a chiunque la creazione di deepfake audio e video: oggi bastano pochi passaggi per produrre una clip artefatta. Una dinamica che espone a rischi concreti anche le aziende.

    I deepfake vengono utilizzati per aggirare controlli “Know Your Customer” e meccanismi di autenticazione degli account. Possono persino consentire ad attori con intenzioni ostili di spacciarsi per candidati a un’offerta di lavoro. Il pericolo più rilevante riguarda però le frodi finanziarie, in particolare i bonifici fraudolenti e la compromissione degli account del Top Management di un’azienda. Sottovalutare la minaccia dei deepfake può avere conseguenze serie. Secondo il governo britannico, lo scorso anno sarebbero stati condivisi fino a otto milioni di contenuti fake, rispetto ai 500.000 del 2023. Il numero reale potrebbe essere ancora più elevato.

    Come funzionano gli attacchi

    Un esperimento condotto da Jake Moore, Global Security Advisor di ESET, dimostra quanto sia semplice lanciare un attacco audio deepfake contro un’organizzazione. È sufficiente un breve campione vocale della persona da impersonare e alla generazione del resto provvede la GenAI. Un possibile schema di attacco può svilupparsi così:

    1. L’attaccante sceglie chi impersonare: un CEO, un CFO o magari un fornitore.

    2. Reperisce online un campione audio. Per i manager che intervengono in pubblico è relativamente semplice: social media, interviste TV o video pubblici. Bastano pochi secondi.

    3. Individua la persona da contattare, spesso dopo una ricerca su LinkedIn per identificare membri dell’helpdesk IT o del team finance.

    4. Può contattare direttamente il bersaglio oppure anticipare la richiesta via email: ad esempio un CEO che sollecita un bonifico urgente, una richiesta di reset password/MFA o un fornitore che chiede il pagamento di una fattura scaduta.

    5. Effettua la chiamata utilizzando una voce deepfake generata con GenAI per impersonare il CEO o il fornitore. A seconda dello strumento, può limitarsi a frasi predefinite oppure usare sistemi più avanzati “speech-to-speech”, che trasformano quasi in tempo reale la voce dell’attaccante in quella della vittima.

    Quando l’udito inganna

    Questi attacchi stanno diventando sempre più economici, accessibili e convincenti. Alcuni strumenti riescono ad aggiungere rumori di fondo, pause e incertezze per rendere la voce più credibile. Migliora anche la capacità di imitare ritmo, inflessione e tic linguistici di ciascun individuo. In una conversazione telefonica, eventuali anomalie legate all’AI risultano meno evidenti.

    Gli hacker ricorrono inoltre a tecniche di social engineering, creando un senso di urgenza per spingere l’interlocutore ad agire rapidamente. Un’altra leva frequente è la richiesta di riservatezza. Se a questo si aggiunge l’autorità percepita di un dirigente senior, si comprende come le vittime possano cadere in inganno.

    Esistono comunque segnali che possono aiutare a individuare una voce sintetica, soprattutto se la tecnologia impiegata non è particolarmente sofisticata:

    · ritmo del parlato innaturale

    · tono emotivo eccessivamente piatto

    · respirazione irregolare o frasi pronunciate senza pause

    · timbro vagamente robotico (con strumenti meno evoluti)

    · rumore di fondo assente in modo sospetto o troppo uniforme

    Come difendersi dai deepfake

    Il motivo per cui i criminali investono tempo in queste frodi è evidente: il potenziale guadagno. I casi concreti si moltiplicano. Uno dei più noti risale al 2020, quando un dipendente di un’azienda negli Emirati Arabi Uniti trasferì 35 milioni di dollari dopo aver creduto alla telefonata del proprio direttore, apparentemente impegnato in un’operazione di M&A.

    Considerando i progressi compiuti dalla tecnologia deepfake negli ultimi anni, conviene adottare misure mirate per ridurre il rischio.

    Il punto di partenza è la formazione del personale. I programmi di awareness dovrebbero includere simulazioni di audio deepfake, così che i dipendenti comprendano cosa aspettarsi, quali siano le conseguenze e come comportarsi. È utile insegnare a riconoscere le dinamiche tipiche del social engineering e scenari come quelli descritti. Esercitazioni pratiche possono poi verificare l’effettiva assimilazione delle procedure.

    Segue l’aspetto organizzativo. Tra le misure da valutare:

    · verifica fuori banda delle richieste ricevute telefonicamente, ad esempio tramite canali di messaggistica aziendali indipendenti

    · doppia autorizzazione per bonifici di importo elevato o modifiche ai dati bancari dei fornitori

    · passphrase o quesiti predefiniti da impiegare nelle chiamate come meccanismo di verifica dell’identità.

    Anche la tecnologia offre supporto. Esistono strumenti in grado di analizzare diversi parametri per rilevare la presenza di una voce sintetica. Un’opzione più complessa da attuare consiste nel ridurre la disponibilità pubblica di campioni audio, limitando le occasioni in cui i dirigenti espongono la propria voce online.

    Persone, processi e tecnologia

    I deepfake restano facili ed economici da produrre. Considerando le somme potenzialmente in gioco, le truffe basate sulla clonazione vocale continueranno a rappresentare una minaccia concreta. L’approccio più efficace per contrastarle si basa su tre pilastri: persone, processi e tecnologia.

    Una volta definito un piano, occorre rivederlo periodicamente per mantenerlo adeguato all’evoluzione dell’AI. Il nuovo scenario delle frodi informatiche richiede attenzione costante e capacità di adattamento.

    A cura di Sabrina Curti, Marketing Director di ESET Italia

     

    ESET
    Share. Facebook Twitter LinkedIn Reddit Telegram WhatsApp Email
    Redazione BitMAT
    • Website
    • Facebook
    • X (Twitter)

    BitMAT Edizioni è una casa editrice che ha sede a Milano con una copertura a 360° per quanto riguarda la comunicazione rivolta agli specialisti dell'lnformation & Communication Technology.

    Correlati

    Cybersecurity: serve il Super-analista

    13 Marzo 2026

    Clusit, cyber attacchi + 49% nel 2025 rispetto al 2024

    11 Marzo 2026

    Attacchi alla supply chain: la minaccia informatica più comune per le aziende nell’ultimo anno

    11 Marzo 2026
    Newsletter

    Iscriviti alla Newsletter per ricevere gli aggiornamenti dai portali di BitMAT Edizioni.

    BitMATv – I video di BitMAT
    Data center nell’era dell’AI: infrastrutture, densità e nuove sfide per l’enterprise
    2VS1 incontra GCI: il Presales tra strategia, tecnologia e metodo
    Snom amplia l’ecosistema delle comunicazioni professionali
    Cybersecurity tra presente e futuro: minacce, trend e strategie per il 2026
    RS Italia, sostenibilità come leva strategica per la filiera
    Tag Cloud
    Acronis Akamai attacchi informatici Axitea Barracuda Networks Bitdefender Check Point Research Check Point Software Technologies CISO cloud Commvault CyberArk cybercrime Cybersecurity cyber security DDoS ESET F-Secure F5 Networks FireEye Fortinet Hacker Identity Security intelligenza artificiale (AI) Iot Kaspersky malware minacce informatiche Nozomi Networks palo alto networks phishing Proofpoint ransomware Security SentinelOne sicurezza sicurezza informatica Sicurezza It SOC Stormshield Trend Micro Vectra AI WatchGuard Technologies Zero Trust Zscaler
    Chi Siamo
    Chi Siamo

    BitMAT Edizioni è una casa editrice che ha sede a Milano con una copertura a 360° per quanto riguarda la comunicazione rivolta agli specialisti dell'lnformation & Communication Technology.

    Facebook X (Twitter) Instagram Vimeo LinkedIn RSS
    Navigazione
    • Attualità
    • Opinioni
    • Ricerche
    • Soluzioni
    Ultime

    Cybersecurity: serve il Super-analista

    13 Marzo 2026

    Deepfake al telefono: come individuarli e non caderne vittima?

    13 Marzo 2026

    Clusit, cyber attacchi + 49% nel 2025 rispetto al 2024

    11 Marzo 2026
    • Contattaci
    • Cookies Policy
    • Privacy Policy
    • Redazione
    © 2012 - 2026 - BitMAT Edizioni - P.Iva 09091900960 - tutti i diritti riservati - Iscrizione al tribunale di Milano n° 295 del 28-11-2018 - Testata giornalistica iscritta al ROC

    Type above and press Enter to search. Press Esc to cancel.