Betrusted sfondo blu

AI, deepfake e il futuro della cybersecurity

L’evoluzione dell’intelligenza artificiale generativa e dei deepfake sta cambiando in modo profondo il panorama della sicurezza informatica. Quello che fino a poco tempo fa richiedeva competenze avanzate, tempo e risorse significative è oggi diventato accessibile su larga scala, con ripercussioni dirette sulla natura e sulla pericolosità delle minacce.

La conseguenza più evidente è che la barriera d’ingresso per condurre attacchi sofisticati si è drasticamente abbassata: il social engineering è diventato più efficace, più credibile e più difficile da intercettare.

Questo articolo analizza i principali vettori di questa trasformazione e le implicazioni per le organizzazioni che devono difendersi.

Phishing e LLM: attacchi più credibili e difficili da rilevare

Gli LLM hanno trasformato radicalmente il phishing. Le e-mail di attacco non sono più piene di errori grammaticali o facilmente riconoscibili a prima vista: sono scritte in modo impeccabile, adattate al contesto specifico della vittima e spesso costruite utilizzando informazioni pubbliche come profili professionali o pagine aziendali.

Questo le rende molto più credibili e capaci di superare i filtri tradizionali basati su pattern linguistici. Allo stesso tempo, il costo e il tempo necessari per generare campagne su larga scala si sono ridotti quasi a zero, abbassando drammaticamente la soglia di accesso per chiunque voglia condurre questo tipo di attacchi.

Il phishing generato da AI è spesso indistinguibile da una comunicazione autentica. I filtri tradizionali non bastano più.

Phishing tradizionalePhishing potenziato da LLM
Errori grammaticali frequenti.Testo grammaticalmente corretto e contestualizzato.
Template generici e ripetitivi.Messaggi personalizzati per ogni vittima.
Rilevabile dai filtri antispam.Supera i filtri tradizionali.
Produzione lenta e manuale.Generazione automatizzata su larga scala.
Basso tasso di successo.Tasso di inganno significativamente più alto.

 

 

Deepfake: nuove minacce per aziende e processi digitali

Parallelamente al phishing testuale, i deepfake hanno raggiunto un livello di maturità che li rende una minaccia concreta anche nei processi aziendali più critici. Non si parla più di un fenomeno di nicchia o sperimentale: oggi bastano pochi secondi di audio per clonare una voce in modo convincente, mentre i video possono essere manipolati in tempo reale durante una videochiamata.

Non si tratta più soltanto di ingannare un individuo: questi strumenti possono compromettere anche sistemi automatizzati, come quelli utilizzati per il riconoscimento facciale o i processi di on-boarding digitale. Tecniche come la cosiddetta “deepfake injection” dimostrano che anche le soluzioni più avanzate possono essere aggirate combinando elementi reali e sintetici in modo mirato e calibrato.

La deepfake injection non inganna solo le persone: è in grado di bypassare sistemi automatizzati di verifica dell’identità.

Vediamo, in base alla tipologia di deepfake, qual è lo stato dell’arte e i rischi che un’azienda rischia di correre.

TipologiaStato dell’arteRischio aziendale
Clonazione vocaleBastano pochi secondi di audio.Frodi telefoniche, autorizzazioni false.
Video deepfakeManipolazione in tempo reale nelle videochiamate.Bypass on-boarding digitale, frodi identità.
Deepfake injectionCombinazione di elementi reali e sintetici.Aggira sistemi biometrici automatizzati.
Immagini sinteticheGenerazione istantanea e ultra-realistica.Falsi documenti, identità fittizie.

 

Agenti AI: attacchi autonomi e continui

In questo scenario emerge un ulteriore elemento di discontinuità: gli agenti AI autonomi. Non parliamo più solo di strumenti che assistono un attaccante nelle sue attività, ma di sistemi capaci di pianificare ed eseguire intere catene di attacco in totale autonomia.

Dalla ricognizione iniziale fino allo sfruttamento delle vulnerabilità, questi agenti possono operare senza interruzioni, su più obiettivi contemporaneamente, adattando la propria strategia in base agli esiti di ogni passo. Questo cambia profondamente il valore del fattore umano nel ciclo di attacco: meno esecuzione manuale e ripetitiva, più capacità di interpretare il rischio, comprendere il contesto e prendere decisioni strategiche di alto livello.

Gli agenti AI autonomi possono condurre l’intero ciclo di attacco — dal riconoscimento allo sfruttamento — senza intervento umano.

Vulnerabilità zero-day e AI: un vantaggio temporaneo per chi attacca

Sul fronte delle vulnerabilità zero-day, gli attaccanti sembrano godere di un vantaggio nell’utilizzo dell’AI per analizzare grandi codebase e individuare bug su larga scala con una velocità prima impensabile. Tuttavia, questo squilibrio non è destinato a durare.

Le stesse tecnologie stanno iniziando a essere adottate anche sul lato difensivo, aprendo la strada a un modello in cui la sicurezza viene integrata fin dalla fase di progettazione del software e verificata in modo continuo durante tutto il ciclo di vita. Inoltre, il numero di vulnerabilità “storiche” presenti nei sistemi legacy è per definizione limitato, e nel tempo tenderà progressivamente a ridursi man mano che vengono individuate e risolte.

L’AI difensiva sta recuperando terreno: la sicurezza by design e la verifica continua diventeranno lo standard.

NIS2, DORA e AI Act: il quadro normativo guida il cambiamento

Il contesto normativo europeo sta esercitando una pressione crescente nella direzione di una sicurezza strutturata, continua e documentata. Regolamenti come NIS2, DORA e AI Act non si limitano a richiedere compliance formale: impongono approcci sistematici che rendono obsoleti i modelli basati su verifiche sporadiche o interventi reattivi.

La sicurezza diventa quindi un processo permanente e integrato nell’operatività aziendale, non più un’attività occasionale delegata a verifiche annuali. Questo allineamento normativo sta accelerando l’adozione di pratiche di sicurezza più mature anche nelle organizzazioni che in passato erano rimaste indietro.

Che impatto hanno sulla sicurezza i tre regolamenti?

RegolamentoAmbitoImpatto sulla sicurezza
NIS2Infrastrutture critiche e operatori essenziali UE.Obblighi di segnalazione, gestione rischi continua, audit.
DORASettore finanziario e catena di fornitura ICT.Resilienza operativa digitale, test di penetrazione obbligatori.
AI ActSistemi AI ad alto rischio nell’UE.Trasparenza, supervisione umana, documentazione tecnica.

 

Il futuro dell’offensive security e il ruolo umano con l’AI

Guardando ai prossimi anni, è plausibile che molte attività di offensive security diventino sempre più automatizzate, fino a trasformarsi in servizi erogabili on-demand. Il Vulnerability Assessment e Penetration Testing (VAPT) potrebbe evolvere verso una vera e propria commodity, con costi più bassi, maggiore standardizzazione e accessibilità più ampia.

Tuttavia, questo non elimina il ruolo umano nella sicurezza: lo ridefinisce e lo concentra su ciò che l’AI fatica ancora a replicare. La comprensione del rischio reale per il business, l’individuazione di vulnerabilità logiche non codificate e la capacità di interpretare scenari complessi rimangono prerogative dell’intelligenza umana.

Nella tabella che segue metto sono confrontate alcune attività che un AI sarebbe in grado di svolgere meglio rispetto a un essere umano che lavora nel campo della cybersecurity.

Cosa fa meglio l’AICosa fa meglio l’umano
Ricognizione automatizzata su larga scala.Comprensione del rischio reale per il business.
Analisi di codebase per vulnerabilità note.Individuazione di vulnerabilità logiche complesse.
Esecuzione continua senza interruzioni.Interpretazione di scenari ambigui e inediti.
Reporting standardizzato e veloce.Decisioni strategiche in contesti ad alto impatto.
Scalabilità su molteplici target.Valutazione dell’impatto organizzativo e umano.

 

 

L’approccio Betrusted: AI e competenze per una sicurezza evoluta

Betrusted si sta già muovendo in modo concreto in questa direzione, sviluppando soluzioni di penetration testing automatizzato e continuo supportate da agenti AI che affiancano gli esperti nelle attività di analisi, exploitation e reporting.

L’obiettivo non è sostituire il fattore umano, ma amplificarne l’efficacia, garantendo al tempo stesso scalabilità, copertura e rigore metodologico. Questo approccio ibrido permette di mantenere l’elevata qualità dell’analisi umana – fondamentale per la comprensione del rischio strategico – moltiplicando al contempo la capacità operativa e la velocità di risposta.

Cosa offre l’approccio Betrusted:

  • Penetration testing automatizzato e continuo con copertura 24/7
  • Agenti AI per ricognizione, exploitation e generazione di report
  • Competenze umane dedicate all’analisi del rischio strategico e alle vulnerabilità logiche
  • Scalabilità e standardizzazione metodologica conformi ai requisiti NIS2, DORA e AI Act
  • Modello ibrido human-in-the-loop per massimizzare qualità e velocità

Il futuro della sicurezza è ibrido.
L’AI semplifica le capacità umane, non le sostituisce. La vera difesa nasce dall’integrazione tra tecnologia avanzata e intelligenza strategica.

Condividi l'articolo

Scopri come possiamo aiutarti

Troviamo insieme le soluzioni più adatte per affrontare le sfide che ogni giorno la tua impresa è chiamata ad affrontare.