Nell’incessante gara fra guardie e ladri della sicurezza informatica è entrato in campo un nuovo attore in grado di cambiare le carte in tavola: l’intelligenza artificiale (IA). Per anni abbiamo annunciato l’IA come uno strumento rivoluzionario per difendersi, poiché in grado di identificare le minacce alla velocità delle macchine. L’intelligenza artificiale renderà gli hacker più astuti? La risposta, clamorosa e inquietante, è: potrebbe. Li renderà non solo più astuti, ma anche più veloci, più efficienti e con una portata pericolosamente ampliabile.

Questo articolo si addentra nell’inquietante mondo degli hacker dell’intelligenza artificiale, esaminando: il modo in cui gli attori delle minacce stanno usando l’IA come arma, la nuova generazione di attacchi informatici all’orizzonte e cosa dobbiamo fare per prepararci a questo cambiamento nella sicurezza digitale.

Cosa sono gli attacchi di IA?

Per reato informatico abilitato dall’IA si intende qualsiasi attività criminosa nello spazio digitale che si avvale dell’intelligenza artificiale (apprendimento automatico, modelli linguistici di grandi dimensioni e automazione) per la pianificazione, l’esecuzione o il potenziamento delle attività criminose.

Le minacce che la pirateria di IA comporta non sono un singolo pericolo, ma costituiscono piuttosto un ampio spettro. Da un lato abbiamo degli attacchi automatizzati e ad alto volume che sono potenziati dall’intelligenza artificiale, come le campagne di phishing iperrealistiche che ingannano anche l’occhio più attento. Dall’altro vediamo operazioni più sofisticate e altamente mirate. Non si tratta più di concetti fantasiosi, da film di fantascienza: questi metodi vengono sviluppati e applicati adesso. Riconoscere lo spettro completo della pirateria guidata dall’intelligenza artificiale è essenziale per dotare la nostra vita digitale di una difesa stratificata, intelligente e veramente completa.

Come l’intelligenza artificiale potenzia gli aggressori

L’intelligenza artificiale agisce come un moltiplicatore di forze, rinforzando i criminali informatici a prescindere dalle loro competenze. Per quelli alle prime armi l’IA abbassa drasticamente la soglia d’ingresso, grazie a strumenti di facile utilizzo provenienti dal dark web, come WormGPT, che danno capacità sofisticate. L’accesso a tali strumenti consente di creare un malware o di stilare convincenti email di phishing, cose che un tempo richiedevano una notevole competenza tecnica.

Per i gruppi di hacker d’élite appoggiati dagli Stati, l’intelligenza artificiale automatizza le fasi più laboriose e lunghe di un attacco, come la ricognizione e la scansione delle vulnerabilità. In questo modo gli esperti umani possono concentrarsi su ciò che sanno fare meglio: sviluppare strategie di infiltrazione creative e muoversi all’interno di obiettivi complessi e di alto valore.

L’impatto dell’IA sulla sicurezza informatica

Qualche statistica:

  • Thomson Reuters ha riferito che nel 2024 il costo medio della violazione dei dati per organizzazione è stato di 4.880.000 dollari. Alcune aziende stanno reagendo utilizzando la sicurezza assistita dall’intelligenza artificiale.
  • Il Rapporto 2025 sulle minacce di IA di KELA ha osservato un aumento del 200% delle menzioni di strumenti di IA dannosi nei forum della criminalità informatica.

Questi numeri tracciano un quadro chiaro: l’intelligenza artificiale sta rapidamente trasformando il panorama delle minacce informatiche. Lo sconcertante costo medio di una violazione dei dati sottolinea le gravi conseguenze economiche di un attacco riuscito. L’aumento del 200% delle discussioni nel dark web riguardanti strumenti di intelligenza artificiale dannosi dimostra che i criminali stanno adottando e perfezionando attivamente queste tecnologie.

Inoltre stiamo assistendo all’ascesa di piattaforme di malware come servizio e di frode come servizio, in cui gli sviluppatori del dark web creano, confezionano e vendono strumenti basati sull’intelligenza artificiale come WormGPT e FraudGPT. Tali modelli linguistici di grandi dimensioni, addestrati su dati illeciti e privati delle tutele etiche, aiutano gli aspiranti criminali a scrivere codice maligno, a stilare convincenti email truffaldine e a trovare le vulnerabilità sfruttabili.

Queste tendenze confermano che la corsa agli armamenti dell’IA è già iniziata e che una protezione solida, potenziata anch’essa dall’intelligenza artificiale, è più che mai fondamentale.

L’IA rende gli hacker più intelligenti?

La verità è che, mentre l’IA dà agli hacker la possibilità di ampliare i loro obiettivi (producendo messaggi truffaldini in massa o accelerandone la distribuzione), non ne aumenta necessariamente intelligenza o creatività. Agisce invece come un moltiplicatore di forze senza precedenti, amplificando le competenze esistenti in tre modi chiave.

Scala e velocità maggiori

Un pirata informatico umano, per quanto brillante, è ancora limitato dal tempo. Può analizzare un solo sistema, scrivere un solo codice e stilare una sola email alla volta. L’intelligenza artificiale elimina questa limitazione consentendo di scansionare migliaia di reti contemporaneamente, di generare un milione di email di phishing uniche in un’ora e di testare miliardi di combinazioni di password durante la notte. La genialità di un attacco deriva dalla capacità dell’IA di elaborare informazioni ed eseguire compiti a una scala e a una velocità che sono semplicemente superiori alle capacità umane.

Soglia di ingresso più bassa

Storicamente, il lancio di un attacco informatico sofisticato richiedeva una profonda competenza tecnica in materia di programmazione, reti e sistemi di sicurezza. L’intelligenza artificiale abbatte questa barriera naturale. Con strumenti come WormGPT, un truffatore amatoriale con pochissime conoscenze di codifica può ora generare un malware funzionale o creare un clone vocale deepfake tramite un’app di semplice utilizzo. In questo senso, l’intelligenza artificiale rende l’insieme dei potenziali aggressori molto più capace e pericoloso.

L’automazione libera la creatività

Il maggiore vantaggio dell’IA è l’automazione, che libera gli hacker dai compiti noiosi e lunghi della ricognizione e dell’accesso iniziale. Invece di passare settimane a cercare una via d’accesso, è l’intelligenza artificiale che fa il lavoro pesante, trovando autonomamente i punti deboli di un sistema e sfruttando il codice esistente per costruire una struttura funzionale e dannosa senza l’intervento diretto dell’uomo. In tal modo i pirati informatici umani possono concentrarsi sulla navigazione in reti interne complesse, sulla disattivazione dei sistemi di sicurezza di alto livello e sull’ideazione di nuovi modi per raggiungere il loro obiettivo finale.

Caratteristiche principali degli attacchi potenziati dall’intelligenza artificiale

Gli attacchi informatici potenziati dall’IA sono definiti da alcune caratteristiche che li distinguono dai metodi tradizionali attuati dall’uomo. Eccone alcune:

  • Iper-automazione: a differenza dei reati informatici tradizionali, che in genere si basano su un codice scritto manualmente e su schemi messi in atto dall’uomo, quelli abilitati dall’intelligenza artificiale utilizzano l’apprendimento automatico, i modelli linguistici di grandi dimensioni e l’automazione per pianificare, eseguire e/o migliorare le operazioni. Questi strumenti eseguono i compiti 24 ore su 24 a una velocità impossibile per gli esseri umani.
  • Volume elevato: negli attacchi tradizionali, un criminale informatico potrebbe dedicare ore alla creazione di un’email di phishing oppure giorni alla scansione delle vulnerabilità. Negli attacchi abilitati dall’intelligenza artificiale invece, un modello di apprendimento automatico genera in pochi secondi migliaia o milioni di email di phishing realistiche e personalizzate. Inoltre setaccia le reti alla ricerca delle falle nella sicurezza con una velocità e un volume senza precedenti.
  • Adattamento: a differenza del malware tradizionale che segue un copione fisso, quello potenziato dall’intelligenza artificiale può imparare e adattarsi. Un attacco guidato dall’IA analizza le difese di sicurezza di un sistema, modificando il proprio codice o comportamento in tempo reale alla ricerca di un modo per aggirarle.
  • Furtività: automatizzando le attività e imitando il comportamento umano con incredibile precisione, questi attacchi possono spesso passare inosservati ai sistemi di sicurezza convenzionali, che cercano minacce statiche e conosciute. Ciò ne rende eccezionalmente difficili il rilevamento e il blocco con i metodi convenzionali.
  • Alta personalizzazione: l’IA ha trasformato l’ingegneria sociale, raccogliendo dati dai social media e da altre fonti pubbliche, per poi creare email ed SMS di phishing molto personalizzati oppure audio deepfake incredibilmente convincenti. Per generare fiducia nella vittima, i messaggi fanno dei riferimenti a dettagli specifici della sua vita o del suo lavoro.

L’intelligenza artificiale amplifica gli attacchi informatici

Grazie a queste caratteristiche, l’intelligenza artificiale sta potenziando ogni fase del ciclo di un attacco, dalla ricognizione all’esecuzione e all’elusione. Per comprendere veramente l’impatto dell’IA sulla criminalità informatica, analizziamo i modi in cui gli hacker la utilizzano per scopi illeciti.

Individuazione e sfruttamento automatici delle vulnerabilità

Grazie ad alcune tecniche, l’intelligenza artificiale accelera drasticamente il lungo compito degli hacker di trovare una falla nell’armatura di un obiettivo. Alcuni di questi metodi:

  • “Fuzzing” alimentato dall’intelligenza artificiale: dati casuali o semi-casuali vengono inseriti in un programma per vedere se si blocca o si comporta in modo inaspettato, rivelando potenziali vulnerabilità. L’intelligenza artificiale poi genera degli input più efficaci per trovare i bug occulti più velocemente dei metodi tradizionali.
  • Analisi del codice su scala: un hacker può utilizzare l’intelligenza artificiale per analizzare il codice sorgente di un’intera applicazione in pochi minuti, evidenziandone i punti deboli che un analista umano impiegherebbe giorni o settimane per trovare.

Ingegneria sociale iper-personalizzata

Il pericolo più immediato dell’IA nella pirateria risiede nella sua capacità di sfruttare la fiducia umana. L’ingegneria sociale potenziata dall’intelligenza artificiale si è spostata nel nuovo ambito dell’iper-personalizzazione e inganno: analizza i post pubblici sui social media, oltre alla storia professionale e l’attività online di un obiettivo, per poi redigere delle email di phishing contestualmente indistinguibili dalle comunicazioni legittime.

Malware guidato dall’intelligenza artificiale e codice elusivo

I software antivirus e i sistemi di sicurezza funzionano principalmente identificando gli schemi di codice dannoso o di malware definiti firme. L’intelligenza artificiale consente al malware di diventare polimorfo, ossia di modificare il proprio codice a ogni nuova infezione, utilizzando una chiave di crittografia variabile per eludere il rilevamento basato sulle firme. Il malware metamorfico è ancora più avanzato: riscrive completamente la sua logica sottostante, pur mantenendo la funzione dannosa. Soluzioni come McAfee si concentrano sull’identificazione dei comportamenti sospetti piuttosto che sulla ricerca di una firma nota, fornendo la necessaria contromisura per queste minacce in evoluzione.

Pirateria dei deepfake di IA

Questo è l’uso malevolo dell’intelligenza artificiale per creare contenuti audio e video altamente realistici, ma fabbricati. Questi media sintetici possono impersonare in modo convincente le persone, manipolandone voci e sembianze per diffondere disinformazione, commettere furti di identità o frodi oppure minare la fiducia.

Correlato: Come riconoscere un deepfake sui social media

Clonazione vocale per le truffe di vishing e di impersonificazione

Uno degli usi più allarmanti dell’IA è la clonazione della voce, o phishing vocale, detto anche vishing. Con solo pochi secondi dell’audio di una persona, spesso prelevato dai video dei social media o dai messaggi vocali pubblici, l’IA può creare un clone altamente realistico della voce. Per quanto riguarda le aziende, un truffatore può utilizzare anche solo un breve frammento audio, tratto ad esempio dall’intervista pubblica di un amministratore delegato, per clonarne la voce. Sfrutterà poi l’audio falso per istruire l’ufficio finanziario a eseguire un bonifico fraudolento.

Decodifica delle password a una velocità senza precedenti

Analizzando enormi serie di password violate, i modelli di intelligenza artificiale apprendono gli schemi, le sostituzioni e le strutture più comuni utilizzate dagli esseri umani per creare le password. Invece di provare con aaaa e aaab, un software apposito e dotato di intelligenza artificiale può iniziare con Password2024! o Inverno!23, imparando dal contesto e dalla psicologia umana. Ciò riduce drasticamente il tempo necessario per compromettere un account.

Correlato: Le password deboli possono costare tutto

Attacchi di forza bruta

Gli attacchi di forza bruta tradizionali provano numerose combinazioni di nomi utente e password fino a trovare quella giusta. Con l’IA si sfrutta l’apprendimento automatico per ottimizzare in modo significativo i tentativi di indovinare le credenziali, provando ogni secondo milioni, se non miliardi, di combinazioni di nomi utente e password fino a ottenere l’accesso a un sistema.

Risoluzione dei CAPTCHA

L’IA per la risoluzione dei CAPTCHA, che sono progettati per distinguere gli esseri umani dai bot, utilizza una soluzione automatizzata di apprendimento profondo o basata su algoritmi. Questo rappresenta un problema crescente per la sicurezza, in quanto i modelli di IA diventano molto efficaci nel risolvere i CAPTCHA visivi o audio, anche complessi.

Attacchi dell’IA avversaria

Con questo metodo gli hacker attaccano i sistemi di intelligenza artificiale a cui si affidano le organizzazioni per la sicurezza. I due modi più comuni:

  • Avvelenamento del modello: si tratta di corrompere sottilmente i dati che vengono utilizzati per addestrare il modello di intelligenza artificiale di un’azienda. Ad esempio, un hacker potrebbe alimentare un sistema di sicurezza per il riconoscimento facciale con migliaia di immagini del volto di una persona etichettate in modo deliberatamente erroneo. In seguito il criminale potrebbe passare davanti alle telecamere senza essere notato. Analogamente può avvelenare i dati di addestramento di un filtro antispam per garantire che le sue email di phishing vengano sempre contrassegnate come sicure.
  • Attacchi di elusione: i pirati informatici tentano di manipolare un modello di IA apportando minuscole e quasi impercettibili alterazioni a un’immagine per indurre l’IA a identificarla erroneamente. Ad esempio, un segnale di stop potrebbe essere scambiato per un limite di velocità: una prospettiva terrificante per i veicoli a guida autonoma. Nel campo della sicurezza informatica si può alterare un malware per renderlo invisibile a un sistema di rilevamento delle minacce basato sull’intelligenza artificiale.

Sciami d’attacco autonomi

Gli agenti autonomi, talvolta detti sciami di IA, sono sistemi intelligenti in grado di condurre un’intera campagna di attacco informatico senza alcun intervento umano diretto. Un agente programmato con un obiettivo, ad esempio il furto dei dati dei clienti dell’azienda X, eseguirà autonomamente la catena di attacco in pochi minuti, 24 ore su 24. Iniziando con la ricognizione, identificherà le vulnerabilità, per poi eseguire la violazione e l’estrazione dei dati. Il sistema avvisa il pirata umano solo dopo il raggiungimento dell’obiettivo.

Correlato: ChatGPT: il nuovo strumento dei truffatori

Orientarsi nel nuovo panorama delle minacce

Nel campo della sicurezza informatica lo scontro fra IA maligna e IA difensiva ha scatenato una corsa agli armamenti tecnologici. Mentre gli hacker utilizzano l’IA per creare attacchi più elusivi e scalabili, i difensori di tutto il mondo se ne avvalgono per realizzare sistemi di sicurezza più intelligenti, più veloci e più predittivi.

La rapida evoluzione della pirateria di IA può sembrare scoraggiante, ma non tutto è perduto, poiché ognuno è una parte attiva ed essenziale della propria sicurezza digitale. Basta solo un approccio più intelligente e moderno. La visione dell’intero quadro e la conoscenza dei metodi della pirateria guidata dall’intelligenza artificiale sono il punto di partenza per strategie difensive in grado di garantirti la massima sicurezza.

Pensa alla tua consapevolezza come a un potente sensore che l’intelligenza artificiale non è in grado di replicare. Ogni volta che ti soffermi a scrutare un’email sospetta o a verificare una richiesta urgente, svolgi un ruolo fondamentale. In qualità di tuo partner, McAfee fornisce gli strumenti e gli approfondimenti necessari. Grazie alla tua intuizione informata e alla nostra tecnologia intelligente, creiamo una difesa formidabile per navigare in tranquillità nel mondo digitale.

Passi pratici per mitigare gli attacchi informatici di IA

  • Rafforzare le credenziali: utilizza un gestore delle password per creare e memorizzare password lunghe, uniche e complesse per ogni account. Ancora più importante, attiva l’autenticazione a più fattori (MFA) ove possibile, come potente barriera contro la compromissione.
  • Esaminare le comunicazioni: presta particolarmente attenzione alle email, agli SMS e alle chiamate vocali che creano un senso di urgenza. Prima di agire, verifica le richieste inattese tramite un canale separato e attendibile.
  • Mantenere tutto aggiornato: aggiorna regolarmente il sistema operativo, il browser web e le applicazioni. Spesso gli aggiornamenti risolvono le vulnerabilità di sicurezza critiche, che vengono sfruttate attivamente dai pirati informatici.
  • Mettere in atto le difese basate sull’intelligenza artificiale: il modo più efficace per combattere le minacce guidate dall’intelligenza artificiale è una difesa altrettanto guidata dall’IA. Utilizza una soluzione di sicurezza completa come McAfee, che sfrutta l’intelligenza artificiale per rilevare e bloccare in tempo reale gli attacchi sofisticati.

La doppia faccia dell’IA

Nel mondo della sicurezza informatica l’intelligenza artificiale è un’arma a doppio taglio. Le stesse capacità che la rendono micidiale nelle mani degli hacker (velocità senza precedenti, riconoscimento degli schemi e automazione) la rendono anche il nostro scudo più importante. Un modello di intelligenza artificiale che può essere addestrato a scrivere una convincente email di phishing può anche imparare a riconoscerne i sottili schemi linguistici. Un’IA in grado di trovare e sfruttare le vulnerabilità può essere usata anche per correggere e proteggere tali vulnerabilità.

In prospettiva il futuro dell’IA nei reati informatici è di autonomia e accessibilità maggiori. Ci aspettiamo di vedere più sciami di attacchi autonomi, in cui molti agenti di IA lavorano insieme per perpetrare una violazione senza la guida umana. Inoltre continuerà la commercializzazione degli strumenti di hacking di IA nel dark web, che metteranno capacità di attacco sofisticate a disposizione di un sempre maggior numero di criminali.

Il futuro, tuttavia, non è tutto così cupo. L’IA difensiva si sta evolvendo altrettanto rapidamente. Anche se gli aggressori diventano più astuti, lo stesso vale per le nostre protezioni. Per neutralizzare le minacce future, aziende come McAfee sono in prima linea nello sviluppo della nuova generazione di sicurezza basata sull’IA.

Considerazioni finali

L’era degli hacker dell’intelligenza artificiale non è all’orizzonte, ma è già qui. L’IA garantisce ai pirati informatici una velocità sovrumana, automatizza compiti complessi e abbassa la soglia di accesso. Ne vediamo l’impatto nell’aumento del phishing iperrealistico, del malware adattivo e della commercializzazione di strumenti di intelligenza artificiale dannosi.

La stessa IA che può essere utilizzata per un attacco offre anche la strada più promettente per la difesa. La tecnologia IA avanzata McAfee, basata sull’apprendimento profondo, sull’analisi contestuale e sulla modellazione comportamentale, elabora continuamente trilioni di segnali delle minacce per offrire protezione in tempo reale (come il rilevamento di truffe e deepfake) oltre alle soluzioni antivirus. Grazie alla visibilità su svariati dispositivi, applicazioni e web, identifica e blocca in modo proattivo le attività dannose prima che possano causare danni. Che si tratti di bloccare i tentativi di phishing, rilevare il malware del giorno zero o identificare comportamenti insoliti, IA avanzata McAfee è progettata per anticipare i criminali informatici e tenerti al sicuro in ogni tuo punto di contatto digitale.

Mantenendoti al corrente, promuovendo una cultura di consapevolezza della sicurezza informatica e investendo in strumenti di nuova generazione basati sull’intelligenza artificiale, hai la capacità di opporti ai potenziali rischi e alla disinformazione.