Il lato oscuro dell’intelligenza artificiale

AI

Dalle e-mail di phishing sempre più verosimili e convincenti ai tentativi di accesso agli account automatizzati su larga scala, Barracuda fa il punto sugli usi dell’AI che oggi stanno aggravando le minacce informatiche.

L’intelligenza artificiale avrà un impatto dirompente nella vita quotidiana: basta pensare a come cambierà il mondo del lavoro, alla sua capacità di risolvere problemi complessi e persino di assumere decisioni in modo autonomo. È talmente promettente ed efficace che persino gli hacker la stanno già utilizzando per superare le barriere di cybersicurezza di aziende private ed enti pubblici. In pratica, l’AI può permettere agli attacchi di apprendere dalle difese in cui si imbattono e adattarsi di conseguenza, aumentandone così la pericolosità.

Timori che - secondo il recente report Cybernomics 101 commissionato da Barracuda - si aggravano alla luce di un dato emerso nella ricerca: solo il 39% delle aziende intervistate ritiene che la propria infrastruttura di sicurezza sia adeguatamente preparata a rispondere alle minacce automatizzate e potenziate grazie all’intelligenza artificiale. Perciò, l’AI permette agli hacker di migliorare i loro attacchi e di raggiungere nuovi obiettivi rispetto al passato.

AI
STEFANO PINATO, Country Manager per l’Italia di Barracuda Networks

«La disponibilità di strumenti di AI generativa come ChatGPT ha semplificato la creazione di contenuti personalizzati, sofisticati e privi di errori, nonché la ricerca di informazioni e l’automazione dei processi - osserva Stefano Pinato, Country Manager per l’Italia di Barracuda Networks - Tuttavia, anche i cyber criminali hanno capito come servirsi di questi tool per aumentare le possibilità di successo dei loro attacchi.

Oggi gli hacker possono sfruttare l’AI generativa per aumentare il volume, il livello di sofisticazione e la velocità degli attacchi via e-mail, come per esempio i messaggi di phishing e le forme di social engineering più avanzate, aggirando i tradizionali sistemi di sicurezza e di individuazione delle minacce. Poiché le tecnologie di AI - tra cui il machine learning e le reti neurali - sono sempre più diffuse e non richiedono particolari competenze specialistiche, anche le probabilità che i criminali le sfruttino a loro volta aumentano».

I cyber attacchi con AI più diffusi

A oggi è persino già possibile individuare alcune applicazioni dell’AI particolarmente diffuse negli attacchi hacker. «Attualmente il principale uso malevolo dell’AI riguarda gli attacchi via e-mail - spiega Pinato - Il phishing è da tempo una potente arma nell’arsenale dei cyber criminali e parte del suo successo risiede nella capacità di evolvere nel tempo. L’applicazione primaria dell’AI nel phishing, nello spear phishing e nelle tattiche di Business E-mail Compromise (BEC) è l’automazione della creazione di contenuti. L’AI generativa, infatti, può essere usata per creare messaggi personalizzati e perfettamente contestualizzati, capaci di aumentare la probabilità di successo delle minacce.

Questi strumenti possono anche aiutare a imitare indirizzi e-mail legittimi, attingendo alle informazioni pubbliche disponibili per identificare gli obiettivi e adattare gli attacchi, oltre a simulare i modelli di comunicazione abituali per ingannare i destinatari. L’assenza di errori grammaticali nei messaggi generati dall’AI aggiunge un ulteriore livello di sofisticazione, rendendo ancora più difficile individuare i messaggi malevoli per le misure di protezione tradizionali, che si basano sulla presenza di errori umani».

Da questo punto di vista, l’AI può permettere agli hacker di raggiungere qualsiasi tipologia di utenza con attacchi estremamente mirati. «Grazie ai tool di intelligenza artificiale, le e-mail di phishing possono essere adattate ai diversi contesti linguistici, culturali e settoriali. Per esempio, questi strumenti possono aiutare a generare testi multilingue, ma anche contenuti con riferimenti culturali mirati, gerghi specialistici e riferimenti a brand e istituzioni locali, al fine di aumentare l’apparente autenticità del messaggio».

Democrazia in pericolo?

A proposito di autenticità, non è possibile dimenticarsi della minaccia dei deepfake, che possono rappresentare un vero e proprio pericolo per la democrazia. «Anche i deepfake, ovvero immagini, video e audio falsi generati dall’intelligenza artificiale a partire da contenuti reali, possono essere potenti mezzi per l’impersonificazione, oltre che per la diffusione di campagne di disinformazione. Chiunque abbia accesso a determinati filmati e audio, infatti, può creare rappresentazioni e simulazioni vocali false ma realistiche e, incorporando questi contenuti nei messaggi di phishing, i criminali possono dare forma a minacce molto convincenti.

Per esempio, contraffazioni vocali create con l’AI potrebbero simulare le voci di personaggi illustri o influencer per diffondere truffe o disinformazione tramite le piattaforme social. Senza contare che altre forme di frode basate sui deepfake potrebbero causare danni finanziari diretti alle imprese».

L’AI al servizio degli hacker, inoltre, può potenziare attacchi già noti. «Un altro uso fraudolento dell’AI consiste nella creazione di botnet più vaste di cui servirsi per lanciare attacchi DDoS (Distributed Denial of Service). Nello specifico, l’aumento delle capacità di coordinamento e automazione delle botnet potenziate dall’AI potrebbe amplificare la portata di massicci attacchi di questo tipo. Tali reti, infatti, possono aggirare sistematicamente gli strumenti captcha e i meccanismi proof of work, oltre a evolversi per evitare i tradizionali algoritmi basati su database storici per l’identificazione dei bot».

Come se non fosse sufficiente, l’AI al servizio degli hacker ha la capacità di rendere notevolmente più efficace il furto di credenziali, aumentando la velocità e il tasso di riuscita del crimine. «Di fatto, questa tecnologia può potenziare gli attacchi basati sull’uso di credenziali rubate, poiché permette di testare ad alta velocità grandi quantità di combinazioni di nomi utente e password ottenute da violazioni precedenti. Inoltre, gli strumenti di decrittazione forzata delle password o di neutralizzazione dei captcha possono sferrare attacchi molto più efficienti rispetto ai metodi tradizionali, minacciando ulteriormente i sistemi di difesa».

L’AI al servizio della cybersicurezza

Di fronte ad attacchi hacker sferrati con l’intelligenza artificiale, com’è possibile mettere in sicurezza i sistemi attivi? Per esempio, può essere utilizzata un’AI difensiva contro un’AI attaccante? Sono domande che sorgono in modo spontaneo e a cui Barracuda sa offrire una risposta.

«L’AI sta aiutando la cybersicurezza in molti modi - afferma Pinato - Per esempio, un sistema di protezione delle e-mail intelligente basato sull’AI può identificare i modelli di phishing noti, rilevare minacce sconosciute e usare l’elaborazione in linguaggio naturale per analizzare sentiment, contesto, tono dei contenuti e possibili intenzioni malevole. Ma non è tutto: l’AI può aumentare anche la sicurezza applicativa, in quanto può individuare le irregolarità, perfezionare i modelli di machine learning e contrastare i tentativi di accesso e ricognizione. Inoltre, l’AI può aumentare quantità, velocità e qualità dell’individuazione e dell’estrazione di informazioni sulle minacce grazie ad appositi algoritmi per il riconoscimento delle anomalie e dei modelli, la valutazione dei dati comportamentali e le analisi predittive».

L’'intelligenza artificiale può perciò rappresentare un supporto formidabile per i team di sicurezza. «Non bisogna dimenticare il ruolo critico dell’AI nel fornire risposte automatiche agli incidenti, che aiuta i team di sicurezza a individuare, contenere e neutralizzare rapidamente gli attacchi riducendo gli errori umani e velocizzando il “triage” degli incidenti».

Nuovi allarmi, nuove difese

Si tratta di un aspetto tanto più importante, considerato che nuovi scenari di attacchi hacker con l’AI sono già all’orizzonte. «La disponibilità e l’implementazione di strumenti AI-driven malevoli come WormGPT e EvilGPT permetteranno ai criminali di automatizzare la ricerca delle vulnerabilità e lo sfruttamento delle debolezze, il che potrà potenzialmente portare a un aumento degli attacchi zero day. L’AI potrebbe anche semplificare la creazione di malware adattivo, ossia codice malevolo capace di modificare il proprio comportamento per evitare di essere rilevato».

Proprio su questa tipologia di azione gli hacker potrebbero fare sempre più affidamento, ovvero il lancio di attacchi capaci di adattarsi all’obiettivo. «Altri esempi di attacchi malware basati sull’AI comprendono la generazione di allegati unici e polimorfi, ovvero malware dinamici in grado di adattarsi agli ambienti target, e l’offuscamento del contenuto per aggirare i tool di analisi statica. È probabile, dunque, che gli attacchi informatici basati sull’AI implicheranno malware adattivi».

Gli attacchi cyber sferrati con l’AI possono mettere nel mirino altre intelligenze artificiali con i loro insiemi di dati, con possibili danni incalcolabili e imponderabili. «Bisogna infine considerare la crescente minaccia costituita dalla violazione della sicurezza e dell’integrità dei dati dei modelli di AI, che mira a inquinare o distorcere i dati. Molti strumenti di intelligenza artificiale, infatti, si basano in modo massiccio su modelli che sono addestrati continuamente con grandi set di dati. Se la data security viene violata e i dati manipolati o distorti dai criminali mediante l’introduzione di rumore digitale o distorsioni nei dati di input, i sistemi basati sull’AI potrebbero generare risultati imprevedibili o pericolosi».

Al momento, tuttavia, gli hacker stanno utilizzando tool diffusi e di facile utilizzo per sferrare i loro attacchi, che perciò non sono ancora estremamente sofisticati. Tuttavia, lo scenario potrebbe diventare più pericoloso in tempi brevi. «Attualmente, i cybercriminali non possiedono la conoscenza profonda della data science e delle risorse che permetterebbero loro di sviluppare e lanciare attacchi avanzati basati sull’AI, piuttosto si affidano oggi agli stessi modelli di intelligenza artificiale e agli strumenti di AI generativa accessibili a chiunque. Ciò probabilmente cambierà in futuro e i data scientist in forza al cybercrimine inizieranno a costruire propri modelli di AI usando il crescente volume di dati rubati come fonte di informazione e addestramento» conclude Pinato.


Le sfide per i team di sicurezza

L’ intelligenza artificiale sta segnando l’ inizio di una nuova era di innovazione e progresso tecnologico, purtroppo anche a vantaggio degli hacker. «La sfida per i team di sicurezza è la messa a punto di una cyber resilienza in grado di contrastare le minacce che si avvalgono dell’AI» sottolinea Vincenzo Granato, Country Manager di Commvault Italia.

Perché gli hacker utilizzano l’AI? Quali nuovi obiettivi permette di raggiungere?

Vincenzo Granato, Country Manager di
Commvault Italia

«Ciò che prima richiedeva ai cyber criminali un notevole sforzo umano, abbinato a conoscenze e competenze tecniche elevate, ora può essere gestito in modo più efficiente ed efficace con il supporto di AI e LLM (modelli linguistici di grandi dimensioni). L’intelligenza artificiale può semplificare e velocizzare l’orchestrazione di un attacco, automatizzando e coordinando fasi del processo che prima venivano svolte manualmente.

Inoltre, con l’aiuto di strumenti di intelligenza artificiale, anche persone relativamente inesperte possono produrre attacchi completi, ponendosi apparentemente sullo stesso piano di criminali esperti e organizzazioni più grandi e strutturate».

Esistono già attacchi hacker con AI significativi contro i sistemi di sicurezza attiva e passiva?

«Grazie alla trasformazione digitale degli asset e dei processi industriali si sta raggiungendo gradualmente una convergenza tra le misure di sicurezza fisica e quelle IT, in cui i sistemi di videosorveglianza svolgono un ruolo chiave poiché rappresentano infrastrutture informatiche sempre più interconnesse, altamente performanti e dipendenti dalla tecnologia e da Internet.

Quest’efficienza porta però con sé anche una maggiore complessità, con nuove sfide di sicurezza e maggiori vulnerabilità e rischi a cui questi sistemi possono essere soggetti. Con l’avvento dell’AI e delle opportunità che apre, i cyber criminali potrebbero essere in grado di compromettere tutti i componenti all’interno dei sistemi di videosorveglianza, dalle telecamere, ai server fino ai dispositivi di archiviazione dei dati, con un impatto potenzialmente pericoloso su privacy e sicurezza di individui e dati, ma anche sull’operatività e produttività delle aziende».

AI
Con l’avvento dell’AI e delle opportunità che apre, i cybercriminali potrebbero essere in grado di compromettere tutti i
componenti all’interno dei sistemi di videosorveglianza

Come difendersi di fronte ad attacchi hacker sferrati con AI?

«La sfida per i team di sicurezza è la messa a punto di una strategia di cyber resilienza in grado di contrastare le minacce che si avvalgono dell’AI, far fronte a un numero crescente di attacchi più avanzati e determinarne rapidamente la criticità. Per questo è necessario sfruttare l’intelligenza artificiale per sconfiggere i criminali al loro stesso gioco.

Strumenti di intelligenza artificiale possono essere impiegati per analizzare in tempo reale grandi quantità di informazioni sulle minacce provenienti da più fonti, identificando gli indicatori nascosti, o per monitorare il comportamento di utenti ed entità così da individuare anomalie di compromissione. Le piattaforme di sicurezza odierne sono in grado di fornire una gamma completa di misure di protezione e risposta basate su AI per sconfiggere gli attaccanti, tra cui alert precoce, rilevamento delle minacce, preparazione agli incidenti, risposta rapida e ripristino.

Il supporto fornito da queste piattaforme a livello di tempestività, monitoraggio costante e intuitività delle interazioni aiuta le aziende anche a ovviare almeno in parte alla continua carenza di personale addetto alla sicurezza. Grazie all’intelligenza umana, la natura adattiva dell’AI permetterà ai team di security di essere alla pari dei loro avversari criminali, di competere sullo stesso piano e mantenere elevato il livello di cyber resilienza delle loro aziende».


 

LASCIA UN COMMENTO

Inserisci il tuo commento
Inserisci il tuo nome