Partito nel 2021, il progetto europeo STARLIGHT ha delineato otto scenari di criticità e individuato cinque tool, che possono risultare particolarmente utili - se calati nel contesto italiano - per un uso efficace e resiliente dell’intelligenza artificiale nel contrasto alle minacce criminali.
Al giorno d’oggi le LEA (Law Enforcement Agencies), nella loro quotidiana lotta alla criminalità, si trovano ad aver a che fare con una sempre maggiore quantità di dati da analizzare e processare. Per far fronte a questa sfida, viene in aiuto l’AI, che entra nel processo investigativo come un’alleata in grado di offrire una maggiore efficienza nella gestione dei dati, consentendo alle forze di polizia di concentrarsi sulle migliori azioni da intraprendere, con un’economizzazione del lavoro e un raggiungimento degli obiettivi molto più rapido.
Non si può però negare che l’impiego dell’AI per il contrasto alla criminalità offre non solo opportunità, ma anche una serie di sfide legali ed etiche: dalla necessità di strumenti di AI trasparenti, in grado di “spiegare” i processi decisionali sottostanti ai loro output, allo sviluppo di una migliore cybersecurity e una sempre maggior consapevolezza nell’utilizzo della tecnologia per evitare che possa essere sfruttata dal mondo criminale.
Sono queste le riflessioni e le premesse che hanno portato alla nascita del progetto europeo STARLIGHT (Sustainable Autonomy and Resilience for LEAs using AI against High Priority Threats), un vero e proprio hub che unisce conoscenze multidisciplinari sull’AI, risorse e dati da tutte le LEA europee, al fine di tracciare linee guida comuni a tutti gli stakeholders partecipanti per il miglior utilizzo dell’intelligenza artificiale per la sicurezza di tutta l’Europa.
Un lavoro in evoluzione
Il progetto STARLIGHT ha preso il via nel 2021, quando l’AI non era così conosciuta e così presente nella quotidianità come oggi. Nel corso di questi anni, ha seguito l’evoluzione della tecnologia e le nuove sfide a livello etico che sono comparse, mantenendo il ruolo di community dove poter affrontare tutte le novità, facendo il punto e mantenendosi allineati su nuove potenzialità e rischi legati all’AI.
Al progetto prendono parte, oltre all’agenzia Europol, 50 partner provenienti da 18 Paesi europei, tra cui 14 forze di polizia - con la partecipazione, per l’Italia, del Servizio polizia postale e per la sicurezza cibernetica del Ministero dell’Interno.
STARLIGHT ha, tra i propri obiettivi strategici, lo sviluppo di strumenti basati sull’intelligenza artificiale, elaborati proprio per rispondere alle esigenze operative specifiche delle forze di polizia.
«Gli obiettivi raggiunti attraverso il progetto STARLIGHT hanno consentito di fissare innanzitutto l’approccio a questa materia che era, nel momento in cui ha preso il via il progetto, piuttosto sconosciuta nell’ambito del Law Enforcement - spiega Andrea Carnimeo, Primo Dirigente Tecnico della polizia di stato - Di fondamentale importanza era poi definire l’AI anche dal punto di vista normativo, intercettando quali fossero le norme in grado di regolare il suo utilizzo». Con l’intento di creare una vera e propria community di riferimento, il progetto ha unito, oltre alle forze di polizia europee, anche accademie, università e partner tecnici, che hanno messo a disposizione le proprie competenze specifiche.
Attività e tecnologie
Nello specifico, la polizia ha portato in dote le proprie esperienze nel lavoro quotidiano, che sono state alla base della definizione di otto principali scenari ipotetici di criticità. Il primo ambito riguarda l’analisi di immagini, ossia tutto quello che ha a che fare con il riconoscimento facciale, il rilevamento di oggetti sospetti e l’analisi di scene del crimine. Il secondo ambito di lavoro si è concentrato sull’analisi testuale e linguistica da conversazioni riprese online, sui social, nei forum, fino al dark web. Il terzo ambito riguarda la cyber intelligence, un altro scenario fondamentale che si allarga a tutte le minacce cibernetiche con quella che oggi viene chiamata la threat intelligence, cioè la capacità predittiva degli attacchi informatici.
Il quarto ambito, o scenario, è quello relativo ai deep fake, nato con la necessità di discernere i contenuti reali, validi, da quelli che invece sono dei fake, delle notizie create ad hoc. Il quinto ambito riguarda gli strumenti di data fusion e big data, per fare in modo di integrare dati di diversa natura che provengono da più fonti (immagini, testi, audio, ecc.). Il sesto scenario interessa il ruolo dell’intelligenza artificiale a supporto delle decisioni, un ambito in cui l’AI può essere un utile strumento a supporto dell’operatore di polizia. Seguono, non meno importanti, l’ambito relativo alla privacy, che fa riferimento a tutte quelle accortezze necessarie per analizzare i dati sensibili nel rispetto del GDPR, e l’ottavo e ultimo ambito, che racchiude tutti gli strumenti predittivi e i modelli di AI per identificare le aree più a rischio in Europa.
A partire da questi scenari la polizia ha proceduto poi a identificare cinque tool congeniali al fine di far fronte alle minacce nel contesto italiano. «I cinque tool che abbiamo selezionato fanno parte di una più ampia gamma di strumenti (nell'ambito del progetto sono stati avviati più di 35 CODV, ossia collaborazioni tra LEAs e Parner tecnici che sviluppano i tools; i tools sviluppati finora a livello europeo sono alcune decine) che sono stati presentati e sviluppati all’interno del progetto, e sono quelli che, a nostro avviso, rispondevano più adeguatamente alle nostre specifiche esigenze» afferma Carnimeo. I cinque tool selezionati sono stati dunque valutati e implementati nel corso del progetto perché venisse garantita la loro efficacia e applicabilità operativa in scenari realistici.
Nello specifico si tratta di strumenti atti a supportare le seguenti attività:
- rilevamento di oggetti e loghi attraverso un sistema di analisi digitale in grado di identificare loghi, insegne e tatuaggi in immagini e video, potenziando indagini forensi e attività di prevenzione;
- previsione di migrazioni e movimenti basati su fonti di intelligence grazie a un sistema avanzato di analisi predittiva che, utilizzando dati Osint (fonti aperte) e Gdelt (database di eventi mondiali), è in grado di anticipare i flussi migratori, identificando cause, tempistiche e aree geografiche coinvolte;
- rilevamento e identificazione di comportamenti anomali o movimenti sospetti nella folla attraverso l’utilizzo di una tecnologia video evoluta, che analizza in tempo reale i mo vimenti di grandi gruppi di persone, individuando traiettorie sospette e permettendo il tracciamento di individui potenzialmente pericolosi, al fine di consentire interventi tempestivi e mirati da parte delle forze di polizia;
- previsione geo-spaziale della criminalità grazie all’utilizzo di modelli predittivi basati su dati storici, condizioni meteorologiche e altri fattori, in modo da anticipare i luoghi e i momenti in cui potrebbero verificarsi eventi criminosi;
- generazione sintetica di volti (identikit) basata su descrizioni di vittime o testimoni, che trasforma le descrizioni verbali in volti digitali realistici, fornendo uno strumento efficace per aiutare vittime e testimoni a identificare i sospetti con maggiore precisione e rapidità, migliorando l’efficacia delle indagini e l’azione delle forze dell’ordine.
Addestramento e valutazione
Come sono stati condotti l'addestramento dell'AI e il co-sviluppo dei tool
Alla base dell’utilizzo dei tool c’è l’addestramento machine learning che deve essere costantemente implementato; proprio questo meccanismo ha comportato delle problematiche perché, per il rispetto della privacy, non è stato possibile “nutrire” l’AI con data set reali. La soluzione è stata trovata a partire da due diversi approcci:
«Da un lato - spiega Michele Fioretto, Vice Questore Aggiunto della polizia di stato - c’è stato l’apporto dei partner tecnologici che hanno lavorato ad anonimizzare alcuni dati; dall’altro si è proceduto con data set sintetici, ossia generati artificialmente ma sulla base di scenari reali».
Una volta intercettati gli strumenti più utili, la polizia ha partecipato a dei cicli di codev, ossia dei cicli di co-sviluppo, all’interno dei quali gli strumenti sono stati man mano testati, valutati e corretti, nel caso ci fosse qualcosa da modificare.
«I cosiddetti pilot rappresentano momenti fondamentali per lo sviluppo dei tools - prosegue Fioretto - In queste particolari occasioni, partner e forze dell’ordine si ritrovano e mettono in scena situazioni ricostruite, ma assolutamente aderenti alla realtà, all’interno delle quali valutare la maturità del tool. I pilot sono momenti di feedback, necessari per migliorare lo strumento non soltanto dal punto di vista tecnologico, ma anche per verificare la corrispondenza dei dati contenuti con le regole etiche e la normativa sulla privacy».
Il progetto si concluderà ufficialmente con un’assemblea generale che verrà ospitata a Parigi. «Anche se, ufficialmente, il progetto giunge a conclusione, non si fermeranno le collaborazioni che sono state attuate nel corso di questi quattro anni - sottolinea Carnimeo - È proprio questo uno dei maggiori obiettivi del progetto: aver dato vita a una comunità che ha tracciato una strategia, collettivamente riconosciuta dagli stakeholder europei, capace di garantire uno sviluppo coerente dell’AI per il contrasto del crimine in tutta Europa».
«Va poi necessariamente sottolineato - conclude Fioretto - come la politica di tutta l’Unione Europea sull’intelligenza artificiale si basi su un approccio antropocentrico: abbiamo a disposizione la tecnologia, i dati, ma l’ultima parola deve sempre averla l’uomo. Sono le sue decisioni, quelle finali, mai quelle della macchina».






