«Quali limiti saranno posti all’uso dell’Intelligenza Artificiale nelle attività di gestione degli impianti di videosorveglianza e di allarme da parte dell’Unione Europea?» chiede un lettore di Sicurezza.
L’Unione Europea (UE) lavora alla regolamentazione dell’Intelligenza Artificiale (AI) dall’inizio del 2018, quando la Commissione Europea ha pubblicato un documento sull’argomento. Nell’aprile 2019, la Commissione ha pubblicato una bozza di regolamento sull’AI, attualmente in discussione presso il Parlamento Europeo e il Consiglio dell’UE. Il progetto di regolamento copre tre aree principali: sicurezza, responsabilità ed etica.
La sicurezza è la principale preoccupazione dell’UE quando si tratta di regolamentare l’AI: la Commissione vuole assicurarsi che i sistemi di AI siano sicuri e affidabili e che non rappresentino un rischio per la sicurezza pubblica o per l’ambiente. A tal fine, la Commissione propone di creare una nuova Agenzia europea per l’AI, incaricata di testare e certificare i sistemi di intelligenza artificiale. L’agenzia sarebbe inoltre responsabile dell’istituzione di un registro dei sistemi di AI, che conterrebbe informazioni sulla sicurezza e sulle prestazioni delle attività in materia.
La responsabilità è un’altra preoccupazione fondamentale dell’UE: la Commissione vuole assicurarsi che le aziende che utilizzano sistemi di AI siano ritenute responsabili per eventuali danni causati dal sistema. Il progetto di regolamento propone di creare un nuovo regime di responsabilità per l’AI, che riterrebbe le imprese responsabili di eventuali danni causati dal loro sistema, a meno che non possano dimostrare che il danno è stato causato da terzi.
L’etica è la terza principale area di preoccupazione per l’UE: la Commissione vuole assicurarsi che i sistemi di intelligenza artificiale siano eticamente corretti e non discriminino le persone sulla base della razza, dell’etnia o di altre caratteristiche personali.
Il progetto di regolamento propone di creare un nuovo comitato europeo per l’AI, che sarebbe responsabile di garantire che i sistemi di intelligenza artificiale siano eticamente solidi. Il consiglio sarebbe anche responsabile della pubblicazione di orientamenti sull’uso etico dell’AI. L’UE sta ancora discutendo la bozza di regolamento in materia e non è ancora chiaro quando o se il regolamento sarà finalizzato.
Tuttavia, gli sforzi dell’UE per regolamentare l’AI sono significativi e probabilmente avranno un impatto importante sullo sviluppo e sull’uso dei sistemi di intelligenza artificiale nell’Unione Europea. Rispondere compiutamente al quesito, al momento, non è quindi possibile, poiché si può soltanto presumere che eventuali limiti imposti all’uso dell’AI per il controllo dei sistemi di videosorveglianza e allarme saranno in linea con i principi fondamentali che verranno individuati dall’UE.
Per ulteriori approfondimenti, si segnala l’articolo sul testo della proposta di regolamentazione attualmente in itinere.