Linee guida per lo sviluppo dell’Intelligenza Artificiale in materia di sicurezza

Intelligenza Artificiale

«Quali limiti saranno posti all’uso dell’Intel­ligenza Artificiale nelle attività di gestione degli impianti di videosorveglianza e di al­larme da parte dell’Unione Europea?»  chiede un lettore di Sicurezza.

LUnione Europea (UE) lavora alla regola­mentazione dell’Intelligenza Artificiale (AI) dall’inizio del 2018, quando la Commissio­ne Europea ha pubblicato un documento sull’ar­gomento. Nell’aprile 2019, la Commissione ha pubblicato una bozza di regolamento sull’AI, attualmente in discussione presso il Parlamen­to Europeo e il Consiglio dell’UE. Il progetto di regolamento copre tre aree principali: sicurez­za, responsabilità ed etica.

La sicurezza è la principale preoccupazione dell’UE quando si tratta di regolamentare l’AI: la Commissione vuole assicurarsi che i sistemi di AI siano sicuri e affidabili e che non rappresentino un rischio per la sicurezza pubblica o per l’ambiente. A tal fine, la Commissione propone di creare una nuova Agenzia europea per l’AI, incaricata di testare e certificare i sistemi di intelligenza ar­tificiale. L’agenzia sarebbe inoltre responsabile dell’istituzione di un registro dei sistemi di AI, che conterrebbe informazioni sulla sicurezza e sulle prestazioni delle attività in materia.

La responsabilità è un’altra preoccupazione fondamentale dell’UE: la Commissione vuole assicurarsi che le aziende che utilizzano sistemi di AI siano ritenute responsabili per eventuali danni causati dal sistema. Il progetto di rego­lamento propone di creare un nuovo regime di responsabilità per l’AI, che riterrebbe le imprese responsabili di eventuali danni causati dal loro sistema, a meno che non possano dimostrare che il danno è stato causato da terzi.

L’etica è la terza principale area di preoccu­pazione per l’UE: la Commissione vuole assi­curarsi che i sistemi di intelligenza artificiale siano eticamente corretti e non discriminino le persone sulla base della razza, dell’etnia o di altre caratteristiche personali.

Il progetto di regolamento propone di creare un nuovo comitato europeo per l’AI, che sa­rebbe responsabile di garantire che i sistemi di intelligenza artificiale siano eticamente solidi. Il consiglio sarebbe anche responsabile della pubblicazione di orientamenti sull’uso etico dell’AI. L’UE sta ancora discutendo la bozza di regolamento in materia e non è ancora chiaro quando o se il regolamento sarà finalizzato.

Tuttavia, gli sforzi dell’UE per regolamentare l’AI sono significativi e probabilmente avranno un impatto importante sullo sviluppo e sull’uso dei sistemi di intelligenza artificiale nell’Unione Europea. Rispondere compiutamente al quesito, al momento, non è quindi possibile, poiché si può soltanto presumere che eventuali limiti im­posti all’uso dell’AI per il controllo dei sistemi di videosorveglianza e allarme saranno in linea con i principi fondamentali che verranno indivi­duati dall’UE.

Per ulteriori approfondimenti, si segnala l’articolo sul testo della propo­sta di regolamentazione attualmente in itinere.

LASCIA UN COMMENTO

Inserisci il tuo commento
Inserisci il tuo nome