AI: certificazione cercasi

L'utilizzo dell’intelligenza artificiale, che pure può contribuire con efficacia al conseguimento di vantaggi per i cittadini dal punto di vista sociale, economico e ambientale, porta con sé una serie di questioni di natura etica e pratica che mettono in evidenza la necessità di definire una disciplina univoca in materia a livello europeo.

L’intelligenza artificiale pone oggi al giurista dilemmi etici ma anche pratici, legati all’in­troduzione degli algoritmi che vanno a condizionare - e, spes­so, a determinare - le scelte di vita adottate nel mondo reale.

Per un primo esempio, si può fare riferimento alle logiche di funzionamento delle auto a guida autonoma, che oggi assistono semplicemente il guidatore in operazioni semplici e a bassa velo­cità (parcheggio, frenata assistita, controllo di corsia), ma potrebbero evolversi in futuro fino a mettere nelle mani dell’intelligenza artificiale - supportata dai dati provenienti dai sensori e dalla centrale di controllo - la direzione della vettura, degradando il conducente a mero con­trollore della situazione, pronto a intervenire in caso di emergenza.

Di fronte a una simile situazione, si pone il di­lemma della scelta, da parte dell’intelligenza artificiale, di come comportarsi, per esempio di fronte a due passanti (una bambina e una persona matura) che attraversano improvvi­samente la strada da lati opposti: in caso di collisione inevitabile, l’AI si troverebbe infatti costretta a scegliere quale dei due soggetti in­vestire, prendendo la propria decisione non in maniera casuale (come nel caso di perdita di controllo del mezzo o reazione istintiva da parte del conducente) ma sulla base di un calcolo rapidissimo del sistema di guida, che potrebbe decidere di “sacrificare” la bambina (perché non ancora in età produttiva) o la persona di mezza età (che, avendo vissuto più della bambina, si avvia a impattare in maniera sempre più rilevante sui sistemi sanitario e pensionistico) a seconda delle istruzioni ricevute.

Il fattore umano nell’intelligenza artificiale

Un altro problema culturale connesso è quello legato a come e quanto l’esperienza di vita degli informatici che scrivono gli algoritmi incida sulla loro attività, riflettendosi di conseguenza sui comportamenti adottati dall’intelligenza artificiale.

L’AI infatti si autoalimenta, acquisendo informazioni dai sensori e “imparando” nel corso del tempo dalle situazioni che si trova ad affrontare, ma in ogni caso il software deve fare i conti con gli algoritmi scritti dalle squadre di programmazione, che possono risentire di errori e convinzioni a seconda della base culturale ed esperienziale dei singoli programmatori e del capo progetto.

Vari esperimenti condotti dalle forze dell’ordine statunitensi con software di polizia predittiva - durante cui i dati dei crimini commessi sono stati analizzati allo scopo di dislocare con maggiore efficacia le pattuglie sul territorio - hanno portato alla luce i limiti e i difetti dell’intelligenza artificiale applicata alla lotta alla criminalità, riscontrando che il sistema di analisi tende a considerare con maggiore gravi­tà i reati commessi da afroamericani e ispanici rispetto a quelli perpetrati dai cittadini della cosiddetta “comunità bianca”.

È già accaduto anche che l’errata interpretazione di una data o di un valore abbia determinato lo sversamento di ingenti quantità di materie prime nelle di­scariche, semplicemente perché tra le righe di codice era presente una valutazione errata di determinati parametri ambientali o temporali, o che un aggiornamento via etere, non perfet­tamente testato prima del rilascio, abbia messo le centraline in uno stato di attesa, escludendo da qualsiasi attività i proprietari degli apparati e rendendo necessario l’intervento materiale di un tecnico per sovrascrivere le istruzioni e di­sattivare il blocco.

Linee guida generali

Avendo compreso ormai da qualche anno che l’intelligenza artificiale avrà un impatto sem­pre più forte sui rapporti economici e sociali, nonché sui diritti e sulle libertà dei cittadini, l’Unione Europea sta orientando di conseguenza la propria azione regolatrice nei confronti dei vari settori del mercato. Come in ogni attività di legislazione proiettata al futuro, bisogna riuscire a prevedere l’evoluzione dei settori interessati e, soprattutto, a disciplinare correttamente i beni giuridici messi in discussione dai cambiamenti in itinere.

Il Regolamento Europeo per la tutela dei dati personali vieta decisioni prese in modo del tut­to automatico in merito ai temi che possono incidere sulla libertà e sui diritti delle persone, ponendo un primo limite all’uso dell’intelligenza artificiale nelle attività quotidiane e richiedendo la presenza di un essere umano a controllare il processo di elaborazione e i suoi risultati. In una situazione di diffusione su larga scala dell’AI, tut­tavia, questo primo limite - peraltro applicabile al solo caso in cui sono trattate informazioni “di identificazione personale” - potrebbe non essere sufficiente, soprattutto nelle circostanze in cui non è possibile far intervenire l’essere umano vista l’esigenza di ridurre al minimo i tempi di reazione.

Serve una regolamentazione

Per tali ragioni è ormai evidente la necessi­tà di una regolamentazione dell’intelligenza artificiale, così da porre limiti e, soprattutto, assicurare garanzie alle attività e ai settori che determinano conseguenze dirette o indirette per gli individui e per la loro vita di relazione (per esempio, cambiamenti climatici, ambien­te, sanità, settore pubblico, finanza, mobilità, affari interni e agricoltura). In considerazione della velocità dei cambiamenti tecnologici e del­le sfide del futuro, gli Stati Europei intendono impegnarsi a perseguire un approccio modera­to ed equilibrato in materia.

All’inizio del 2020, la Commissione Europea ha pubblicato un Libro bianco sull’intelligen­za artificiale, che definisce le strategie per promuovere l’adozione dell’AI e affrontare i rischi associati al suo utilizzo, sviluppando un ecosistema di fiducia e un quadro giuridi­co affidabile, incentrato sui diritti e sui valori fondamentali dell’Unione Europea. Sulla scia di questa dissertazione e dei contributi forniti dagli stati membri e da altri stakeholder, è nata la proposta di regolamentazione Artificial Intel­ligence Act, attualmente in discussione presso il Parlamento Europeo e il Consiglio dell’UE, che si prefigge lo scopo di regolare lo sviluppo e l’utilizzo dell’intelligenza artificiale per sta­bilire un clima di fiducia da parte dei cittadini e garantire il rispetto dei diritti e delle libertà fondamentali salvaguardati dalla normativa europea vigente.

Il testo attualmente allo studio delle autorità prevede che i fornitori di tecnologie classifi­cate “ad alto rischio” garantiscano il rispetto di standard qualitativi elevati, in conformità alle normative di settore, e conservino i log di sistema per almeno sei mesi (salvo diversa previsione legislativa), con l’obbligo di ritirare tempestivamente dal mercato un prodotto di cui sia stata accertata la non conformità. Uno specifico riferimento viene fatto anche ai dispo­sitivi medici e alle informazioni da essi gestite, la cui integrità e disponibilità devono essere garantite a riposo e in transito, considerate le evidenti ripercussioni che possono avere sullo stato di salute del paziente.

La proposta di Regolamento ha come obiettivo anche la corretta ripartizione delle responsa­bilità tra produttori, importatori e distributori di sistemi di AI ad alto rischio, individuando specifici oneri di collaborazione con le autori­tà nazionali e procedure per mitigare i rischi imprevisti e imprevedibili.

Si dovrà, in sostanza, arrivare a una certificazio­ne UE per sistemi di intelligenza artificiale che, oltre all’accreditamento dei produttori, preveda ragionevolmente l’obbligo di mettere a disposi­zione delle autorità competenti le valutazioni di conformità eseguite e la documentazione pertinente, per agevolare e garantire l’esecuzio­ne di controlli indipendenti ed efficaci, idonei a instaurare quel clima di fiducia al quale si fa più volte riferimento nella proposta di Re­golamento.

LASCIA UN COMMENTO

Inserisci il tuo commento
Inserisci il tuo nome