Verso l’essenza dell’intelligenza artificiale

intelligenza artificiale

A fronte della complessità del panorama legislativo che circonda le telecamere e i sistemi di allarme dotati di Intelligenza Artificiale, sta diventando sempre più pressante per i giuristi l’esigenza di arrivare a una definizione dell’etica degli algoritmi, in modo da concedere ai professionisti i margini di sicurezza interpretativa necessari per svolgere la propria attività.

La repentina diffusione dei processi di AI (Intelligenza Artificiale) sta influenzando anche il mercato della sicurezza, che vede la diffusione di sistemi di allarme e videosorveglianza sempre più sofisticati. A oggi, infatti, le telecamere con tecnologia AI hanno la capacità di analizzare le riprese in tempo reale, rilevando potenziali minacce alla sicurezza prima che diventino un problema: sono in grado, quantomeno, di elaborare risposte immediate (anche attraverso l’attivazione di sensori e dispositivi) e allertare tempestivamente i soggetti preposti a intervenire, in caso si verifichino eventi significativi.

Un altro elemento da tenere sotto controllo sono sicuramente i sensori dell’impianto di allarme, che per caratteristiche e quantità sono in grado di fornire una mole di dati non secondaria rispetto a quella già acquisita dai filmati. È sufficiente pensare alla quantità di impulsi che un sistema di sicurezza aziendale può recepire - dai sensori volumetrici, da quelli installati su porte e finestre, dai rilevatori di fumi, liquidi e gas, dalle termocamere, dai sensori che monitorano il funzionamento dei dispositivi di apertura e chiusura e dalle sonde installate su singoli apparecchi elettrici o elettronici - per comprendere come l’idea di affidare il compito di monitorare gli eventi a persone fisiche sia ormai un’utopia.

Un aiuto prezioso

L’utilizzo della tecnologia AI presenta indubbiamente numerosi vantaggi: per esempio, la possibilità di analizzare in tempo reale le immagini registrate, con tempi di attenzione e di reazione assolutamente non paragonabili a quelli dell’essere umano. Se un operatore può tenere sotto controllo in modo efficiente al massimo una decina di telecamere (e comunque riesce a focalizzare la propria attenzione solo su una di esse), l’intelligenza artificiale è in grado di monitorare centinaia di dispositivi contemporaneamente senza alcuna diminuzione del livello di attenzione; l’unico limite è dato dalla potenza di calcolo dei suoi processori.

Rispetto all’operatore, inoltre, l’AI non risente della stanchezza, ed è quindi in grado di erogare un servizio efficiente nello spazio e nel tempo: infatti l’attivazione di uno dei settori sotto controllo, in reazione agli stimoli esterni, non fa venire meno la continuità della sorveglianza nelle altre aree da monitorare - al contrario di quanto può accadere con un operatore nel momento in cui si verifica un evento di allarme.

L’ausilio delle telecamere dotate di intelligenza artificiale è ormai indispensabile anche nelle situazioni in cui grandi aree soggette a pubblico passaggio (per esempio, aeroporti, stazioni ferroviarie e centri commerciali) devono essere sottoposte a sorveglianza e controllo. L’impiego dell’AI permette di coordinare gli interventi del personale di sicurezza, che può essere rapidamente allertato e inviato dove necessario direttamente dal sistema, senza alcun filtro umano; un ulteriore vantaggio è che l’operatore può concentrarsi su altri compiti, nei quali l’azione umana è insostituibile (come gli interventi di emergenza o soccorso).

Questioni morali e giuridiche legate all'intelligenza artificiale

Nonostante i numerosi vantaggi, il panorama normativo che circonda le telecamere e i sistemi di allarme/sicurezza dotati di AI è spesso complesso e ostico - soprattutto per quanti (come gli installatori) hanno un background tecnico e sono poco avvezzi a interpretare norme e precetti. A essere interessati non sono solo i temi della tutela dei dati personali e della riservatezza delle persone: il problema si pone anche nel momento in cui il professionista è chiamato a confrontarsi con norme troppo arretrate rispetto all’evoluzione del settore e deve quindi tentare di adeguare la legislatura esistente alle molteplici situazioni da disciplinare e ai problemi palesati dalle novità del settore digitale.

Si possono infatti verificare situazioni in cui l’algoritmo che sovrintende al controllo delle apparecchiature, per quanto correttamente implementato e utilizzato nel rispetto delle specifiche di progetto e delle norme esistenti, può generare risultati inaspettati e arrecare danni: per esempio, la reazione di un impianto d’allarme al rischio potenziale di una rapina prevede solitamente il blocco degli accessi e l’attivazione delle misure di sicurezza (isolamento degli ambienti, distacco della corrente, allerta del personale in servizio e delle forze dell’ordine ecc.); se però, a fronte di un falso positivo, dovesse essere impossibile per i soccorsi accedere al sito e assistere una persona colpita da un malore (o, in altra e diversa ipotesi, trasportare rapidamente un ferito al Pronto Soccorso), il proprietario dell’immobile e/o il fornitore del servizio di sicurezza si troverebbero nella sgradevole situazione di dover affrontare un problema di ordine morale e giuridico (fatto salvo il risarcimento dell’eventuale danno).

Un’altra potenziale minaccia può derivare dalla constatazione che negli algoritmi di apprendimento automatico (e precisamente nei meccanismi di analisi dei dati) è insita un’inevitabile fallacia: non esiste infatti, a oggi, un filtro sulle fonti diverso da quello valutato dagli stessi produttori e non c’è modo di disciplinare tutte le possibili variabili che verranno sottoposte all’attenzione del meccanismo di apprendimento. Inoltre, non è verosimile pensare di prevedere tutte le possibili interazioni tra un’esperienza e l’altra, né la loro interpretazione nell’insieme e il valore a esse attribuito rispetto agli eventi che dall’analisi di quelle esperienze saranno generati.

Intelligenza artificiale, un’etica da definire

Seguendo un’interpretazione codicistica, il responsabile del danno cagionato è il produttore del bene: infatti è lui a dover garantire che l’utilizzo corretto del bene non metta a repentaglio la sicurezza dell’utente. Ma quale garanzia può offrire il produttore nel caso di una reazione individuata dall’algoritmo come corretta rispetto a uno stimolo, il quale, a sua volta, viene interpretato da un meccanismo di apprendimento automatico e non sulla base di precise istruzioni fornite dal programmatore?

È evidente come il rischio che il produttore si assume con l’immissione del prodotto sul mercato sia molto elevato: un elemento di cui il giudice chiamato a valutare l’evento sarà per forza costretto a tenere conto. È quindi più che mai necessario, come i giuristi stanno segnalando da tempo, arrivare a una definizione dell’etica degli algoritmi, in modo da concedere a produttori e installatori (attualmente i soggetti più a rischio in caso di incidente) i margini necessari di sicurezza interpretativa.

Cosa significa? Bisognerebbe essere in grado, in caso di sinistro, di accertare fin dalle prime fasi se l’installazione e la programmazione del sistema di sicurezza - configurato per rispondere agli eventi in base al sito e ai valori rilevati dalle telecamere e dai sensori - abbiano influito sull’affidabilità dell’impianto. L’indagine dovrà poi estendersi al funzionamento dell’apparecchiatura, in modo da comprendere se il problema abbia avuto origine a partire da un segnale errato (che ha generato l’evento inaspettato effettivamente accaduto) o se alla luce delle istruzioni impartite il sistema abbia funzionato correttamente; in questo secondo caso, l’evento potrebbe essere considerato prevedibile e - in quanto tale - addebitabile al produttore.

Simili analisi, né semplici né poco costose, trovano un ulteriore limite nella mancanza di una disciplina dei log per quanto riguarda i sistemi di videosorveglianza e di allarme: è un altro tema su cui sempre più spesso si avverte l’esigenza di una regolamentazione, proprio per la difficoltà di reperire informazioni sul comportamento dei sistemi di videosorveglianza e di allarme, il cui monitoraggio è attualmente affidato alla sensibilità e alle esigenze (anche tecniche) del produttore.

Approfondire per applicare

Sono state svolte numerose ric erche sul tema dell ’AI per conoscere le opinioni delle persone riguardo al suo utilizzo a livello aziendale.

Secondo una serie di ricerche condotte sulle principali testate internazionali del settore da Espresso Communication per la community italiana Intelligenza Artificiale Spiegata Semplice, 8 americani su 10 (78%) ritengono che l’AI sia un terreno di caccia per malintenzionati.

A confermarlo è un recente report approfondito dal Boston Globe: nel dettaglio, la generazione più impaurita è quella dei boomer (83%), seguita da Gen X (81%), millennial (74%) e Gen Z (70%). Non è tutto: il 69% dei cittadini statunitensi è convinto che esistano grosse lacune in termini di conoscenze sull’intelligenza artificiale; si tratta di una situazione che va inevitabilmente a influenzare il mondo del lavoro e delle imprese.

Le prime indicazioni in merito arrivano da un sondaggio condotto da Deloitte: a livello globale il 22% delle aziende sta approfondendo le proprie AI knowledge, senza però metterle in pratica; allo stesso tempo, l’80% delle realtà coinvolte non è attrezzato per formare la propria forza lavoro e insegnare loro come utilizzare la tecnologia nel migliore dei modi. In Europa la situazione si conferma drastica: stando a quanto indicato da Eurostat, infatti, solo l’8% delle organizzazioni del Vecchio Continente utilizza tecnologie basate sull’AI. Tra queste, ben 7 multinazionali su 10 non sono in grado di applicare correttamente l’intelligenza artificiale in modo da accrescere il business e perfezionare l’operatività.

L’Italia, in questo scenario, si posiziona in coda alle classifiche: all’interno dell’approfondimento di Eurostat, il Paese risulta al di fuori della top 15 delle nazioni con il maggior numero di imprese “AI addicted”, mentre un’indagine del Politecnico conferma che ben il 94% delle imprese italiane non utilizza l’intelligenza artificiale.

Eppure, ormai l’unico limite è la fantasia: «Immaginiamo un mondo in cui le aziende collaborano con l’intelligenza artificiale per prendere decisioni strategiche utili alla crescita del business - dichiarano Giacinto Fiore e Pasquale Viscanti, fondatori di Intelligenza Artificiale Spiegata Semplice - È importante, però, concentrarsi sul valore offerto ai clienti, non dovendo rincorrere gli obiettivi di fatturato. L’IA non è un nemico, bensì un’innovazione avveniristica di cui siamo chiamati a fare tesoro al fine di rivoluzionare il presente e il futuro di tutte le principali industrie produttrici».

LASCIA UN COMMENTO

Inserisci il tuo commento
Inserisci il tuo nome