AI e trattamento dei dati personali: nel mezzo del cammino

Immagine di freepik

È necessario perseguire un utilizzo sicuro e responsabile dell’AI nel campo della protezione dei dati personali.

Lo sviluppo dell’in­telligenza artificiale crea interesse ma anche inquietudine negli operatori del campo del­la protezione dei dati. L’etica dovrebbe governarne l’impie­go, ma le imprese perseguono il profitto, dunque servono regole chiare e applicabili, nonché controlli efficaci.

È ciò che emerge dal sondaggio Fe­derprivacy condotto su 803 addetti ai lavori. Il 78,3% dei partecipanti concorda sulla ne­cessità di trovare un equilibrio tra rispetto della privacy degli individui e apertura all’inno­vazione, mentre il 73,9% ritiene che gli attuali profili sanziona­tori siano adeguati, ma occorre farli rispettare. Solo il 4,1% ri­tiene che si debba aumentare l’entità delle sanzioni, e il 21,6% pensa che si debbano adottare misure punitive diverse, tra cui provvedimenti penali.

Il punto sull’impatto della normativa

Il Gdpr, secondo il 29% dei ri­spondenti, non ha cambiato le cose, mentre il 63,5% afferma che la situazione generale della compliance è migliorata, anche grazie alle sanzioni più severe. Come emerge dall’indagine, l’aspetto negativo di questo regolamento è la scarsa atten­zione alle Pmi e microimprese (56,9%), anche se per il 32,6% degli operatori il suo pregio consiste proprio nell’aver de­finito regole uguali per tutti.

Il parere sui numerosi rego­lamenti emanati dall’Unione Europea è controverso: Digital Services Act (DSA), Data Go­vernance Act (DGA), Data Act (DA), Artificial Intelligence Act (AI Act), Digital Market Act (DMA), Cyber Resilience Act (CRA) per il 6,4% degli addetti ai lavori sono una complicazio­ne aggiuntiva e non promuo­veranno la compliance (27%), ma c’è un 40,2% di risposte che invece esprime fiducia nella possibilità che questo succeda.

Rispetto alla AI, ciò che secon­do il 55,2% dei rispondenti ne garantirebbe la sostenibilità, è la possibilità per gli utenti di ottenere l’intervento umano. Il 35,8% mette in cima alle pri­orità la garanzia concreta dei diritti delle persone, e l’8,8% il tempestivo intervento delle autorità di tutela.

I rischi sono l’erosione dei di­ritti fondamentali (50,5%), la sorveglianza eccessiva (49,4%), la paralisi generalizzata in ca­so di blackout (40%), l’obbligo di usare l'AI senza alternati­ve, con il rischio di rimanere esclusi (37,3%) o di discrimi­nazioni (26,8%).

In cerca di etica e garanzie

Come favorire la sostenibilità tecnologica? Prima di tutto mettendo l’uomo al centro (70,1%), in maniera etica. Poi promuovendo l’educazione digitale (66,6%), l’uso etico dell'AI (63%) e garantendo l’in­clusione (30,1%).

La strategia più efficace per ottenere più legalità è quella che punta su codici di condotta, certifica­zioni e modelli di privacy by design (66,3%), e sull’aumento delle attività ispettive del Ga­rante per la protezione dei dati personali (43,2%). Importante anche la cooperazione con autorità estere (33,1%).

A con­clusione del sondaggio, il 71,8% dei partecipanti pensa che la AI porti certamente opportu­nità, ma altrettanti grattacapi.




LASCIA UN COMMENTO

Inserisci il tuo commento
Inserisci il tuo nome