Dopo 36 ore di negoziati Parlamento e Consiglio si accordano. Vietato il riconoscimento biometrico, salvo tre eccezioni. Alcuni aspetti sono demandati agli incontri tecnici. Ed è qui che le ong per i diritti digitali suggeriscono di guardare.
L'AI Act è realtà. Il pacchetto europeo di regole sull'intelligenza artificiale è stato approvato. Dopo una maratona di 36 ore, Parlamento e Consiglio europeo hanno raggiunto un accordo che dota i 27 Stati dell'Unione della prima legge al mondo che affronta in maniera complessiva lo sviluppo del settore. A portare i negoziati vicino a un punto di non ritorno è stata la discussione sugli usi ammessi e vietati dell'intelligenza artificiale da parte delle forze dell'ordine. Dal riconoscimento biometrico in tempo reale fino alla polizia predittiva. Il Parlamento difendeva la sua linea per il blocco totale. Il Consiglio invece, espressione degli Stati, spingeva per un approccio più permissivo.
Ed è questo scontro ad avere tenuto sotto scacco l'AI Act. Al punto che, mentre i diplomatici erano chiusi nelle stanze dei negoziati, oltre 60 persone, tra accademici e ricercatori in ambito privacy e tutela dei diritti digitali, hanno firmato una lettera aperta lampo per chiedere al Parlamento di non fare passi indietro sui divieti per l'uso dell'intelligenza artificiale.
I 2 ostacoli che bloccano l'accordo sull'AI Act, il regolamento europeo sull'intelligenza artificiale
Riguardano i modelli fondativi alla base di grandi sistemi di AI e il ricorso alla sorveglianza biometrica e alla polizia predittiva. E alimentano il braccio di ferro tra il Parlamento e il Consiglio.
Il braccio di ferro sulla sorveglianza
L'uso dell'AI per scopi di polizia è stato l'aspetto più controverso e divisivo. Tanto che si è mangiato 20 ore di negoziato. Il Consiglio non voleva chiudere la porta per sempre alla possibilità di usare l'intelligenza artificiale per analizzare grandi moli di dati, identificare le persone, fare riconoscimento biometrico in tempo reale. Fino ad arrivare alla polizia predittiva. Ossia usare gli algoritmi per prevedere le probabilità con cui può essere commesso un reato, da chi e dove. A guidare il drappello per ammorbidire la legge erano Italia, Ungheria e Francia, che in vista delle Olimpiadi di Parigi del 2024 ha avviato un capillare sistema di AI per la sicurezza.
L'opposizione del Parlamento ha retto in gran parte. Il riconoscimento biometrico è stato vietato, salvo in tre casi, come ha spiegato il commissario al Mercato interno, Thierry Breton alla conferenza finale: “Prevista ed evidente minaccia di attacco terroristico; ricerca di vittime; persecuzione di seri crimini”. “Le eccezioni per le forze dell'ordine prevedono salvaguardie più forti del testo iniziale della Commissione per non avere abusi - ha detto Dragos Tudorache, correlatore del testo per conto del Parlamento -. È stata la parte più combattuta”.
Brando Benifei, relatore del testo, ha detto che “il riconoscimento delle emozioni è proibito”. “Abbiamo chiare indicazioni sui casi d'uso vietati che non sono ammessi in Europa, come la polizia predittiva, il social scoring e il riconoscimento biometrico”, ha poi agggiunto, precisando che “è permesso usare i cosiddetti sistemi di analisi dei crimini, ma senza che siano applicati a specifici individuai ma solo a dati anonimi e non devono indurre a pensare che qualcuno abbia commesso un crimine”. È inoltre prevista una notifica nei casi d'uso alle autorità indipendenti chiamate a sovrintendere al settore.
Il dossier è molto complesso e comprende, oltre all'identificazione biometrica da remoto, sistemi di intelligenza artificiale ad alto rischio da parte della polizia, le eccezioni per le forze dell'ordine, quelli per motivi di sicurezza nazionale, il divieto di esportazioni di tecnologie, anche nate in ambito civile, per applicazioni rischiose, che potrebbero mettere a rischio i diritti fondamentali di paesi terzi.
Italia, Francia e Germania vogliono bloccare alcune regole sull'intelligenza artificiale
I tre paesi si sono messi di traverso ai controlli sui modelli fondativi e così rischiano di far saltare il tavolo sull'AI Act. Una lettera di esperti chiede di fare un passo indietro.
La questione dei modelli fondativi
L'altro punto delicato sul tavolo era la regolazione dei modelli fondativi (foundational models). Ossia quelle forme di intelligenza artificiale generali in grado di svolgere compiti diversi (come creare un testo o un'immagine) e allenati attraverso un'enorme mole di dati non categorizzati, come GPT-4, alla base del potente chatbot ChatGPT, o LaMDA, dietro Google Bard. Il secondo riguardava gli usi ammessi e quelli proibiti dei sistemi di intelligenza artificiale da parte delle forze dell'ordine. Dal riconoscimento biometrico in tempo reale fino alla polizia predittiva. In entrambi i casi, la distanza tra Parlamento e Consiglio era siderale.
Nel caso dei modelli fondativi, la proposta da discutere consisteva in due livelli di inquadramento di questi sistemi. E, di conseguenza, di obblighi da rispettare. La proposta crea due corsie. Da una parte le cosiddette AI ad alto impatto, identificata da un potere di calcolo pari a 10^25 FLOPs (floating point operations per second, un'unità di misura della capacità computazionale). Al momento, solo GPT-4 di OpenAI rispetterebbe questa caratteristica. All'AI ad alto impatto la legge comunitaria richiede una applicazione ex ante delle regole su sicurezza informatica, trasparenza dei processi di addestramento e condivisione della documentazione tecnica prima di arrivare sul mercato. Al di sotto si collocano tutti gli altri foundational models, di più piccolo cabotaggio. In questo caso l'AI Act scatta quando gli sviluppatori commercializzano i propri prodotti. “Abbiamo scelto un indicatore non di fatturato che non identifica solo le aziende più grandi, ma riconosce dall'ampio impatto i modelli che possono essere porre i maggiori i rischi”, ha detto Carme Artigas, segretaria di Stato all'innovazione del governo spagnolo (che aveva la presidenza del Consiglio europeo). Da queste previsioni sono esclusi i modelli destinati alla ricerca.
L'architettura ricalca quella del Digital services act (Dsa), che ha imposto per prime a 19 grandi piattaforme online i suoi obblighi su controllo dei contenuti online e limitazione della profilazione, mentre per tutti gli altri operatori diventerà operativo dal 2024. L'impostazione sembrava aver messo d'accordo Parlamento e Consiglio, finché Francia, Germania e Italia si sono opposte, tenendo l'AI Act sotto scacco per qualche settimana. Alla fine gli Stati sono tornati sui loro passi. “È stato un elemento discusso nelle ultime settimane, ma alla fine è stato inserito”, il commento di Benifei.
Non abbassare la guardia
L'AI Act prevede anche strumenti per rafforzare il copyright e richiedere trasparenza sui contenuti generati dagli algoritmi. Ci saranno 24 mesi di tempo per il pieno dispiegamento delle sue funzioni, ma solo sei per proibire gli usi vietati. E ci sarà una conformità volontaria, il cosiddetto AI Pact, che permetterà alle aziende di adeguarsi all'AI Act prima che diventi pienamente operativo. È stato creato un ufficio europeo dedicato all'intelligenza artificiale, incardinato presso la direzione generale Connect della Commissione (preposta al digitale) per sovrintendere all'applicazione della legge. E sono previste eccezioni per le piccole e medie imprese e la creazione di ambienti di test esenti dalla regole (i cosiddetti regulatory sandbox) per favorire l'innovazione.
Nonostante l'accordo, il lavoro sull'AI Act non è finito. Usciti di scena i politici, restano nella stanza i tecnici a limare il fraseggio dei documenti. Ed è questo labor limae che potrebbe scavare piccoli fori nelle barriere di salvaguardia presentate alla stampa. Le associazioni che si occupano di diritti digitali invitano a contenere gli entusiasmi prima di aver letto il testo nella sua interezza, per scovare dettagli che potrebbero aprire la porta sul retro a sistemi intrusivi di controllo, sorveglianza alle frontiere ai danni di migranti e altre forme di polizia tecnologica. La partita, insomma, non è ancora finita.