Martedì, 12 Novembre 2024
L’intelligenza artificiale tra sviluppo tecnologico e regolamentazione: una prima lettura dell’AI ACT

A seguito delle delibere di approvazione assunte il 13 marzo 2024 dal Parlamento Europeo e il 21 maggio 2024 dal Consiglio dell’Unione Europea, il Regolamento UE sull’intelligenza artificiale n. 1689/2024 – meglio conosciuto come “AI ACT” – è stato pubblicato sulla Gazzetta Ufficiale UE il 12 luglio 2024, con entrata in vigore dal 2 agosto 2024.

È il primo provvedimento normativo al mondo dedicato all’utilizzo dei sistemi di intelligenza artificiale. Una scelta, quella delle Istituzioni Europee, chiaramente finalizzata alla tutela dei diritti della persona: i principi sanciti nell’AI ACT rispondono ad un approccio etico e “umano-centrico” dal quale discendono regole basate sulla valutazione del rischio (come è già avvenuto per altri provvedimenti normativi europei, primo tra tutti il GDPR).

La struttura logica – e quindi quella precettiva – del Regolamento si basano sulla classificazione di quattro “livelli di rischio”. Più forte è il pericolo insito nell’utilizzo di un sistema di AI, maggiori saranno le responsabilità di chi lo sviluppa e di chi lo usa:

  1. al rischio “inaccettabile” corrisponde il divieto di fare uso di sistemi di intelligenza artificiale;
  2. in presenza di un rischio “alto“, l’utilizzo dei sistemi di AI deve essere preceduto da una valutazione di conformità ad una serie di requisiti (cybersicurezza, tracciabilità, possibilità di una attività di sorveglianza da parte dell’uomo, accuratezza) e da una valutazione dell’impatto sui diritti delle persone; e deve essere accompagnato dalla pubblicità operata attraverso la registrazione in una apposita banca dati;
  3. se il rischio è “limitato” è sufficiente che i produttori, i distributori e gli utilizzatori dei sistemi di AI rispettino determinati obblighi di informazione e di trasparenza;
  4. se, infine, il rischio può definirsi “minimo” o “nullo”, l’utilizzo dell’intelligenza artificiale è libero da vincoli.

Per capire in che misura tutto questo interessi il Notariato e i notai, è importante concentrare l’attenzione su due categorie di sistemi di intelligenza artificiale.

In primo luogo, sono definiti “ad alto rischio” i sistemi che possono esporre a rischi significativi non solo la salute, ma anche la sicurezza, i diritti fondamentali delle persone, la democrazia, lo Stato di diritto e le libertà individuali. Tra i secondi l’art. 6 del Regolamento include espressamente i sistemi utilizzabili nei settori “dell’amministrazione della giustizia e della pubblica amministrazione, quando idonei ad incidere sulla salute, sulla libertà e sui diritti fondamentali dei cittadini“.

Se si pensa alla funzione che i notai di civil law esercitano a beneficio delle persone e delle famiglie nella realizzazione di alcuni loro diritti fondamentali (anche, ma non solo, di natura patrimoniale) e nell’amministrazione della giustizia non contenziosa, il collegamento tra l’utilizzo nell’attività notarile di sistemi di intelligenza artificiale e la ricorrenza di un “alto rischio” nell’accezione fatta propria dall’AI ACT appare evidente.

In secondo luogo, è importante sottolineare come regole specifiche siano dettate per i c.d. “modelli di IA per scopi generali” (General Purpose Artificial Intelligence, GPAI). Si tratta di algoritmi in grado di svolgere più di un compito, i quali possono costituire sistemi ad alto rischio e quindi ricadere nella relativa disciplina. Pensando all’attività esercitata dai notai, le regole previste per i GPAI varrebbero per l’utilizzo di sistemi c.d. “generativi” (dei quali Chat-GPT rappresenta l’esempio più conosciuto).

Le Istituzioni Europee, nell’iter preparatorio dell’AI ACT, si sono preoccupate di conciliare diverse esigenze, prevedendo deroghe ai divieti e ai limiti laddove i sistemi di intelligenza artificiale siano utilizzati per “attività di contrasto” (prevenzione, indagine, accertamento o perseguimento di reati; esecuzione di sanzioni penali; contrasto a minacce contro la sicurezza pubblica). Esiste una procedura “di urgenza” che consente alle autorità di contrasto di usare sistemi ad alto rischio che non hanno superato la procedura di valutazione preventiva.

In questi casi, tuttavia, si prevedono specifici rimedi per garantire che i diritti fondamentali siano sufficientemente protetti da eventuali abusi. Assume grande rilevanza, a tale proposito, il tema della identificazione biometrica remota in tempo reale in spazi accessibili al pubblico, consentita in via eccezionale solo al fine della ricerca di vittime di determinati reati; di prevenzione di minacce reali, presenti o prevedibili (es. attacchi terroristici); ricerca di persone sospettate di avere commesso reati gravi.

L’adozione dell’AI ACT è solo il primo dei provvedimenti che le Istituzioni UE adotteranno per regolamentare la materia. E’ stato infatti costituito un AI OFFICE interno alla Commissione, con il compito di esaminare i sistemi di intelligenza artificiale, di promuovere standard e buone pratiche e di predisporre regole comuni da applicare in tutti gli Stati membri. Questo ufficio sarà affiancato da un Comitato Scientifico composto di esperti indipendenti, con funzioni di supporto e di consulenza, che sarà a sua volta coadiuvato da un Forum consultivo al quale parteciperanno esponenti del mondo industriale, della società civile e dell’Università.

Per i primi mesi del 2025 è attesa l’emanazione di un Regolamento sugli utilizzi proibiti dell’AI e alla fine dello scorso mese di settembre sono state composte le commissioni incaricate di redigere il “Code of Practice for the AI ACT”.

La decisione di regolamentare la materia che l’Unione Europea ha adottato per prima ispira il legislatore italiano: lo scorso 20 maggio è stato presentato – per iniziativa del Presidente del Consiglio dei Ministri e del Ministro della Giustizia – un Disegno di Legge (atto n. 1146 – Senato della Repubblica) intitolato “Disposizioni e delega al Governo in materia di intelligenza artificiale”. In attesa di conoscerne l’esito, si può osservare la piena coincidenza tra i principi sanciti dall’AI ACT e quelli espressi nell’art. 3 del DDL italiano; rispetto dei diritti fondamentali e delle libertà previste dalla Costituzione, del diritto UE e dei principi di trasparenza, sicurezza, proporzionalità, protezione dei dati personali, non discriminazione, sostenibilità. Un accento particolare viene dato al rispetto dell’autonomia e del potere decisionale dell’uomo.

L’approvazione dell’AI ACT ha suscitato da subito un acceso dibattito: da un lato, coloro per i quali regolamentare l’utilizzo dell’intelligenza artificiale sarebbe inutile e persino dannoso per la competitività delle economie europee; dall’altro, chi ritiene la regolamentazione necessaria e anzi troppo debole nella difesa dei diritti fondamentali delle persone.

Una soluzione al dilemma può essere trovata nelle parole usate da Padre Paolo Benanti in un commento apparso su Avvenire il 15 marzo 2024 (due giorni dopo il voto del Parlamento Europeo): il teorico dell’algoretica scrive che “l’approvazione dell’AI ACT non è soltanto un fatto storico ma un momento esemplare di un’Europa che vuole mettere al centro la dignità umana”. E prosegue, attraverso il paragone con un’altra rivoluzione tecnico-culturale che cambiò l’umanità, ricordandoci che “quando abbiamo sviluppato macchine più veloci degli uomini – le automobili – abbiamo scritto il Codice della Strada, non per limitare la libertà delle persone o per uccidere il mercato dell’auto (anzi…) ma per evitare incidenti in cui la macchina producesse vittime umane. Guardrail, patenti e targhe sono serviti a renderci liberi di andare dove volevamo diminuendo rischi e pericoli. L’AI ACT come dispositivo di un’Europa che mette al centro la persone e il suo valore è come il Codice della Strada, una protezione di ciò che veramente vale: la vita e la libertà degli europei”.

La (buona) regolamentazione come fattore di promozione della libertà nel rispetto dei diritti fondamentali: una realtà che i notai conoscono bene e che i Notariati europei sapranno mettere al centro della loro azione istituzionale e politica.