Venerdì, 14 Marzo 2025

L’entrata in vigore, il 1° agosto 2024, del Regolamento europeo sull’intelligenza artificiale è un evento istituzionale che determina per la natura sia dell’oggetto regolato sia del contesto regolante l’avvio di un lungo percorso nel quale non si tratterà soltanto di adeguare la normativa nazionale primaria e secondaria recependo gli istituti previsti dal Regolamento e adeguando laddove necessario il diritto nazionale al diritto euro-comune. Si tratterà anche – e come diremo soprattutto – di costruire capacità amministrative, istituzionali, organizzative, competenze professionali, tecniche e giuridiche, procedure e metodi condivisi, chiari e duraturi, in grado di assicurare il passaggio dalla norma scritta all’azione, in una prospettiva evolutiva.

Le parole chiave nella premessa da cui partiamo sono tre. La prima è quella di capacità. Una condizione che permette di agire. In questo contesto si tratta di metodi che, come vedremo, hanno a che fare con la nostra capacità di generare conoscenza sull’oggetto regolato. Sul quale torneremo fra qualche riga. La seconda parola chiave è condivisa. Il regolamento nasce dalla combinazione di molti interessi e diversi orientamenti strategici, ma il suo fil rouge è certamente quello di assicurare al mercato europeo una baseline, un campo di gioco equo e prevedibile – perché avente regole certe e condivise, appunto – entro cui imprese e governi possono muoversi. L’investimento nel settore del digitale sia per quanto attiene alla connettività via piattaforme e rete sia per quanto attiene alle tecniche applicate di intelligenza artificiale alla inedita e dirompente disponibilità di contenuti in formato “datificato” rappresenta di per sé una azione sfidante nella quale la incertezza del settore dipende anche dalla rapidità e dalla volatilità delle innovazioni stesse con gli annessi elementi di conflittualità che questo comporta – si pensi alle crescenti pronunce delle corti in materia. La terza parola chiave è evolutiva. È su questa che le riflessioni che seguiranno intendono portare una attenzione esplicativa e prospettica. L’evolutività, lo si è già detto in diverse sedi, è intrinseca alla ricerca scientifica e tecnica in materia di IA. Tuttavia l’elemento che maggiormente coinvolge la funzione notarile per la sua duplice essenza privatistica e pubblicistica è quello che discende direttamente all’obbligo previsto dal Regolamento di valutazione preventiva di impatto sui diritti fondamentali di qualsiasi strumenti che si avvalga dell’IA – anche in via integrativa e non assoluta – che sia classificato ad alto rischio.

L’elemento valutativo dell’agire istituzionale rappresenta dunque la definizione di un amplissimo orizzonte futuro nel quale vanno costruite sia le griglie, sia le competenze, sia le routine affinché l’oggetto della valutazione – l’impatto dell’IA – sia sempre nel perimetro di ciò che possiamo conoscere, misurare e, conseguentemente, governare. In altri termini, ancora una volta ma per strada diversa, il Regolamento europeo sull’IA mette l’accento – e lo fa in modo unico al mondo – sulla governance attraverso i dati, il che significa che la governance dei dati sarà ipso facto egualmente strategica ed importante.

Il senso comune

Essere capace. Avere la forza. Ossia avere il potere di influenzare le cose. Valutazione è un concetto che porta con sé la premessa di un impegno ad accettare una premessa a sua volta molto densa di conseguenze ed una responsabilità. Si tratta della premessa secondo la quale esiste una capacità e una forza e che sia possibile misurare entrambe con una metrica che è condivisa, comunicabile e non arbitraria. Quando alla valutazione si associa l’impatto allora quella metrica si riferisce a qualcosa di più specifico, ossia si stratta dello standard con cui rilevare quanta influenza si è riusciti ad esercitare con quella capacità e quella forza. Perché questo sia possibile occorre accettare il presupposto secondo cui l’impatto è finito, ossia è possibile identificare un momento nel tempo in cui quell’impatto è rilevabile come qualcosa di chiaro, non arbitrario, di diverso per un “delta” di differenza da quanto c’era in precedenza.

Della valutazione di impatto oggi si avvalgono tutte le forme di progettualità, tutte le forme di rendicontazione, ed in generale tutte le forme di razionalità tecnica che si applicano a processi di cambiamento, siano essi di carattere innovativo tecnologico, siano essi di carattere giuridico ed amministrativo, siano essi di carattere economico e sociale. Laddove c’è un atto di indirizzo – l’esercizio di una capacità – che avvia un cambiamento con uno strumento – una norma, un investimento economico-finanziario, un programma di formazione – e che per giustificare, spiegare, rendicontare, ma anche adattare e ridefinire eventualmente quell’atto di indirizzo c’è un atto di valutazione dell’impatto.

Nel contesto delle politiche di innovazione tecnologica e di progettazione, sviluppo e diffusione di dispositivi che si avvalgono di tecniche di intelligenza artificiale e di forme di connettività integrata la valutazione di impatto ha assunto una particolare rilevanza, non solo per il dimensionamento globale dell’impatto – diretto o indiretto – ma anche per la imprevedibilità delle evoluzioni tecnologiche che dipendono largamente dai progressi della ricerca scientifica e dalle capacità degli sviluppatori di identificare potenziali di profitto nella commercializzazione dei prodotti e dei servizi che quella ricerca integrano. Ma vi è un ulteriore e dirimente aspetto legato proprio alla valutazione dell’impatto, che emerge in modo eclatante quando si parla di intelligenza artificiale o meglio di forme dell’intelligenza artificiale.

Se infatti l’impatto di un indirizzo politico e di una azione di policy è da intendersi come l’effetto di cambiamento che essi riescono ad ottenere, la natura particolare dell’agire integrando l’IA implica che esso vada con certezza ad influenzare anche il nostro grado di capacità e la nostra forza – nostra come società, come istituzioni e come persone – di tutelare le fondamenta del nostro vivere civico economico sociale e politico, ossia i diritti della persona e le libertà fondamentali. Quindi, la misurazione dell’impatto di cui oggi si parla a tutti i livelli istituzionali – nelle sedi delle Nazioni Unite, a livello europeo, in sede OCSE, in Italia e nelle diverse professioni – è quella che riguarda il quantum di cambiamento indotto dall’IA sulla tutela dei diritti. Si tratta di un quantum che deve essere misurato perché solo misurandolo siamo in grado di controllare il rischio di utilizzare l’IA in modo lesivo rispetto alla garanzia di tutela dei diritti fondamentali.

Si noti che nella ricerca scientifica che riguarda in modo generale la valutazione dell’impatto si tiene in considerazione sia l’impatto volontario ovvero intenzionale sia quello che si genera in modo non intenzionale. La ragione per cui si misurano entrambi è importante ed assume una diversa configurazione a seconda dei due casi. Quando si misura l’impatto intenzionale si cerca di suffragare e giustificare il dispiego di risorse politiche economiche e cognitive/informative. La misurazione serve allora ad argomentare nel senso di sostenere l’efficacia di quello sforzo o atto di indirizzo e la sua validità strumentale – ottenere l’obiettivo che si è prefissato. Quando si misura l’impatto non intenzionale si cerca di gestire l’incertezza e la possibilità di errore ovvero di ridurre rischi o effetti negativi che possano scaturire dal fatto stesso di innescare un processo di cambiamento. Quindi quando si misura l’impatto non intenzionale si cerca di apprendere ad adattare il processo di cambiamento. Le due ragioni della valutazione sono diverse, l’una è di rendicontazione di policy, l’altra è di adattamento e/o apprendimento.

Se si applicano questi aspetti generali che la letteratura scientifica ha largamente sviluppato nel corso del XX secolo soprattutto in relazione alle cosiddette policy regolative, quelle che creano nuove regole per orientare cambiamenti di comportamento o di opportunità di crescita o di mitigazione di un rischio, alla sfida portata alle nostre società democratiche dall’intelligenza artificiale allora si comprende tutta l’importanza del conoscere i due strumenti di misurazione dell’impatto che ad oggi sono presenti nella letteratura istituzionale: la FRIA e l’HUDERIA.

Il Regolamento Europeo sulla IA

La Fondamental Right Impact Assessment (FRIA) viene inserita nell’AI ACT, all’articolo 29, con lo specifico obiettivo di assicurare tre beni pubblici fondamentali:

  • La omogeneità della regolazione e della prevenzione dei rischi a livello europeo per tutti gli usi di sistemi ad alto rischio
  • La fiducia dei cittadini nelle azioni di supporto, diffusione e utilizzo di questi ultimi
  • La  credibilità delle istituzioni regolative che sarebbero, nella cosiddetta ipotesi “zero” – ossia senza quello strumento regolativo inserito all’AI act come FRIA – nella condizione rischiosa (dove si intende qui rischiosa politicamente) di dovere svolgere un insostenibile organizzativamente parlando sforzo di continuo controllo senza potersi avvalere di alcuna forma di collaborazione e di logica principale-agente nei confronti degli attori che sviluppano, adottano, utilizzano e diffondono strumenti di IA.

Poiché è evidente che ogni strumento ha i suoi limiti oltre ai suoi vantaggi occorre comprendere che tutta la sfida della capacità della FRIA di funzionare da baluardo dinnanzi al potenziale rischio indotto dall’IA è legata alla messa in essere di due condizioni pratiche ed operative:

  • La disponibilità di un “metro” per misurare l’impatto
  • La accettazione di tale metro e di coloro che lo utilizzano da parte di tutti gli attori dell’ecosistema.

In altri termini, perché la FRIA possa opportunamente funzionare una delle condizioni essenziali è quella di disporre sia di metodi di valutazione condivisi – altrimenti si rischierebbe la arbitrarietà o comunque la disomogeneità fra casi di uso – sia di dati su cui elaborare tale valutazione. Si tratta di dati che riguardano gli aspetti del grande prisma che noi chiamiamo diritti fondamentali. Fra questi la tutela dei dati personali occupa certamente uno spazio cruciale e vitale.

La FRIA si applica innanzitutto – ma non solo – in via preventiva. In altri termini essa è intesa, fra le altre cose, come lo strumento che permettendo di mostrare di non essere lesivi dei diritti fondamentali, si è giustificati rispetto alle norme di tutela della rule of law e della democrazia a impiegare risorse per sviluppare e diffondere in contesti d’uso specifici l’IA o sue applicazioni o insiemi di sue applicazioni.

Le differenze tra FRIA e HUDERIA

Lo Human Rights Democracy and Rule of Law Impact Assessment è lo strumento adottato dal Consiglio d’Europa per mettere sviluppatori ed utilizzatori insieme con tutti gli stakeholder dell’ecosistema IA – quindi lungo tutto il ciclo di vita dell’uso – di disporre di uno strumento condiviso per misurare, mitigare, imparare ed adattare rispetto all’utilizzo dell’IA o sue forme nell’agire sociale, economico, istituzionale: “La metodologia HUDERIA è specificamente studiata per proteggere e promuovere i diritti umani, la democrazia e lo stato di diritto. Può essere utilizzato da attori sia pubblici che privati ​​per contribuire a identificare e affrontare i rischi e gli impatti sui diritti umani, sulla democrazia e sullo Stato di diritto durante l’intero ciclo di vita dei sistemi di IA. La metodologia prevede la creazione di un piano di mitigazione del rischio per minimizzare o eliminare i rischi identificati, proteggendo il pubblico da potenziali danni”. Nelle parole dello stesso Consiglio d’Europa si nota lo spostamento dell’accento sulla questione degli impatti non volontari che possono scaturire dal fatto che una innovazione adottata non resta eguale a sé stessa nel corso del ciclo di vita del suo uso e pertanto qualora generasse effetti non previsti – e non prevedibili – ex ante è soggetta ad un regolare esercizio di valutazione di impatto in itinere. Continua il Consiglio d’Europa: “Se, ad esempio, un sistema di intelligenza artificiale utilizzato nelle assunzioni si rivelasse distorto rispetto a determinati gruppi demografici, il piano di mitigazione potrebbe comportare l’adeguamento dell’algoritmo o l’implementazione della supervisione umana. La metodologia richiede rivalutazioni regolari per garantire che il sistema di intelligenza artificiale continui a funzionare in modo sicuro ed etico man mano che il contesto e la tecnologia si evolvono. Questo approccio garantisce che il pubblico sia protetto dai rischi emergenti durante tutto il ciclo di vita del sistema di IA”.

Dal punto di vista della concreta attività di prevenzione tutela e garanzia che le istituzioni notarili svolgono sia nei confronti della funzione notarile e dell’esercizio della professione sia nei confronti della società democratica italiana e del buon funzionamento del settore pubblico i due strumenti, FRIA e HUDERIA, sono fondamentali e vanno intesi in modo integrato. Se infatti il primo si applica innanzitutto in via preventiva è soprattutto al secondo che si affida la capacità di gestire nel corso di vita dell’utilizzo delle innovazioni la continua ridefinizione di baluardi e tutele o di mitigazione dinnanzi ai rischi.

Entrambe, tuttavia, necessitano di tre condizioni di fattibilità:

  • La disponibilità di metri di misurazione dell’impatto e la sua condivisione a livello istituzionale centrale e diffuso sul territorio
  • Il monitoraggio anche e soprattutto attraverso il dialogo con la realtà quotidiana di utilizzo perché da quella possono arrivare input che permettono di adattare e apprendere meglio come tutelare
  • La consapevolezza della importanza della valutazione dell’impatto che non deve restare un esercizio tecnocratico a latere ma deve diventare una forma di professionalità dedicata.