Venerdì, 12 Luglio 2024
E ora? Cosa (non) fare dopo il voto del Parlamento europeo sull’AI Act

In un precedente editoriale abbiamo affermato una tesi. Fra la ricerca scientifica, le applicazioni di mercato e la evoluzione normativa primaria i tempi sono diversi. Non possiamo chiedere a nessuna di queste istanze di provvedere da sola, in via univoca, alla garanzia della qualità della vita della società digitale. Qualità della vita significa innanzitutto rispetto dei diritti fondamentali e della garanzia della legalità.

Il regolamento europeo pone vincoli e congiuntamente apre potenziali finestre di riaffermazione e rivitalizzazione delle funzioni professionali di garanzia nella società digitale.

Quali azioni intraprendere?

La prima è quella di essere necessarie interlocutrici nella progettazione dei dispositivi telematici e informativi che intervengono fra persona e diritti/diritto, ovvero con i servizi di carattere giuridico.

La seconda è quella di prevedere a livello nazionale e nelle città un metodo – bussola – per la governance di quello spazio, accettando come premesse due condizioni fattuali (riteniamo) ineludibili: la sotto-determinazione delle azioni da parte delle norme; la indeterminatezza dell’esito derivante dalla combinazione di forme di normazione diverse – regolazione, legislazione, deontologia, prassi -; lo iato ineludibile fra design e uso dei dispositivi automatizzati o semi-automatizzati; la natura ormai composita del sapere esperienziale che deve compendiare standardizzazione e singolarità. L’idea di fondo che ispira oggi la creazione di norme per governare la automazione e l’intelligenza artificiale consiste nel ritenere che la normazione debba insistere soprattutto sulla fase della progettazione perché in tal modo si assicura una condizione necessaria alla tutela della fiducia del cittadino nelle istituzioni che attraverso quella progettazione vengono “aumentate”.

Riteniamo invece che una più ampia e articolata offerta di normazione debba essere mobilitata per governare questo nuovo spazio funzionale indeterminato dove l’esercizio del potere decisionale può – e deve – prendere forme inedite, che restano largamente in capo ai processi di utilizzo di intelligenze automatizzate, o di razionalità computazionali applicate.

Per questo se si ritiene che il nesso diritto-cittadino-fiducia debba essere rinnovato e riattualizzato, occorre che sia offerta una governance alla quale partecipano – in diversi segmenti del processo di design-use-assessment-reuse– diversi tipi di norme che rendono l’operato di medici, manager sanitari, imprese impegnate nella progettazione robotica, attori dei servizi giuridici, accountable rispetto a diversi parametri normativi, fra loro complementari, non mutualmente esclusivi.

L’articolazione di un possibile ciclo di governance deve poggiare su tre pilastri funzionali che fanno a loro volta intervenire le diverse forme di normatività che attengono sia alla deontologia, sia alla normatività tecnico-computazionale, sia ancora alla tutela della qualità dei dati, sia infine alla tutela degli operatori nel contesto della loro organizzazione professionale – sia essa pubblica, sia essa privata:

  1. La funzione di regolazione di qualità del design di cure, servizi, sistemi di trattazione dei dati;
  2. La funzione di applicazione e diffusione nel focus di un audit di carattere partecipativo che deve comportare anche la partecipazione delle parti della società che sono target di servizi e di cure;
  3. La funzione di formazione sia per i professionisti – in modo che si situino culturalmente all’interno del sistema sociale con tutte le domande di accountability che questo comporta – sia per il largo pubblico – nel quale si integrano anche i media.

Fare le regole, partecipare alla loro attuazione, osservarne i risultati ed essere impegnati attivamente nella loro revisione non sono profili astratti, avulsi dal reale, ma situazioni tipiche che vale la pena promuovere nei settori in cui altissima specializzazione – giustizia, medicina, logistica, energia e potremmo continuare – e altissima domanda di tutela di diritti finiscono per incontrarsi attraverso le interfacce di dispositivi tecnici, automazione, forme di intelligenza “altre” rispetto a quella umana, fondata sul sapersi mettere nella situazione altrui. Un piccolo decalogo su cosa fare e cosa non fare, per impegnarsi sul piano dei metodi, per incoraggiare i portatori di expertise tecnica e scientifica avanzate a farsi essi protagonisti di una visione di diritto e società che risponda ad un primo requisito, l’ascolto della persona.

Cosa fare (al tempo presente)

  1. Creare una arena di gioco a somma positiva in cui progettatori e fruitori di legal tech siano presenti e mutualmente impegnati;
  2. Creare una filiera di azione formativa che si innesta sulla produzione di contenuti a partire dalle prassi – soprattutto quelle più innovative e problematiche;
  3. Cogliere l’opportunità del sandboxing – apertura di candidature per svolgere ambienti di test nell’uso dell’IA;
  4. Prevedere formazione e alta cultura, anche con sessioni congiunte con professionisti di spazi e realtà artificiali virtuali aumentate;
  5. Presidiare la qualità del dato nel ciclo di vita del dato.

Cosa non fare

  1. Delegare, sub aspettativa di una cieca impersonalità, alla razionalità computazionale il controllo dell’esercizio del potere nella attuazione delle norme e nella creazione delle stesse;
  2. Espungere l’intelligenza artificiale dal perimetro delle priorità di cui si occupano attivamente e proattivamente le professioni del diritto;
  3. Negare o minimizzare l’asimmetria pubblico-privato che caratterizza la distribuzione di know how ed expertse altamente specializzato;
  4. Pensare che la temporalità evolutiva della norma giuridica sia allineata con quella dell’evoluzione della tecnologia;
  5. Sottovalutare il digital divide.