L’Intelligenza Artificiale sembra sempre più permeare la vita di tutti i giorni: dai sistemi integrati nei nostri smartphone, ai navigatori delle auto sempre più avanzati fino ad arrivare ai veri e propri LLM sempre più in uso nelle realtà professionali. Se da un lato, quindi, è molto semplice utilizzarla, dall’altro, l’intelligenza artificiale, è meno intuitivo definirla. In sintesi, potremmo dire che essa è la capacità di un sistema informatico di mostrare doti che consideriamo umane: ragionare, apprendere, pianificare e persino essere creativo.
Sebbene possa risultare apparentemente spiazzante, l’idea che possa esistere una sorta di “cervello artificiale” non è affatto recente. Tutto ha inizio nei primi anni ’40 con la teorizzazione della prima rete neurale. Dopo i primi successi, come lo sviluppo dei primi “neuroni artificiali” e di semplici chatbot (come “Eliza” negli anni ’60, che simulava in chiave parodistica la conversazione tra paziente ed un terapista), la tecnologia ha affrontato due lunghi periodi di stasi, noti come “inverni dell’IA”. Erano fasi di scetticismo e tagli ai fondi, in cui l’IA non riusciva a mantenere le promesse attese.
Una tappa che potremmo definire iconica arrivò nel 1997, quando Deep Blue di IBM, un supercomputer dalle notevoli dimensioni, sconfisse il campione del mondo di scacchi Garry Kasparov. La tecnologia dell’epoca, tuttavia, si basava sulla predeterminazione di regole su base umana: compito dei programmatori umani era quindi quello di stabilire come dovesse comportarsi la macchina in una determinata situazione attraverso la codifica minuziosa di regole c.d. “if-then-else”.
La vera rivoluzione inizia però negli anni 2000 quando con l’avvento del Machine Learning (apprendimento automatico) e del Deep Learning (apprendimento profondo) i sistemi si affrancano dalla predeterminazione di regole grazie all’analisi di pattern simili presenti in enormi quantità di dati.
Questo ci porta a una distinzione fondamentale, quella tra due approcci principali:
- da un lato vi è l’IA Deterministica: si tratta di sistemi affidabili e precisi, ma rigidi che non possono generare nulla al di fuori delle regole pre-programmate. L’esempio è Deep Blue che a fronte di uno stesso input (una posizione sulla scacchiera), genererà sempre lo stesso identico output (la mossa migliore);
- dall’altro c’è l’IA Statistica, che è flessibile, “comprende” il contesto e può generare testi, immagini e musica. Questa flessibilità, tuttavia, ha un costo in termini di affidabilità assoluta: le risposte tenderanno statisticamente verso la correttezza, ma in una certa misura c’è il rischio che il sistema sbagli. È quella ad es. dei modelli linguistici avanzati, che a fronte di uno stesso input (ad es. una domanda), genereranno quasi sempre output diversi (nella forma ed a volte, come si vedrà meglio nel prosieguo, anche nella sostanza).
I modelli statistici, infatti, possono incorrere in errori: il primo è l’allucinazione che si verifica quando l’IA, non trovando la risposta corretta nei suoi dati o interpretando male il contesto, “inventa” una risposta che sembra plausibile ma è di fatto errata (può ad es. citare un libro inesistente o descrivere un evento storico mai accaduto); il secondo, e più grave, è il bias (pregiudizio) che si verifica quando le IA apprendono da una grande mole di dati che viene loro fornita. I database di grandi dimensioni possono avere al loro interno degli sbilanciamenti sia espliciti (quando ad es. sono formati anche mediante l’utilizzo di conversazioni umane sui social che contengono frasi discriminatorie) che impliciti (quando la discriminazione avviene a causa del fatto che una determinata idea non è adeguatamente rappresentata nel dataset di addestramento costituendo quindi una minoranza).
Pertanto, quando i dati sono sbilanciati o riflettono i nostri pregiudizi, l’IA li apprenderà e li replicherà: per esempio, se un sistema di riconoscimento facciale per finalità di pubblica sicurezza venisse addestrato principalmente su volti di una specifica etnia, commetterebbe molti più errori nel riconoscere persone di etnie diverse, con conseguenze che potrebbero essere discriminatorie.
Se da un lato, dunque, l’IA può incorrere in errori a causa dei dati di addestramento, può succedere, parimenti che le risposte non siano corrette a causa dell’incapacità dell’utente di approcciarsi ad un utilizzo corretto. Spesso, infatti, questi strumenti vengono utilizzati in modo improprio, in quanto ci si aspetta che comprendano l’intento implicito dell’utilizzatore. Il segreto per ottenere risultati efficaci è capire che non si sta semplicemente facendo una ricerca su un classico motore di ricerca e che sarebbe sicuramente più congeniale formulare un comando preciso, orientato al risultato: un prompt. Una volta appreso ciò infiniti possono essere i campi di utilizzo, anche in ambito professionale. Gli unici limiti potranno essere solo la potenza dei modelli e la fantasia dell’utente.
Il tema dello sbilanciamento può essere utile per comprendere se quindi il modello statistico può essere utile al giurista al pari di un modello deterministico, considerando che solo quest’ultima tipologia assicura risultati certi, mentre, come visto, l’IA statistica soffre in una certa misura la tendenza all’errore. Se, quindi, al giurista servono per definizione sempre risposte affidabili, come si può affermare al contempo che l’IA statistica possa essere sua fedele alleata?
Entriamo quindi a gamba tesa nel problema, quasi filosofico, dell’applicabilità dei modelli statistici al diritto. Sotto tale aspetto, i tecnici della materia informatica sono soliti fare un parallelismo tra diritto e linguaggio. L’inferenza è la seguente: se da un lato l’IA è stata in grado di comprendere e decodificare le regole del linguaggio basandosi sull’analisi ed il confronto dei testi in lingua originale e delle relative traduzioni, dall’altro la stessa sarebbe verosimilmente in grado di apprendere le regole del diritto attraverso l’analisi dei documenti di prassi (quali ad es. sentenze, ricorsi, atti etc). Si tratta, tuttavia, di una visione statica o che perlomeno non tiene conto di una profonda differenza che sussiste tra il linguaggio ed il diritto. È certamente vero che sia il linguaggio che il diritto hanno in comune la presenza di numerose regole così come è anche vero che sia il linguaggio che il diritto hanno in comune la circostanza che nuove regole possono essere introdotte nel tempo. Tuttavia, deve considerarsi che l’introduzione di una nuova regola nei due contesti appena delineati non ha lo stesso effetto. L’introduzione di una nuova regola di diritto nel mondo giuridico può avere l’effetto di abrogare la normativa precedente, oppure di innovare totalmente la vecchia disciplina, anche attraverso l’introduzione di sanzioni o nullità rilevanti. Nulla di tutto ciò accade nel linguaggio dove l’introduzione di una nuova regola non ha mai effetti di tale portata (il vecchio modo di dire con il tempo potrebbe risultare, quanto meno nel breve e medio periodo, fuori luogo ma difficilmente errato).
In un sistema di IA statistica addestrata specificamente nel campo del diritto, quindi, l’introduzione di una nuova regola potrebbe comportare la necessità di attendere il tempo necessario al diritto vivente di produrre documenti che applichino la nuova regola e, una volta fatto ciò, di attendere il tempo di addestramento del sistema sulla nuova regola. Nonostante ciò, dopo questa attesa il risultato potrebbe essere non ancora ottimale. La porzione di dataset rappresentativo della nuova regola, infatti, sarebbe infinitamente più piccolo della porzione rappresentativa della vecchia regola ormai abrogata. Questo comporterebbe uno sbilanciamento e conseguenti bias oltre alla necessità di una ulteriore immissione di documenti di prassi in misura sufficiente.
Questi aspetti rappresentano quindi una importante sfida per il futuro.
