{"id":5325,"date":"2023-12-29T00:00:00","date_gmt":"2023-12-28T23:00:00","guid":{"rendered":"http:\/\/192.168.2.57\/index.php\/2023\/12\/29\/home_n1_2024-2\/"},"modified":"2024-07-02T16:59:18","modified_gmt":"2024-07-02T14:59:18","slug":"home_n1_2024-2","status":"publish","type":"post","link":"https:\/\/infonews.notartel.it\/index.php\/2023\/12\/29\/home_n1_2024-2\/","title":{"rendered":"Paul Nemitz"},"content":{"rendered":"<div class=\"post-content\"><p><img decoding=\"async\" dir=\"ltr\" style=\"width: 200px; float: left; margin-bottom: 1px; margin-right: 5px;\" title=\"molini\u00e9\" src=\"\/wp-content\/uploads\/2024\/07\/paul_nemitz.jpg\" alt=\"nemitz\" \/><\/p>\n<p><strong>Dottor Nemitz*, lei \u00e8 uno degli esperti internazionali e una delle voci istituzionali pi\u00f9 aperte e pi\u00f9 coinvolte in un dialogo costruttivo e plurale con le scienze e l\u2019accademia. In diverse occasioni di recente ha avuto modo di intervenire in Italia sul tema delle riforme della giustizia e della qualit\u00e0 organizzativa che coniugata con una alta professionalit\u00e0 permette di inverare quegli auspici che tutti abbiamo ascritto alla attuazione del PNRR. Dalla sua prospettiva di policy maker, studioso, ed attento analista internazionale ha modo di seguire puntualmente la evoluzione delle regolazioni in materia di intelligenza artificiale. US, China, Europa, tre realt\u00e0 da sempre diverse; eppure, in un mondo globale inevitabilmente interdipendenti, si stanno cimentando con la creazione e l\u2019adozione di regole di diverso grado di cogenza in materia di intelligenza artificiale. Esiste un marchio di fabbrica europeo?<\/strong><\/p>\n<p>Non \u00e8 la prima volta che l\u2019Unione Europea si cimenta con un terreno nuovo dove la \u201cfabbrica\u201d della norma del diritto svolge la funzione anche di esplorazione di quanto le istituzioni europee siano resilienti dinnanzi al cambiamento. Nel caso dell\u2019intelligenza artificiale siamo dinnanzi ad un grande momento di <a href=\"\/index.php\/2023\/11\/13\/home_n3_2023\/\"><strong>riflessione e di sforzo normativo<\/strong><\/a>, che ha la caratteristica unica di volere coniugare da un lato la apertura al pluralismo dell\u2019innovazione e dall\u2019altro la promozione della competitivit\u00e0 e dello sviluppo economico di carattere sostenibile in tutta l\u2019Europa \u2013 quindi cercando di evitare effetti di dumping. Questi due elementi sono contemperati sotto l\u2019egida di quello che considero l\u2019aspetto distintivo del modello europeo, ossia il primato dei diritti fondamentali e dello Stato di diritto. Non \u00e8 un caso che il principio di precauzione e le tipologie di rischio siano stati previsti <em>ex ante<\/em>, ossia nella tessitura stessa del regolamento.<\/p>\n<p>Ritengo peraltro che l\u2019Unione europea abbia fatto uno sforzo di visione che gi\u00e0 proietta tutta la normativa sul digitale anche quella gi\u00e0 in essere in scenari futuri. Non si tratta di un futuro lontano, ma di un futuro prossimo. Anzi gi\u00e0 attuale.<\/p>\n<p>Vi \u00e8 poi un ulteriore elemento che riguarda il fatto che il modello europeo sta cercando di contrastare fortemente le discriminazioni e le forme di iniquit\u00e0 che potrebbero essere veicolate anche in modo non intenzionale dalle forme di intelligenza artificiale che vengono poi utilizzate nei servizi e nei settori chiave per le persone. Si tratta di un aspetto molto importante.<\/p>\n<p><strong>Se ben comprendo nella sua analisi il bilanciamento appare un elemento importante e distintivo del modello europeo, ancorch\u00e9 sottoposto al primato dello Stato di diritto e della legalit\u00e0. Immagino che questo possa dirsi anche nei singoli settori, dove spesso l\u2019intelligenza artificiale mette in discussione e chiede una trasformazione profonda del modus operandi di imprese e organizzazioni pubbliche. In Europa abbiamo una societ\u00e0 la cui et\u00e0 media appare destinata ad aumentare. In che modo a sua opinione l\u2019attuazione della normativa in materia di digitale potrebbe chiamare in causa strategie e azioni che siano indirizzate ad una aging society, come la si definisce internazionalmente, che dovr\u00e0 essere messa nella condizione di accedere a servizi e di potersi tutelare? Cosa possono fare le universit\u00e0 in tal senso?<\/strong><\/p>\n<p>Che vi sia una call for action in materia di competenze e di <em>digital skills<\/em> \u00e8 un punto consensualmente posto al centro dell\u2019agenda europea. Anche questo \u00e8 in qualche modo un punto distintivo del modello europeo, attraverso le competenze si costruisce un mondo migliore, pi\u00f9 capace di essere alla altezza delle sfide che la tecnologia sta aprendo dinnanzi ai nostri occhi ogni giorno. Competenze significa anche riqualificazione delle competenze attualmente esistenti. Non si tratta di un ideale astratto. Si tratta di una azione che pervade e attraversa tutti i livelli e tutti gli spazi. Ci vedo un potenziale di crescita delle persone.<\/p>\n<p>Come sa le universit\u00e0 sono da tempo attive sul tema del digitale. Moltissimi percorsi di formazione sono stati avviati e consolidati, anche con moltissimi partenariati fra universit\u00e0, i quali permettono ai giovani e alle giovani di avere visioni diverse e di incontrarsi per formarsi insieme. Esiste poi un tema legato alla ricerca. Le universit\u00e0 possono e devono mantenere una forte presa sulla ricerca scientifica in questi ambiti. Infatti, sono i luoghi nei quali la ricerca pu\u00f2 percorrere traiettorie autonome e indipendenti. I finanziamenti europei che promuovono la ricerca avanzata e giovane sono in tal senso un asset del modello europeo.<\/p>\n<p><strong>Eppure, sovente quando si parla di intelligenza artificiale si pensa spesso ad una perdita di controllo. \u00c8 paradossale vedere come il dibattito sia spesso oscillante fra rischio di eccesso di controllo \u2013 sorveglianza digitale &#8211; e perdita di controllo. Da un punto di vista scientifico la riflessione rigorosa porta a ricentrare la questione del potere e sulle forme di perimetro e vincolo ovvero di accountability al suo utilizzo. Siamo sempre pi\u00f9 in un mondo dove il potere decisionale \u00e8 esercitato a tutti i livelli anche con l\u2019ausilio di strumenti di potente computazione e tecniche AI driven. Come si fa a trovare un punto archimedeo per assicurare che la societ\u00e0 digitale non perda il controllo del potere a favore di oligopoli o in ragione di irrisolvibili asimmetrie di sapere?<\/strong><\/p>\n<p>Sono sempre stato convinto che il concetto di accountability democratica sia da prendere sul serio e sia il concetto capace di aprirci la strada ad un bilanciamento e ad un pluralismo che sono estremamente necessari nella societ\u00e0 che stiamo costruendo. Pi\u00f9 forte la pervasivit\u00e0 della tecnologia pi\u00f9 intensa dovr\u00e0 essere la ciclicit\u00e0 della accountability democratica. Il controllo democratico passa attraverso la trasparenza e passa attraverso le competenze. Occorre che il cittadino sappia che esiste la possibilit\u00e0 di una accountability democratica che si dispiega regolarmente. Questo crea una dinamica di fiducia. Nelle mie conferenze e nelle mie interlocuzioni con le comunit\u00e0 scientifiche metto spesso l\u2019accento sul fatto che abbiamo bisogno di apprendere dalle prassi e dalle esperienze che ciascuno sta facendo, nel proprio paese, o nel proprio settore. Insomma, la accountability democratica si coniuga con l\u2019apprendimento delle istituzioni.<\/p>\n<h5><em>* Paul Nemitz \u00e8 Principal Advisor del Department for Justice and Consumer della Commissione europea. Questa intervista esprime la sua individuale opinione e non impegna in alcun modo la Commissione europea. <\/em><\/h5>\n<\/div>","protected":false},"excerpt":{"rendered":"<p>Paul Nemitz,&nbsp;Principal Advisor del Department for Justice and Consumer Commissione europea, risponde alle domande di Daniela Piana, Ordinario di Scienza politica e riti della legalit\u00e0 nell&#8217;era digitale, Universit\u00e0 di Bologna: perch\u00e9 bilanciamento e controllo democratico faranno la differenza nell\u2019utilizzo dell\u2019intelligenza Artificiale.<\/p>\n","protected":false},"author":1,"featured_media":0,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"_editorskit_title_hidden":false,"_editorskit_reading_time":0,"_editorskit_is_block_options_detached":false,"_editorskit_block_options_position":"{}","footnotes":""},"categories":[201],"tags":[440],"class_list":["post-5325","post","type-post","status-publish","format-standard","hentry","category-3-domande-a","tag-newsletter-infonews-del-31-03-2024-n-1"],"acf":[],"aioseo_notices":[],"_links":{"self":[{"href":"https:\/\/infonews.notartel.it\/index.php\/wp-json\/wp\/v2\/posts\/5325"}],"collection":[{"href":"https:\/\/infonews.notartel.it\/index.php\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/infonews.notartel.it\/index.php\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/infonews.notartel.it\/index.php\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/infonews.notartel.it\/index.php\/wp-json\/wp\/v2\/comments?post=5325"}],"version-history":[{"count":5,"href":"https:\/\/infonews.notartel.it\/index.php\/wp-json\/wp\/v2\/posts\/5325\/revisions"}],"predecessor-version":[{"id":5969,"href":"https:\/\/infonews.notartel.it\/index.php\/wp-json\/wp\/v2\/posts\/5325\/revisions\/5969"}],"wp:attachment":[{"href":"https:\/\/infonews.notartel.it\/index.php\/wp-json\/wp\/v2\/media?parent=5325"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/infonews.notartel.it\/index.php\/wp-json\/wp\/v2\/categories?post=5325"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/infonews.notartel.it\/index.php\/wp-json\/wp\/v2\/tags?post=5325"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}