L’Unione europea prepara un nuovo quadro regolatorio dell’artificial intelligence.
L’intelligenza artificiale, o IA (ovvero AI per gli anglofili), si riferisce alle tecnologie capaci di analizzare il loro ambiente e di intraprendere azioni autonome rispettando valori predefiniti, simulando le abilità, il ragionamento e il comportamento umano. Nonostante le visioni apocalittiche spesso collegate, nell’immaginario collettivo, alla presenza di soggetti umanoidi nella nostra vita, da qualche decennio comincia a considerarsi l’intervento delle macchine nei processi tipicamente umani un fattore di agevolazione delle attività quotidiane, comuni e professionali, anziché un’invasione degli ultracorpi.
Le origini dell’IA, come disciplina meritevole di attenzione scientifica, risalgono all’immediato dopoguerra e si collocano, convenzionalmente, nel convegno tenutosi nel 1956, al Darmouth College, New Hampshire. In quella sede prese forma l’idea della convivenza tra uomo e macchine in chiave di problem-solving, cristallizzato nel documento introduttivo a firma di John McCarthy, Marvin Minsky, Nathaniel Rochester e Claude Shannon (31 agosto 1955). Qualche anno prima Alan M. Turing, considerato uno dei padri dell’informatica moderna, aveva preparato il terreno con l’articolo On Computable Numbers, with an Application to the Entscheidungsproblem, dissodandolo ancora nel 1950 con il paper Computing machinery and intelligence, in cui proponeva quello che si sarebbe affermato come “test di Turing”, in base al quale una macchina poteva essere considerata pensante se il suo comportamento, osservato da un essere umano, fosse considerato indistinguibile da quello di una persona.
La diffusione capillare, talvolta invisibile, dell’IA, non del tutto aliena da rischi e implicazioni etiche è ora al centro della riflessione della Commissione europea, che intende introdurre norme sufficientemente adattabili ai continui cambiamenti dello scenario tecnologico e ai suoi impatti sulla società, nonché adeguatamente chiare nell’interesse della tutela degli utenti di sistemi di IA e della promozione del suo impiego virtuoso.
Essa costituisce infatti un settore di importanza strategica per la duttilità delle sue applicazioni e un indiscusso attivatore di meccanismi di sviluppo in vari campi, dal trattamento delle malattie all’ottimizzazione di attività industriali e agricole. Un ecosistema di eccellenza e fiducia è il presupposto della competitività di ricercatori, sviluppatori e imprese a livello globale, nel rispetto dei valori fondamentali dell’Unione europea e in attuazione della strategia del cd. Mercato unico digitale, inaugurata nel 2015 sulla base dei tre pilastri del miglioramento dell’accesso ai beni e ai servizi digitali, della creazione di un ambiente prospero per network digitali (protezione dei dati, sicurezza informatica, trasparenza delle piattaforme), della massimizzazione del potenziale di crescita dell’economia digitale a favore della società.
Altre basi di riflessione ai fini della messa a punto di un quadro normativo coerente sono i seguenti documenti: il Libro bianco sull’IA del 19 febbraio 2020, le Ethics Guidelines for Trustworthy Artificial Intelligence elaborate dall’Independent High-Level Expert Group on Artificial Intelligence, pubblicate l’8 aprile 2019; la Comunicazione della stessa Commissione “Creare fiducia nell’intelligenza artificiale antropocentrica”; il rapporto sulla Liability for Artificial Intelligence and other emerging digital technologies preparato dal pertinente gruppo di esperti e pubblicato il 21 novembre 2019, la dichiarazione Cooperation on Artificial Intelligence, firmata da 25 paesi europei il 10 aprile 2018.
La Commissione formulerà una proposta nel corso del 2021, mirando alla salvaguardia dei valori e dei diritti fondamentali dell’UE e della sicurezza degli utenti attraverso l’imposizione ai sistemi di IA ad alto rischio di alti standard di affidabilità, quale prerequisito della sua adozione, ad es. garantendo la supervisione umana e informazioni chiare sulle capacità e sui limiti di tali sistemi.
Il Parlamento europeo, conscio dell’attualità della questione ha costituito la commissione speciale sull’intelligenza artificiale in un’era digitale (AIDA) e ha adottato il 20 ottobre 2020 tre testi (i primi due sono di iniziativa legislativa, l’ultimo è una relazione) in materia di IA, rispettivamente a firma di Iban García del Blanco (avente ad oggetto il carattere antropocentrico e antropogenico; la sicurezza e la trasparenza delle operazioni, la garanzia contro distorsioni e discriminazioni, la responsabilità sociale e ambientale e il rispetto della privacy e protezione dei dati), Axel Voss (sulla IA ad alto rischio) e Stéphane Séjourné (sulla distinzione tra le creazioni umane ottenute con l’assistenza dell’IA e quelle generate autonomamente dall’IA, con il connesso problema della titolarità del diritto d’autore, sull’uso degli algoritmi e sul deepfake). Inoltre, il 20 gennaio 2021, sono state proposte alcune linee guida per l’uso dell’intelligenza artificiale in campo militare e civile. Molto interessanti appaiono anche gli sviluppi della regolamentazione dell’uso dell’IA nell’istruzione, nella cultura e nel settore audiovisivo, nonché nel diritto penale, in discussione nelle pertinenti commissioni.
Devi effettuare l'accesso per postare un commento.