Chi vincerà la sfida uomo vs AI?

Diritto digitale

L’argomento di oggi è una forma di intelligenza artificiale peculiare, definita “generativa”, e la sua ultima applicazione pratica, ovvero la Chat GPT.

In particolare, l’acronimo Chat GPT sta per Generative Pretrained Transformer ovvero l’intelligenza artificiale conversazionale che utilizza algoritmi avanzati di apprendimento automatico per generare risposte complete ed articolate molto simili a quelle umane all’interno di un discorso. Il tema riguarda non soltanto Chat GPT, sviluppata da Open AI, ma tutto il mondo dell’Intelligenza Artificiale (AI) in generale.

Come funziona?

Per comprendere i possibili impatti giuridici di Chat GPT è utile fare una breve premessa tecnica sul suo funzionamento.

Anzitutto si tratta di un software di AI pre-addestrato basato su più di 175 miliardi di parametri.  Una volta completato il periodo di addestramento, l’intelligenza artificiale generativa GPT-3 è stata inserita in un applicativo raggiungibile da chiunque, ovvero Chat GPT. Utilizzando quest’ultima, qualsiasi utente ha la possibilità di testare le abilità della stessa nella creazione di testi, semplicemente formulando una domanda.

Chat GPT utilizza sistemi di reti neurali (artificiali) multilivello con architetture basate su algoritmi di deep learning la cui diffusione è oggi possibile grazie alla maggiore disponibilità di una gran quantità di dati e di computer indubbiamente più potenti rispetto al passato.

Nello specifico, si tratta di algoritmi (vale a dire sequenze di istruzioni, linee di codice) di machine learning , i quali sono in grado di migliorarsi automaticamente attraverso l’esperienza e l’utilizzo di dati usati durante la fase di addestramento (training data) per effettuare poi predizioni senza essere stati specificatamente programmati a farlo. Oltre a ciò, viene utilizzata la tipologia di apprendimento con rinforzo (reinforcement learning).

Il sistema analizza l’”ambiente” (che non è possibile definire a priori con tutte le variabili in cui lo stesso sistema opera, poiché tale definizione richiederebbe una quantità di risorse eccessive) per calcolare le azioni più promettenti dal punto di vista probabilistico. Il software di AI può prevedere un meccanismo premiale (reward) che permette di valutare, passo per passo, le azioni e le conseguenze delle azioni compiute a seguito dell’analisi dell’ambiente e quindi imparando dagli errori.

Ulteriore peculiarità del sistema GPT è il deep learning basato su reti neuronali profonde, ovvero multistrato, nelle quali il segnale di input viene trasmesso e modificato. Il problema degli algoritmi neuronali però è che, a differenza degli algoritmi tradizionali, risultano poco trasparenti per cui spesso non è possibile comprendere perché siano giunti ad una determinata conclusione.

Inoltre, l’applicativo è disponibile in varie modalità sul mercato, vale a dire non solo come servizio online disponibile al pubblico, bensì viene licenziato a sviluppatori e soggetti professionali come API (Application Programming Interface), un software che consente a due applicazioni di comunicare tra loro.

Dal punto di vista operativo, in input abbiamo dunque la richiesta dell’utente di comporre un certo tipo di testo quale risultato, mentre in output avremo il testo stesso, redatto da Chat GPT sfruttando il suo “motore” interno (dalla risposta a una domanda a documenti come schemi, contratti, elenchi, così come testi letterari e poetici, pubblicità, righe di codice software, ecc.).

È da notare che il sistema provvede ad una vera e propria registrazione di quanto inserito in input. È possibile, quindi, approfondire risposte già ricevute, precisando e riprendendo testi e concetti di scambi precedenti. Il software procede dunque ricollegando i dati raccolti alla nuova domanda e li utilizza per affinare la sua successiva risposta.

Tuttavia, è necessario considerare che, anche se la verosimiglianza delle risposte e delle conversazioni prodotte dal software è elevata, per espressa ammissione degli stessi programmatori, i risultati attuali soffrono ancora di evidenti difetti in termini di aggiornamento, precisione, bias cognitivi, ed errori.

In ogni caso, appare evidente che gli attuali sistemi di AI sono dotati di abilità sempre maggiori di adattamento, apprendimento e azione indipendente da chi li sviluppa, approcciano continue esperienze ed interazioni con l’ambiente esterno e da esso imparano implementando conoscenza e azioni. Dunque, impattano necessariamente con le questioni di carattere giuridico-legale.

La portata transnazionale di Chat GPT

Anzitutto, occorre evidenziare che i sistemi di AI sono in continua evoluzione e ciò può rendere, in breve tempo, obsoleta ogni considerazione in merito. Ecco perché risulta certamente più opportuno richiamarsi ai principi generali dell’ordinamento in grado di fornire gli strumenti tecnici per interpretare anche gli scenari futuri piuttosto che prevedere specifiche normative di dettaglio.

In tale contesto, appare, tuttavia, sempre più impellente la necessità di disciplinare precisi aspetti, atteso che tale tecnologia dimostra di avere evidenti implicazioni sia giuridiche che etiche, le quali devono trovare una disciplina organica. In questa prospettiva, risulta sempre più vivace l’attività di creazione di un diritto nuovo, il cosiddetto diritto delle nuove tecnologie.

Un ulteriore elemento fondamentale nell’analisi giuridica del fenomeno è la sua portata transnazionale. Ciò implica che le decisioni, le scelte di regolamentazione e le interpretazioni del corretto utilizzo di esso dovranno necessariamente tenere conto di quell’insieme di principi e valori condiviso in ambito internazionale e pertanto contenuto anche nelle normative di altri Stati europei e nelle convenzioni internazionali.

Tuttavia, l’approccio normativo, per essere efficace, non può prescindere da un coordinamento analogo a quello richiesto alle norme sovranazionali, alle convenzioni, ai trattati internazionali, se si considera che gli attori principali in ambito di sviluppo di intelligenza artificiale sono Stati Uniti  (con il “The American AI Initiative” del 2019), Cina (con il piano di sviluppo sull’intelligenza artificiale del 2017 che persegue l’obiettivo dichiarato di raggiungere la supremazia nell’intelligenza artificiale entro il 2030) e l’Europa. In particolare, nell’ambito europeo, la risoluzione del Parlamento Europeo del 16.02.2017 cosiddetta ”Civil law rules on robotics” può rappresentare la base dalla quale si sta strutturando una disciplina giuridica comune sulla tecnologia AI, mentre la Commissione Europea sta lavorando alle linee guida etiche al fine di garantire che l’intelligenza artificiale sia sviluppata e impiegata con uno scopo, appunto, etico.

Anche l’Italia è certamente attenta a questi temi come dimostra, da ultimo, il Programma Strategico italiano pubblicato nel 2021.

I molteplici utilizzi di Chat GPT

Un ulteriore aspetto che accompagna le considerazioni legali inerenti a Chat GPT riguarda proprio la vastità del suo potenziale utilizzo. Essendo un programma che, a differenza di altre chatbot, mira a rispondere a richieste in qualsiasi ambito e su qualunque argomento, non è possibile effettuare un’esaustiva elencazione dei molteplici utilizzi e delle fattispecie giuridiche che ne possono derivare, ma occorre esemplificare le ipotesi soffermandosi sui più rilevanti diritti che potenzialmente verrebbero in qualche modo pregiudicati.

Le criticità

Abbiamo visto, dunque, come le applicazioni pratiche di questa nuova intelligenza artificiale siano molteplici e, di conseguenza, anche le potenziali problematicità: tra queste si possono annoverare il diritto d’autore, la tutela del lavoro umano e l’utilizzo dannoso di questa tecnologia.

La prima grande tematica coinvolta è, dunque, quello del diritto d’autore. L’intelligenza artificiale è stata, infatti, addestrata mediante testi di diversi autori e sarà, quindi, necessario disciplinare gli aspetti riguardanti la proprietà intellettuale anche con riguardo a tutti i contenuti che verranno dalla stessa generati.

Vi è poi la possibilità che molte realtà economiche possano decidere di utilizzare questo tipo di strumento per la creazione di testi a discapito della forza lavoro “umana”.

Ed ancora, questa nuova tecnologia potrebbe essere utilizzata quale strumento nocivo per la collettività, ad esempio per generare nuovi contenuti e strutture di ingegneria sociale alla base di molte attività fraudolente presenti sul web come testi per mail di phishing e simili.

In via ulteriore, un altro profilo critico riguarda i rischi di disinformazione o di pericolo di manipolazione dell’opinione pubblica. Chat GPT fornisce spesso, infatti, risposte plausibili, che sembrano corrette, ma contengono in realtà un’alta percentuale di errori. Di conseguenza, la pubblicazione da parte di un gran numero di persone di risposte scorrette richiede la valutazione di un enorme volume di dati da parte di persone dotate di competenza specifica ed esperienza. Come illustrato, infatti, le risposte che Chat GPT fornisce dipendono dai dati di addestramento che potrebbero contenere informazioni false o fuorvianti e generare quindi contenuti scorretti o ingannevoli.

Il bot stesso suggerisce di non utilizzare e diffondere le risposte se non con estrema cautela e in rapporto ad altre autorevoli fonti di verifica. Diversamente si può incorrere in responsabilità simili a quelle, per esempio, derivanti dalla diffusione di fake news sui social. L’utilizzo di risposte generate dalla chat dovrebbe sempre, quindi, essere accompagnato dall’indicazione della fonte e, appunto, verificato con altre fonti specializzate sull’argomento trattato.

Inoltre, anche la privacy rappresenta uno dei più rilevanti problemi per un software come Chat GPT che si alimenta, impara e, quindi, potenzialmente diffonde una moltitudine di informazioni fornite dagli utenti o acquisite all’interno dell’immensa mole di dati che elabora. Il sistema di apprendimento è potenzialmente idoneo a rivelare dati personali e talvolta sensibili che potrebbero essere ricondotti a determinati soggetti.

I limiti dettati dal Garante per la privacy

A tal proposito, il Garante della Privacy ha più volte invitato a vigilare sugli algoritmi (soffermandosi sui sistemi di IOT, smart citiesblockchain, ecc.) proprio in ragione delle fondamenta dell’AI che risiedono nell’elaborazione di una gran quantità di dati anche personali. In tal senso tutti gli operatori (sviluppatori, produttori, fornitori, utilizzatori) devono conformarsi alle disposizioni in particolare del GDPR (Regolamento UE 679/2016) in merito ai principi di trasparenza e valutazione preliminare dell’impatto del trattamento dei dati sui diritti umani e sulle libertà fondamentali.

Nello specifico, in casi come Chat GPT vi è il concreto pericolo di pratiche di trattamento dei dati per finalità differenti rispetto a quelle originariamente precostituite con violazione dell’art. 25 GDPR relativamente ai principi di “Privacy by Design e Privacy by Default” (protezione dei dati fin dalla progettazione del sistema e protezione per impostazione predefinita).

Ulteriori profili riguardano le corrette informative da comunicare a chi utilizza tali dati e a chi li fornisce, incluso il ruolo (titolare, responsabile, interessato, ecc.) ai sensi del GDPR e il rispetto dei principi di esattezza, conservazione, proporzionalità del trattamento, pertinenza, adeguatezza.

Le linee guida internazionali sulla protezione dei dati personali dal trattamento automatizzato

In argomento, un utile ausilio proviene dalle linee guida in materia di AI e protezione dei dati sancite dal Comitato Consultivo della Convenzione sulla protezione delle persone rispetto al trattamento automatizzato di dati a carattere personale (Convenzione 108/1981) anche con le nuove tutele previste con il Protocollo emendativo CETS n. 223. Ad oggi, tuttavia, il protocollo, firmato da 27 Stati, non è stato ancora pienamente ratificato dagli stessi. La Convenzione cosiddetta 108+ è stata invece tradotta in Italia dal Garante Privacy con la pubblicazione, il 25.01.2019, delle “Linee guida in materia di intelligenza artificiale sulla protezione dei dati”.

Le potenzialità di alcuni algoritmi riguardano, altresì, la capacità di riconoscere le opinioni, lo stato di salute, giuridico, lavorativo, finanziario, ecc. Il rischio è che tale mole di informazioni venga adoperata per alimentare sistemi di social scoring come già avviene in Cina dove i cittadini sono classificati in base a quanto rispettano le regole e mostrano obbedienza, anche online, verso il partito.

Certamente dovrebbe essere possibile autorizzare, nelle fasi di implementazione di Chat GPT, gli sviluppatori a trattare i dati idonei a rivelare origine razziale ed etnica, opinioni politiche, convinzioni religiose e/o filosofiche, appartenenza sindacale, dati genetici e biometrici, stato di salute e orientamento sessuale della persona, in deroga all’articolo 9 Reg. UE 2016/679 GDPR, unicamente nella misura in cui ciò è strettamente necessario a garantire il monitoraggio, il rilevamento e la correzione delle distorsioni in relazione al funzionamento dell’algoritmo dell’AI.

L’incidenza sul diritto d’autore

Come sopra anticipato, un altro ambito dal profilo problematico è quello dei diritti d’autore e in genere di proprietà intellettuale. In realtà, esistono già software che generano storie, racconti e sceneggiature sulla base di input ricevuti dagli utenti e che sono anche stati utilizzati da sceneggiatori professionisti. Il tema in questo caso è l’originalità dell’opera prodotta e i diritti morali e patrimoniali che ne derivano.  Un interessante precedente deriva dalla decisione dell’EPO (Ufficio Europeo Brevetti) in merito alla non brevettabilità di due invenzioni attribuite a sistemi di intelligenza artificiali non ritenendo di poter attribuire a tali sistemi la qualifica di inventori, applicando le disposizioni della Convenzione sul brevetto europeo del 05.10.1973. Altri uffici (ad esempio, il South African IP Office e la Corte Federale Australiana nel 2021) hanno ammesso che la “macchina” possa qualificarsi come inventore; d’altro canto il medesimo EPO nel 2018 ha aperto una nuova sezione (G-II 3.3.1) relativa alla brevettabilità di prodotti generati da AI riconoscendo l’appartenenza delle ideazioni algoritmiche alla categoria delle invenzioni di software. Ancora più chiara risulta la decisione del Tribunale di Nanshan del 2019 che ha riconosciuto il copyright su un articolo di giornale in materia finanziaria scritto da un software di AI (Dreamwriter). In sintesi, l’algoritmo di un bot come Chatbot, quale strumento, se innovativo e capace di produrre un risultato con effetti “tecnici” è un mero software brevettabile e proteggibile con copyright e rispetto al suo risultato (prodotto) si applicheranno le ordinarie regole della proprietà intellettuale; così come, se si dovessero produrre risultati “fisici” di funzione utilitaria, si farà riferimento alle regole già esistenti sulla brevettabilità ed infine, quando si tratti di un risultato consistente in un’opera dell’ingegno di fruizione intellettuale, si applicheranno le regole comuni del diritto d’autore.

Pertanto Chat GPT è uno strumento indubbiamente efficace per agevolare alcuni aspetti della creazione di opere dell’ingegno, ma l’utilizzo dei risultati restituiti richiede in questo caso una rielaborazione significativa da parte dell’autore/inventore per consentire poi la registrazione della titolarità dei diritti di proprietà intellettuale in capo a quest’ultimo come avviene per le computer implemented inventions che si differenziano dalle computer generated inventions  (le quali sono interamente ideate e realizzate da un agente artificiale). L’opera, infatti, è espressione del lavoro intellettuale dell’autore quando contiene un elemento di creatività ed è, quindi, il frutto di scelte libere e creative da parte del proprio autore.

Infine, l’AI deve confrontarsi con nozioni quali la personalità giuridica, la capacità d’agire e il concetto di responsabilità e, quindi, di risarcimento eventuale del danno.

Ma vediamo cosa significa tutto ciò in concreto.

L’intelligenza artificiale ha personalità giuridica?

C’è un acceso dibattito tra chi considera tutti i sistemi di AI solo come macchine programmate dall’uomo e, quindi, comunque sempre prive di volontà e capacità di azione, e chi, invece, ritiene che essi siano sempre più autonomi e pertanto debba essere loro riconosciuta non soltanto la personalità giuridica ma debbano essere attribuiti anche diritti e doveri. In quest’ultimo caso si parla addirittura di “personalità robotica” che giunga anche a limitare o addirittura ad escludere la responsabilità del proprietario.

A complicare l’analisi, c’è anche il fatto che ad oggi non ci sia una definizione condivisa a livello internazionale su cosa sia l’Intelligenza Artificiale, né a livello tecnico né, di conseguenza, a livello giuridico.

L’assunto attuale e riconosciuto è comunque che l’agente artificiale (il bot, la Chat GPT) è privo di personalità giuridica e pertanto non può essere riconosciuto quale inventore, e le disposizioni italiane (art. 160.3.c C.p.i., al pari di altri ordinamenti europei) richiedono la designazione dell’inventore per la brevettabilità di un prodotto che pertanto andrà di volta in volta individuato nell’ideatore e/o nell’utilizzatore del software, purché sussistano i requisiti sostanziali di brevettabilità (novità, originalità, descrizione: e quest’ultimo punto, lo si evidenzia, è sovente un problema per gli algoritmi i cui codici sorgenti solitamente restano segreti).

In conclusione, in materia di proprietà intellettuale si può sostenere che in nessun caso il ricorso all’AI implica conseguenze sull’accertamento e l’interpretazione dei requisiti sostanziali di proteggibilità di invenzioni, modelli, brevetti, opere di ingegno che deve essere condotta nel rispetto delle disposizioni già esistenti.

Chat GPT e l’agevolazione, l’istigazione o la complicità in reati

In merito all’agevolazione, listigazione o la complicità in reati, le tipologie di possibili criticità sono innumerevoli. I programmatori hanno già adottato misure di sicurezza volte a prevenire l’istigazione o l’agevolazione di comportamenti contrari alla legge. Ciò nonostante, sussiste il rischio che gli hacker potrebbero utilizzare Chat GPT per eseguire attacchi informatici mirati. In particolare, Chat GPT è stata in grado di aiutare esperti hacker a creare in maniera più semplice messaggi di posta elettronica di phishing (ovvero contenenti link e documenti infetti) producendo in maniera automatica un’e-mail con allegato un documento Excel contenente un codice dannoso in grado di portare un attacco cosiddetto reverse shell (accesso remoto non autorizzato).

Chat GPT e occupazione

Oltre agli usi vietati, una delle maggiori preoccupazioni emerse nel dibattito che sta accompagnando la diffusione di Chat GPT è il timore che le sue funzionalità possano comportare la perdita di posti di lavoro. Recentissimo è il caso di Donotpay.com che ha fatto scalpore perché ammesso all’utilizzo in un Tribunale inglese per supportare la parte in causa nella propria difesa. La capacità di un bot come Chat GPT di utilizzare in tempi rapidissimi una mole immensa di dati e informazioni, elaborarle, verificarne precedenti e restituire risposte parrebbe costituire una seria minaccia per vari professionisti (avvocati, in primis). Attualmente, pare ragionevole ritenere che, almeno con Chat GPT, siamo ancora lontani dalla sostituzione del fattore umano che resta, non solo per espressa disposizione di legge (si pensi alle professioni con Albi e Ordini Professionali) ma anche per reale necessità di interpretazione e adattamento alle variabili del caso concreto, non sostituito e al momento non sostituibile. Più concreto e attuale è invece il condizionamento prodotto da strumenti di AI per assumere decisioni automatizzate in materia di selezione del personale, gestione ed esuberi.

Danni e responsabilità

L’ambito della responsabilità per danni rappresenta un ulteriore settore potenzialmente coinvolto dall’utilizzo di Chat GPT. A tal proposito, è necessario bilanciare la tutela delle potenziali vittime con la possibilità per le imprese di sviluppare tecnologie in grado di fornire nuovi prodotti e servizi. In questo settore è fondamentale individuare i ruoli (proprietario del bot, sviluppatore/produttore, utilizzatore, distributore, ecc.) con i relativi doveri e responsabilità per garantire la certezza del diritto. Il tema per Chat GPT è la presupposta formazione di un risultato che appare non essere determinato da nessun soggetto giuridico. Ciò, tuttavia, non è vero: ai fini dell’imputabilità di responsabilità civili e penali, il giusto approccio può essere ricostruito secondo i già noti principi generali dell’ordinamento e le norme attualmente in vigore. In tema, si pensi alla normativa sul danno da prodotto difettoso o alla responsabilità oggettiva di genitori, insegnanti, tutori, ecc. In altre parole: l’impossibilità di attribuire esclusivamente ad un soggetto la paternità materiale e operativa dell’attività pregiudizievole non esclude profili di responsabilità, esclusiva o solidale, in relazione al proprio ruolo che consente l’adozione di misure di prevenzione (sviluppatori), limitazioni e informativa (produttore/distributore), corretto uso (utenti). In questo senso il Parlamento Europeo ha adottato una risoluzione (20.10.2020) con raccomandazioni alla Commissione su un regime di responsabilità civile per l’AI dalla quale è scaturita la proposta di regolamento che distingue l’operator in due tipologie: quello di front-end (persona fisica o giuridica che beneficia del funzionamento) e di back-end (persona fisica o giuridica che definisce le caratteristiche della tecnologia, cfr. Proposta di Regolamento A9-178/2020). Si tratta di proposte che vanno nella direzione giusta per regolare, per esempio, il concorso di colpa (art. 10), i termini di prescrizione (art. 7) e la cooperazione per individuare le responsabilità.

In conclusione, si rileva che l’Intelligenza Artificiale si è sviluppata in modo molto più rapido rispetto all’assetto giuridico e regolamentare, ed anzi si è evoluta in un contesto di vuoto normativo, a partire dalla definizione stessa.

In quest’ambito i giuristi si stanno impegnando a elaborare un regime di responsabilità in grado di garantire una chiara suddivisione delle responsabilità tra gli ideatori, i produttori, i fornitori del servizio e gli utenti finali.

È tuttavia ragionevole ipotizzare, visto l’avanzare sempre più performante dell’AI, la creazione di uno status legale specifico, così che – al limite – ai robot autonomi più sofisticati possa essere attribuito lo status di persone elettroniche responsabili per riparare il pregiudizio cagionato e possibilmente applicare personalità elettronica ai casi in cui i robot prendono decisioni autonome o altrimenti interagiscono con terze parti in modo indipendente.

E, infine, è necessario prendere atto come allo sviluppo crescente di sistemi di AI, al pari delle tematiche giuridiche aperte, siano collegate altrettante problematiche etiche relative alla sicurezza umana, alla salute, alla libertà, alla privacy, all’integrità e alla dignità umana e alla discriminazione che necessitano di tutele legali immediate e concrete.