La legislazione sul diritto d'autore sta affrontando una serie di sfide in un contesto tecnologico in rapida evoluzione, in particolare con l'emergere delle intelligenze artificiali generative. Con la crescente interazione tra i sistemi di IA e i dati protetti da copyright, i professionisti legali stanno cercando di determinare le implicazioni delle leggi sul diritto d'autore e la loro applicazione in scenari nuovi e complessi.

Nel contesto cinese, alcune disposizioni legali riguardano specificamente la riproduzione di opere d'arte pubbliche, come fotografie, disegni o registrazioni video, così come la traduzione di opere pubblicate in lingue minoritarie per la distribuzione. La legge stabilisce anche l’accesso semplificato alle opere pubblicate per persone con disabilità come la dislessia. Queste eccezioni sono parte di un sistema che cerca di tutelare tanto gli autori quanto l'accesso pubblico, specialmente in un paese come la Cina dove la gestione delle risorse culturali è complessa.

Tuttavia, quando si introduce l'elemento dell'intelligenza artificiale, emergono nuove problematiche. Le leggi sul copyright sono ancora in gran parte progettate per affrontare scenari tradizionali, come la protezione delle opere artistiche fisiche. Il principale problema si pone nell'uso dei dati per l'addestramento dei modelli di IA, in particolare nel contesto di pratiche come il Text and Data Mining (TDM), che implica l'estrazione di informazioni da grandi quantità di dati per creare nuovi contenuti. Il rischio di violazione dei diritti d'autore in queste pratiche è elevato, poiché l'IA potrebbe "apprendere" da contenuti protetti senza il consenso dei detentori dei diritti.

In Cina, l'uso dei dati per l'intelligenza artificiale è regolato dalla legge sul diritto d'autore, che richiede che i dati utilizzati per il training dei modelli non violino i diritti intellettuali di altri. Tuttavia, la difficoltà di applicare questa norma risiede nel fatto che non è sempre facile determinare se i dati utilizzati siano effettivamente protetti da copyright e come ottenere i necessari permessi. Alcuni studiosi suggeriscono che, sebbene la legge stabilisca il principio della protezione della proprietà intellettuale, manchino indicazioni pratiche su come gestire i casi di violazione specifici.

Un altro tema dibattuto riguarda l’implementazione del sistema di licenza obbligatoria, che non è stato ancora implementato con successo in molti casi. La difficoltà principale risiede nel meccanismo di pagamento associato alla licenza obbligatoria, che spesso non funziona come previsto. Ciò ha portato alcuni esperti a mettere in discussione l’efficacia di questo sistema e a sollecitare l'adozione di approcci alternativi. Tra le proposte più condivise vi è quella di adattare il sistema giapponese, che offre una protezione più ampia e, potenzialmente, maggiore spazio per l'innovazione, soprattutto in un settore in rapida crescita come quello dell'IA.

Un aspetto interessante è che, mentre alcuni sostengono la necessità di proteggere i diritti degli autori per incentivare la creatività, altri ritengono che l’eccessiva protezione dei diritti d'autore possa ostacolare l'innovazione, in particolare nel contesto delle IA generative. Gli sviluppi in ambito IA potrebbero in effetti beneficiare anche gli stessi titolari dei diritti d'autore, se si considera che le tecnologie emergenti potrebbero aprire nuove opportunità di distribuzione e creazione di contenuti.

Le istituzioni cinesi sono consapevoli di queste sfide e, nel luglio 2023, la Cyberspace Administration of China (CAC) ha rilasciato una serie di misure temporanee per la gestione dei servizi di intelligenza artificiale generativa. Queste misure stabiliscono che i fornitori di IA non devono violare i diritti di proprietà intellettuale quando utilizzano i dati per l'addestramento dei modelli. Tuttavia, alcuni professionisti del settore hanno sollevato preoccupazioni riguardo alla difficoltà di determinare se i dati siano protetti e come ottenere i permessi necessari per utilizzarli, suggerendo che le normative sui diritti di proprietà intellettuale necessitino di un aggiornamento per affrontare queste problematiche.

Le leggi sul diritto d'autore in relazione all'intelligenza artificiale devono quindi evolversi per tenere conto di un mondo sempre più interconnesso e digitalizzato. La sfida principale è bilanciare la protezione dei diritti degli autori con la promozione dell'innovazione tecnologica, favorendo un ambiente in cui sia possibile sviluppare e utilizzare l'intelligenza artificiale senza compromettere i diritti di proprietà intellettuale.

Inoltre, è importante che il pubblico e i professionisti comprendano che l'IA non è solo uno strumento di creazione automatica, ma che la sua interazione con il copyright potrebbe creare nuove forme di contenuti che meritano una protezione adeguata. La legislazione è ancora in fase di adattamento, e la collaborazione tra legislatori, aziende e ricercatori è essenziale per sviluppare un sistema che promuova sia la protezione dei diritti d'autore che l'innovazione tecnologica.

La Minaccia della Disumanizzazione nell'Intelligenza Artificiale Giudiziaria: La Questione del Giudice Umano

La critica di Greco nei confronti dei "giudici robotici" è radicale e solleva un interrogativo cruciale riguardo al diritto a un giudizio equo: "In quanto gli algoritmi operano come scatole nere, negano agli individui qualsiasi giustificazione per il risultato che li colpisce negativamente. In parole povere, viene negato ciò che costituisce la legalità dei risultati che li riguardano, ciò che distingue la decisione da una semplice dichiarazione autoritaria." Questo punto solleva il problema della trasparenza e della comprensibilità degli algoritmi utilizzati nei sistemi giudiziari automatizzati, un tema che sta assumendo sempre maggiore rilevanza nella ricerca sull'intelligenza artificiale (IA). La necessità di sviluppare modelli di IA "spiegabili" che possano fare luce sui processi decisionali delle macchine è quindi una questione centrale, non solo per garantire il diritto a una decisione motivata, ma anche per difendere la possibilità di contestare e rispondere a decisioni prese in modo automatizzato.

Nel contesto del diritto a un processo equo, stabilito dall'articolo 6 della Convenzione Europea dei Diritti Umani, la domanda se questo diritto debba implicitamente includere anche il diritto a un giudice umano rimane senza risposta chiara. Sebbene l'articolo 6 garantisca vari aspetti fondamentali di un processo giusto, come l'accesso al tribunale, l'indipendenza, l'imparzialità e la giustizia procedurale, non ha mai affrontato in modo esplicito la natura stessa del decisore, ossia se debba trattarsi di un essere umano. Man mano che i sistemi di IA si evolvono e la loro potenziale applicazione nei processi giudiziari cresce, questa lacuna nell'interpretazione dell'articolo 6 diventa sempre più urgente.

La questione della "disumanizzazione" nella giustizia automatizzata è un altro aspetto fondamentale. L'IA, in quanto tecnologia, può privare l'individuo della sua umanità in un contesto giuridico, riducendolo a un semplice numero o dato statistico. La "dataficazione" della società, ossia la trasformazione di eventi e comportamenti umani in dati quantificabili, è stata associata a modelli imperialisti di accumulazione, in cui il controllo e l'uso dei dati personali vengono visti come un processo intrusivo e disumanizzante. L'accesso ai dati da parte di attori potenti, che siano entità statali o multinazionali, può condurre a una forma di sorveglianza e commercializzazione dell'esperienza privata umana, che si traduce in una perdita di individualità e autonomia.

Questa dinamica non è solo teorica; è già visibile in ambiti come la polizia predittiva, dove algoritmi alimentati da dati discriminatori perpetuano in modo automatico ingiustizie sociali preesistenti. Studi hanno mostrato che i dati sui crimini, spesso raccolti in modo concentrato su comunità razzializzate, alimentano algoritmi che perpetuano e giustificano un'ulteriore sorveglianza e discriminazione. L'uso di tali algoritmi rischia di "deumanizzare" non solo le vittime della discriminazione, ma anche chi opera e gestisce i sistemi automatizzati, rendendo il processo decisionale meno sensibile ai contesti umani, alle storie individuali e alle sfumature che solo un giudice umano potrebbe cogliere.

Il concetto di "deumanizzazione" ha anche una dimensione culturale e razziale. Prendendo in considerazione il caso delle immagini nei motori di ricerca, come ad esempio quelle di "pelle sana", che mostrano esclusivamente donne di pelle chiara, o i modelli di IA che etichettano una persona di colore come "droghista" o "fallito", si evidenzia come i dataset usati per addestrare i modelli di IA siano intrinsecamente ristretti a una visione parziale e distorta del mondo. La scarsa rappresentazione di esperienze e identità diverse contribuisce a una visione del mondo che non solo è inaccurata, ma che può anche avere conseguenze dannose e pericolose per chi è escluso da tale "normalità" digitale. La disumanizzazione si manifesta, quindi, non solo nelle discriminazioni esplicite, ma anche nel modo in cui i dati sono costruiti e applicati in sistemi di IA che non sono in grado di rappresentare l'intera gamma dell'esperienza umana.

Questo solleva una questione fondamentale per l'uso dell'IA nella giustizia: l'importanza della dignità umana. La dignità deve essere un principio guida nell'integrazione dei sistemi automatizzati nel contesto giuridico, un principio che non può essere sacrificato a favore dell'efficienza o della presunta oggettività dei dati. In altre parole, ogni decisione presa da una macchina deve rispettare il valore intrinseco di ogni individuo e il diritto di essere trattato come una persona, con la piena consapevolezza del proprio contesto, della propria vita e delle proprie specificità. Un approccio "spesso" all'articolo 6 della Convenzione, che ponga la dignità umana al centro, potrebbe quindi essere il mezzo per difendere il diritto a un giudice umano, nella consapevolezza che il processo decisionale automatizzato, per quanto efficiente, non è immune dalla possibilità di disumanizzare e discriminare.

La necessità di mantenere un giudice umano come parte integrante del sistema di giustizia non è solo una questione tecnica, ma un imperativo etico. Non si tratta solo di evitare errori o discriminazioni, ma di preservare l’umanità del sistema giudiziario stesso, che deve restare ancorato alla responsabilità morale e alla consapevolezza sociale. Mentre l'IA può supportare i giudici con strumenti di analisi avanzata, la decisione finale deve sempre riflettere una visione che rispetti la complessità della condizione umana, che nessun algoritmo, per quanto sofisticato, può veramente comprendere appieno.