Le disposizioni giapponesi sul diritto d'autore, in particolare gli articoli 30-4, 47-4 e 47-5, rappresentano un equilibrio peculiare tra certezza giuridica e adattabilità tecnologica. Da un lato, la presenza di elenchi specifici di usi ammissibili assicura chiarezza interpretativa; dall’altro, l’inserimento di clausole generali e cosiddette catch-all consente di includere scenari futuri non ancora emersi, resi possibili dallo sviluppo tecnologico continuo. Queste disposizioni, interconnesse tra loro, mantengono una tensione calibrata tra l’uso delle opere e la tutela degli interessi dei titolari dei diritti.
In base al potenziale danno per i titolari dei diritti, gli usi sono distinti in due categorie: usi “innocui” (articoli 30-4 e 47-4) e usi “di lieve danno” (articolo 47-5). Gli articoli 30-4 e 47-4 si riferiscono a usi non destinati al godimento dell'opera, ma funzionali al funzionamento o mantenimento di sistemi informatici, come la cache del browser o il ripristino di dispositivi. Tali usi, per la loro natura tecnica e accessoria, sono considerati come non lesivi degli interessi dei titolari dei diritti. Per questa ragione, queste disposizioni vengono ritenute altamente flessibili: accolgono elementi astratti come lo scopo e l'estensione dell'uso, e includono clausole aperte per nuovi casi ancora non previsti.
L’articolo 47-5, invece, ammette usi di lieve impatto legati all’elaborazione automatizzata dei dati, finalizzati alla creazione di nuova conoscenza o informazione, come avviene nei servizi di ricerca online o nei sistemi di rilevamento del plagio. Qui la flessibilità è solo “relativa”: per contenerne gli effetti, la clausola generale definisce con precisione lo scopo, il soggetto, l’estensione dell’uso e la tipologia di opere coinvolte. Inoltre, la clausola aperta impone che ogni ulteriore fattispecie rientri in quanto stabilito da apposito ordine del Gabinetto.
Il Giappone ha introdotto precocemente un’eccezione per il Text and Data Mining, con una formulazione ampia e generosa. A differenza di molte giurisdizioni europee, le eccezioni giapponesi si applicano sia agli usi commerciali che non commerciali e non richiedono un accesso legittimo al contenuto protetto. Ciò rende la normativa giapponese tra le più liberali al mondo nell’ambito del diritto d’autore. Questa generosità normativa può avere un impatto positivo nello sviluppo dell’intelligenza artificiale e dei settori collegati, ma allo stesso tempo ha suscitato reazioni da parte di alcuni attori dell’industria dei contenuti, preoccupati per la perdita di controllo sulle proprie opere.
Alcune proposte per limitare l’uso del TDM con contenuti protetti prevedono l’introduzione di obblighi contrattuali che vietino tale attività. Anche se ciò non renderebbe il TDM illegale in termini di diritto d’autore, costituirebbe comunque una violazione contrattuale. Tuttavia, ad oggi, i detentori dei diritti non hanno percorso questa via, forse scoraggiati dalla difficoltà di dimostrare la copia e conservazione dei dati in assenza di strumenti di discovery pre-processuale, come accade invece negli Stati Uniti. Un ulteriore fattore potrebbe essere rappresentato dalla tradizionale riluttanza di editori e case discografiche giapponesi ad avviare contenziosi in materia.
L'adozione dell’eccezione flessibile al TDM nel 2018 ha segnato una rottura con il passato, in cui le limitazioni al diritto d’autore erano fortemente specifiche e delimitate. Tuttavia, la sostanza della norma è passata sorprendentemente sotto silenzio nel contesto giapponese, probabilmente perché l’equilibrio politico e normativo del periodo lo consentiva. È improbabile che un’eccezione altrettanto ampia sarebbe oggi accettata con la stessa facilità, considerando l’intensificarsi del dibattito pubblico e le crescenti pressioni da parte dell’industria creativa.
Nel contesto della protezione delle opere generate da IA, l’articolo 2-1(1) della legge giapponese sul diritto d’autore definisce un’opera come un’espressione creativa di pensieri o sentimenti in ambito letterario, accademico, artistico o musicale. Per essere protetta, l’opera deve esprimere un’intenzione creativa e un contributo creativo. Questo requisito di creatività rappresenta un ostacolo sostanziale per il riconoscimento delle opere generate interamente da sistemi automatici. Secondo il rapporto del 1993 del comitato governativo giapponese, la semplice esecuzione meccanica non è sufficiente: è necessario un apporto umano, anche solo parziale, per qualificare l’opera come meritevole di protezione.
Ciò implica che i prodotti generati esclusivamente da intelligenze artificiali, privi di un’intenzionalità o intervento umano, non possono godere di protezione autoriale. Questo approccio resta coerente con l'impostazione tradizionale del diritto d’autore giapponese, che continua a valorizzare la dimensione soggettiva e intenzionale dell'atto creativo, distinguendolo nettamente dalla mera automazione algoritmica.
È essenziale comprendere che la regolamentazione giapponese in materia di TDM e IA non si limita alla protezione degli interessi economici dei creatori, ma mira a bilanciare dinamicamente innovazione e diritti, in un contesto dove il confine tra creatività umana e generazione automatica è sempre più sfumato. La capacità di adattamento normativo sarà cruciale per il futuro, soprattutto nel momento in cui gli atti creativi assistiti da IA inizieranno a fondersi in modo sempre più indissolubile c
Come il Regolamento sull'Intelligenza Artificiale dell'UE affronta i rischi tecnologici e i diritti fondamentali
L'Intelligenza Artificiale (IA) è destinata a diventare una delle tecnologie più transformative del nostro tempo, ma con essa arrivano anche rischi significativi. La legislazione dell'Unione Europea, in particolare il Regolamento sull'Intelligenza Artificiale, mira a governare questi rischi in modo da garantire la protezione dei diritti fondamentali degli individui. Tuttavia, la regolamentazione dell'IA si trova ad affrontare diverse sfide, che vanno dalla definizione stessa di "IA" alle difficoltà nel garantire la protezione ambientale e i diritti civili in un contesto tecnologico in rapida evoluzione.
Il principio di "neutralità tecnologica" adottato dall'UE stabilisce che la regolamentazione deve essere adattabile e non dipendere dalle specifiche tecnologie emergenti. In altre parole, la legge deve affrontare una vasta gamma di tecnologie, inclusi modelli di IA generativa, sistemi di IA general-purpose e modelli di apprendimento profondo, pur senza limitarsi a una definizione rigida di "IA". La difficoltà principale risiede nel fatto che la rapida evoluzione della tecnologia rende spesso obsoleti i tentativi di stabilire definizioni universali e statiche. Questo problema è particolarmente evidente nel caso dei modelli linguistici di grandi dimensioni (LLM), che si trovano a cavallo tra applicazioni ad alto rischio e applicazioni più comuni, ma non per questo prive di potenziali impatti dannosi.
Nel contesto della regolamentazione europea, le risposte legislative si articolano su tre livelli: una forte regolazione top-down, l'adozione di approcci co-regolatori e un'autoregolamentazione per i sistemi di IA considerati a basso rischio. Ogni livello risponde a un tipo diverso di rischio, con una crescente attenzione ai rischi ad alto impatto. Tuttavia, la flessibilità della legge nell'affrontare scenari imprevedibili non è sempre garantita, e questo può comportare lacune significative. Il rischio di creare “gap di responsabilità” è uno dei principali problemi, poiché le attuali leggi non sempre definiscono con precisione chi sia responsabile per i danni causati da sistemi IA, né quale sia l'entità di questa responsabilità.
Uno degli aspetti più discussi della legislazione riguarda il diritto alla protezione ambientale, che nel primo disegno del regolamento era stato trascurato. L'IA, in particolare attraverso l'uso di grandi centri di calcolo, ha un impatto significativo sull'ambiente, con un consumo energetico elevato e una grande impronta di carbonio. Sebbene il Regolamento sull'IA in alcune versioni successive abbia iniziato a considerare questi rischi, rimane ancora un'importante sfida per il legislatore garantire che le tecnologie emergenti non solo rispettino i diritti umani, ma anche l'ambiente e la sostenibilità. Ad esempio, l'inserimento di un’analisi d'impatto dei diritti fondamentali (FRIA) nel testo del Regolamento ha cercato di rispondere a questa esigenza, ma le soluzioni proposte appaiono spesso insufficienti.
Un altro elemento critico è la regolazione delle applicazioni di IA considerate "a basso rischio". Sebbene queste non siano percepite come minacciose, è importante considerare che anche esse possono avere un impatto rilevante sulla società e sull'ambiente. La gestione dell'energia necessaria per alimentare tali sistemi, ad esempio, potrebbe comportare gravi conseguenze se non gestita adeguatamente. In questo contesto, il Regolamento cerca di trovare un equilibrio tra l'innovazione tecnologica e la necessità di proteggere il benessere pubblico, ma ciò richiede misure che vadano oltre la semplice applicazione di regole generali e che possano rispondere alle specificità di ogni caso.
L'idea che l'IA possa adattarsi autonomamente dopo il suo dispiegamento è un altro punto cruciale della legislazione. La definizione di IA, che inizialmente era legata a software specifici e alle tecniche definite nell'Allegato I, è stata aggiornata per includere "sistemi basati su macchine" che possono operare con "diversi livelli di autonomia" e adattarsi alle circostanze. Questo approccio riflette la natura sempre più complessa dei sistemi IA, che richiedono una comprensione dettagliata dei loro effetti potenziali e delle modalità di interazione con l'ambiente circostante.
Nonostante gli sforzi per stabilire un quadro giuridico che protegga i diritti fondamentali in modo completo, alcuni settori rimangono ancora vulnerabili. Il rischio di malfunzionamenti e incidenti legati all'IA è una realtà che non può essere ignorata, e i modelli di IA che non rientrano nella categoria "ad alto rischio" potrebbero comunque causare danni significativi. La necessità di una regolamentazione che sia tanto inclusiva quanto precisa è quindi urgente, soprattutto per quei sistemi che non sono ancora completamente compresi, come nel caso dei modelli di IA generativa e delle nuove tecnologie di apprendimento profondo.
È evidente che il Regolamento sull'Intelligenza Artificiale dell'UE, pur rappresentando un passo importante nella governance delle nuove tecnologie, è ancora in fase di sviluppo e di adeguamento rispetto alle esigenze di un settore in rapida evoluzione. La continua revisione e aggiornamento delle leggi dovrà essere una costante, poiché la tecnologia evolve più velocemente di quanto le normative possano rispondere, e le soluzioni proposte devono essere abbastanza flessibili da adattarsi a scenari futuri imprevisti.
Come la legislazione del mercato interno dell'UE sta adattando le norme di responsabilità alle tecnologie emergenti e all'IA
La legislazione del mercato interno dell'Unione Europea ha attraversato numerose fasi evolutive per affrontare le nuove sfide imposte dalle tecnologie emergenti, in particolare quelle legate all'intelligenza artificiale (IA) e ai software. Un passo cruciale in questo processo è stato l'ampliamento del concetto di "prodotto" all'interno della direttiva sulla responsabilità per i prodotti difettosi (PLD), con l'inclusione esplicita del software come prodotto. Questo cambiamento riflette l'importanza crescente dei software e dei sistemi basati su IA nel mercato, specialmente quando si considera il danno che possono causare in assenza di un adeguato funzionamento o di un aggiornamento tempestivo.
Nel contesto di questo aggiornamento legislativo, la definizione di "componenti" e di "servizi correlati" ha subito modifiche significative. Secondo la proposta rivisitata della direttiva PLD, una "parte del componente" può essere un elemento tangibile o intangibile, come un servizio digitale integrato o interconnesso con un prodotto, senza il quale il prodotto stesso non sarebbe in grado di svolgere una o più delle sue funzioni. Questo cambiamento è particolarmente rilevante in un'epoca in cui i prodotti intelligenti (smart products) dipendono non solo dai componenti fisici, ma anche dai servizi digitali interconnessi, che sono essenziali per il loro corretto funzionamento.
L'adozione della legislazione europea sulle tecnologie emergenti e l'IA, culminata con la revisione della PLD, ha affrontato il problema cruciale della responsabilità in relazione al danno causato da sistemi basati su IA. L'introduzione dell'IA come prodotto, come sottolineato nell'articolo 4 della direttiva rivisitata, implica che i fornitori di sistemi IA sono considerati produttori, e quindi responsabili, qualora il loro prodotto causi danni. Questo approccio mira a facilitare il risarcimento per le vittime senza che sia necessario provare la colpa del produttore, come accade per altri tipi di prodotti difettosi.
Un aspetto importante della revisione è la distinzione tra prodotti e servizi. Sebbene la PLD continui a escludere i servizi dalla sua portata, riconosce che la sicurezza dei prodotti intelligenti dipende in larga misura dai servizi digitali integrati, come quelli che monitorano e regolano funzioni di sistemi domestici intelligenti. La categoria di "servizio correlato", quindi, non solo consente di includere questi servizi all'interno del regime di responsabilità, ma impone anche una visione più fluida tra prodotti e servizi. Ciò crea scenari complessi, in cui il confine tra cosa costituisce un "prodotto" e cosa costituisce un "servizio" è sempre più labile.
Inoltre, la crescente interconnessione di dispositivi e servizi solleva una nuova questione di responsabilità: i servizi che forniscono dati, come quelli utilizzati nei sistemi di navigazione, potrebbero essere considerati "componenti" di un prodotto, rendendo necessario un approccio molto più sofisticato per determinare la responsabilità legale in caso di malfunzionamento. Tuttavia, non tutte le categorie di servizi si adattano facilmente a questa definizione. Per esempio, i servizi di accesso a Internet non sono sotto il controllo del produttore, e quindi, in linea di principio, non sarebbero considerati "servizi correlati". Tuttavia, quando un prodotto dipende dal funzionamento di un servizio di accesso a Internet per svolgere le sue funzioni, potrebbe essere necessario riconsiderare questa esclusione.
La definizione di "prodotto" nell'ambito della PLD è quindi evoluta per includere software e IA, ma la nuova legislazione non è priva di incertezze. È ancora da chiarire se altri contenuti digitali che funzionano in modo analogo al software, ma che non svolgono compiti specifici autonomamente, siano considerati prodotti ai fini della responsabilità. L'inclusione di modelli come il SaaS (software as a service), per esempio, potrebbe sollevare nuove difficoltà in termini di responsabilità legale, nonostante dalla prospettiva della vittima non vi sia alcuna distinzione rilevante tra la vendita di un prodotto stand-alone o un contratto di abbonamento.
Questi sviluppi normativi, pur fornendo maggiore chiarezza in alcuni ambiti, sollevano anche nuove questioni che richiedono un'attenta analisi caso per caso. L'adattamento delle normative sulla responsabilità del prodotto all'era digitale non è solo un esercizio giuridico, ma una risposta alle trasformazioni rapide e pervasive che caratterizzano l'economia digitale. I produttori di software e sistemi basati su IA sono ora chiamati a rispondere in modo più diretto per i danni causati dai loro prodotti, senza la necessità di dimostrare la colpa, in un contesto in cui le linee di demarcazione tra prodotto e servizio sono sempre più sfumate.
Endtext

Deutsch
Francais
Nederlands
Svenska
Norsk
Dansk
Suomi
Espanol
Italiano
Portugues
Magyar
Polski
Cestina
Русский