Le dispute legali relative alla protezione dei diritti d'autore per le opere generate dall'intelligenza artificiale (IA) hanno acquisito una crescente rilevanza in vari sistemi giuridici, a partire dal riconoscimento dell'importanza del contributo umano nel processo creativo. In particolare, diversi tribunali, tra cui quelli in Cina, hanno sottolineato l'importanza della partecipazione intellettuale umana nell'ambito della creazione di contenuti generati da IA per garantire la protezione legale. Queste questioni sollevano interrogativi cruciali su come classificare, proteggere e determinare la proprietà dei diritti d'autore su opere create da sistemi intelligenti.
Il caso del tribunale di Pechino relativo alla causa Li Yunkai v. Liu Yuanchun del 2023, ad esempio, ha evidenziato come la corte abbia focalizzato l'attenzione sulla "originalità" e sul "contributo intellettuale" come prerequisiti per il riconoscimento dei diritti d'autore. Il giudice ha affermato che l'intervento umano, in questo caso la scelta dei prompt, l'ordine e la selezione finale delle immagini, rappresentava un apporto intellettuale sufficiente per configurare un'opera originale, sottolineando così la centralità della decisione umana nel processo di generazione.
In contrasto con altre interpretazioni che mettono in discussione la validità dell'autonomia parziale dell'IA, la corte ha escluso che una breve operazione autonoma dell'IA potesse essere considerata sufficiente per definire l'opera come indipendente. Anzi, ha riaffermato che l'apporto umano, sebbene integrato con il lavoro della macchina, costituisce la parte decisiva per l'originalità dell'opera.
Altre questioni si sollevano quando si tratta di determinare la proprietà dei diritti d'autore per opere generate da IA. Seppur la normativa cinese, come il Regolamento di attuazione della Legge sul Copyright, non consideri la sola partecipazione finanziaria degli investitori come creativa, le figure coinvolte nella progettazione, nella gestione e nell'utilizzo dell'IA possono comunque rivendicare diritti. In particolare, i sviluppatori e gli utenti possono essere considerati titolari di diritti d'autore, se il loro contributo è ritenuto fondamentale nella fase di creazione del contenuto.
Il caso della licenza d'uso dei prodotti IA mostra come molti contratti stipulati dalle aziende di IA con i loro utenti chiariscano i diritti di proprietà intellettuale, facendo in modo che i contenuti generati siano assegnati a chi li utilizza, purché le condizioni siano ben definite. Tuttavia, sussistono dibattiti accademici e legali riguardo alla possibilità che, in base al livello di controllo esercitato sul processo creativo, sia più appropriato che i diritti d'autore appartengano agli sviluppatori o agli utenti finali, creando una zona grigia nel riconoscimento legale delle opere.
In questo contesto, è fondamentale comprendere che il contributo umano non si limita solo a dare istruzioni o scegliere tra diverse opzioni fornite dal sistema IA, ma può estendersi anche alla raffinazione del risultato finale, come avviene con l'editing o la selezione estetica di una composizione. La componente estetica, infatti, è ritenuta cruciale per determinare il valore intellettuale di un'opera, in quanto va oltre la semplice esecuzione meccanica.
Oltre alla questione della protezione legale, l'aspetto della proprietà dei diritti evidenzia la complessità della tecnologia emergente. Investitori, sviluppatori e utenti sono spesso coinvolti in modo indiretto o diretto nel processo di generazione, ma la loro partecipazione non è sempre sufficiente per giustificare una rivendicazione di proprietà. Il dibattito giuridico, quindi, si concentra sul riconoscimento delle diverse forme di contributo creativo e sul bilanciamento tra i vari attori in gioco.
Inoltre, è importante notare che, sebbene la legislazione in Cina non abbia limitazioni simili a quelle giapponesi riguardo all'uso di tecnologie di data mining (TDM) per il copyright, ciò potrebbe cambiare con l'evoluzione delle normative internazionali. Ciò che resta chiaro è che la crescente pervasività dell'IA nelle industrie creative impone una riflessione globale su come il diritto d'autore debba adattarsi ai nuovi modelli di produzione culturale.
La competizione tra modelli open-source e proprietary nell'evoluzione dei modelli di intelligenza artificiale generativa
Un aspetto intrigante nello sviluppo dei modelli di fondazione (FM) è l’equilibrio tra modelli proprietari e open-source, con quest'ultimi che storicamente hanno alimentato l'innovazione, ma che ora si trovano ad affrontare una spinta crescente verso modelli proprietari. Al momento, sia i modelli proprietari che quelli open-source si contendono la scena su vari parametri, tra cui i requisiti specifici dei compiti, le specifiche linguistiche e le dimensioni dei modelli. I sviluppatori possono avvalersi di un ampio ventaglio di dataset pubblici e proprietari, che sono adattati e possono essere basati su compiti, lingue e domini specifici.
I modelli open-source favoriscono una competizione dinamica e la creazione di valore, basandosi su dati e codici condivisi all'interno di un software commons. Questo ecosistema include conoscenze tacite e intuizioni, spesso regolamentate da comunità di pratica. Tuttavia, lo sviluppo e l'esecuzione di questi modelli comportano costi elevati, il che genera una pressione economica verso il consolidamento in monopoli. Secondo Schrepel e Potts, i modelli FM hanno caratteristiche economiche, legali e matematiche uniche che li rendono difficili da regolare dal punto di vista della politica della concorrenza. Tra queste, la tendenza ad accentuare comportamenti anti-competitivi: è difficile proteggere questi modelli tramite brevetti o investimenti di capitale, ma essi beneficiano di ritorni crescenti, poiché più vengono utilizzati, più diventano preziosi. Inoltre, essi formano la spina dorsale per la creazione di applicazioni, il che significa che gli sviluppatori preferiscono pochi modelli principali per garantire compatibilità ed effetti di rete.
Il costo elevato di sviluppo e gestione di questi modelli, dovuto alla potenza di calcolo richiesta, implica che il capitale di rischio solitamente si aspetti ritorni esclusivi dall'accesso o dall'utilizzo di tali modelli. Questo crea forti pressioni economiche verso il monopolio o una concorrenza limitata, dove i prezzi per unità sono ben superiori ai costi marginali che sono fissi. Infine, gran parte dell'innovazione e della produzione in quest'area avviene in un ambiente condiviso e collaborativo, ed è probabile che continui a evolversi in questo modo.
Schrepel e Potts suggeriscono che i responsabili politici considerino l'introduzione di esenzioni legali specifiche per i modelli open-source nelle nuove normative e standard, con oneri di conformità più leggeri. Concentrarsi sui modelli chiusi per la regolamentazione, consentendo esenzioni per quelli open-source, potrebbe migliorare la trasparenza, la concorrenza e l'innovazione. Sostengono queste proposte con misure economiche come incentivi fiscali a supporto dei modelli open-source. La loro conclusione è che le autorità di concorrenza dovrebbero concentrarsi sui modelli chiusi e permettere esenzioni per i modelli open-source, in quanto questi ultimi sono per natura più trasparenti, possono essere copiati (forked) e adattati liberamente, creando diversità e concorrenza attraverso l'innovazione. Le aziende che offrono modelli open-source non hanno lo stesso potere di sfruttare posizioni di mercato, poiché sono generalmente più accessibili, con meno barriere all'ingresso e più interoperabili, contribuendo così a ecosistemi più dinamici.
Le proprietà intellettuali, che conferiscono ai detentori dei diritti un monopolio limitato sull'uso di dati, tecnologie o metodologie, influenzano significativamente l’accessibilità ai dataset. I proprietari dei dati potrebbero scegliere di licenziare i propri dataset dietro pagamento di una tassa, creando barriere all'ingresso per le piccole aziende o i nuovi entranti che potrebbero non avere risorse finanziarie sufficienti. Questo crea un vantaggio competitivo per chi ha maggiore controllo su dati protetti da copyright, permettendo loro di accedere e utilizzare dataset proprietari di alta qualità per addestrare i propri modelli. A livello globale, ci sono preoccupazioni riguardo all’uso di dataset senza consenso, portando a cause legali in vari paesi, come la causa in corso da parte del New York Times contro OpenAI e Microsoft. Un'altra incertezza riguarda l'uso di dati pubblicamente disponibili e i potenziali rischi di violazione del copyright. L'incertezza giuridica riguardo alle implicazioni dei diritti d'autore per l'IA, sia in termini di cause legali contro gli sviluppatori di IA che riguardo all'utilizzo dei dati, solleva domande sullo status giuridico dei risultati generati tramite l'IA.
Le implicazioni giuridiche di queste pratiche potrebbero avere ripercussioni sull’accesso ai dati necessari per addestrare i grandi modelli FM, aumentando l'importanza di dataset esclusivi o concessi in licenza. Tali sviluppi potrebbero portare a una centralizzazione dell'accesso alle risorse fondamentali per il progresso tecnologico, con il rischio che il mercato venga ulteriormente dominato da attori con grandi risorse economiche.
L'adozione dell'IA generativa (GenAI) nei vari settori trasformerà dinamicamente i mercati, creando nuove opportunità economiche ma anche interrompendo i modelli tradizionali. In particolare, l’applicazione dei modelli di AI come output finale, ad esempio in assistenza d'ufficio o nella creazione di contenuti, è fondamentale per comprendere gli impatti sui mercati. Le applicazioni sollevano diverse problematiche competitive sia a livello downstream che upstream che meritano un’analisi approfondita. A livello upstream, i sviluppatori di modelli e applicazioni utilizzano un provider cloud che ospita il modello. A sua volta, i fornitori di cloud potrebbero imporre condizioni tecniche e commerciali che limitano l'interoperabilità, rafforzando la loro posizione sul mercato.
I modelli FM beneficiano di cicli di feedback positivi, poiché più utenti attirano, migliore è il training data, migliorando la qualità del modello stesso. Tuttavia, la curva di apprendimento si appiattirà nel tempo. Più utenti generano maggiori entrate e, di conseguenza, una maggiore capacità di pagare per l'accesso a database esclusivi. I modelli FM più piccoli, non avendo accesso alle stesse risorse, potrebbero vedere limitato il loro vantaggio competitivo.
Le modalità di distribuzione dei modelli influenzano l'evoluzione del mercato. Esistono vari approcci, tra cui servizi in abbonamento, licenze e consulenze. La distribuzione varia a seconda dello scopo, come i servizi di chat rispetto agli assistenti di lavoro. I modelli proprietari chiusi possono integrarsi in prodotti esistenti, creare nuovi servizi o offrire AI-as-a-service. I modelli open-source, invece, promuovono lo sviluppo attraverso laboratori di IA, hub di modelli e rilasci non commerciali, favorendo l'innovazione e la crescita dell'ecosistema.
Quali sono le linee guida per un uso responsabile dell'Intelligenza Artificiale? Un'analisi del Codice di Condotta
Il Codice di Condotta per l'Intelligenza Artificiale (HCoC) è stato creato per garantire che lo sviluppo e l'implementazione dell'IA avvengano nel rispetto dei diritti umani, della democrazia e delle sfide globali. Tra i principi fondamentali dell'HCoC, si evidenziano tre aree principali: la gestione dei rischi, l'etica e le considerazioni sociali. Questi principi non solo aiutano a proteggere i diritti individuali e collettivi, ma promuovono anche un approccio responsabile e collaborativo allo sviluppo dell'IA, rendendola un alleato nel raggiungimento degli Obiettivi di Sviluppo Sostenibile delle Nazioni Unite.
La gestione dei rischi nell'ambito dell'IA è uno degli aspetti più rilevanti dell'HCoC. È essenziale che le organizzazioni identifichino, valutino e mitighino i rischi legati alla sicurezza e alla sicurezza dei sistemi IA durante tutto il loro ciclo di vita. Ciò include l'adozione di metodi di test diversificati, come il red-teaming, per garantire che i sistemi siano sicuri, affidabili e privi di vulnerabilità. Dopo il rilascio, le organizzazioni devono monitorare attivamente i sistemi, cercando eventuali vulnerabilità o malutilizzi, e rispondere in modo adeguato, anche attraverso meccanismi di segnalazione per gli utenti e terze parti. Le politiche di gestione dei rischi dovrebbero essere costantemente aggiornate, rispondendo alle nuove sfide tecnologiche e alle necessità normative.
L'uso responsabile dell'IA richiede anche un impegno verso la trasparenza. Le organizzazioni devono rendere pubbliche le capacità e le limitazioni dei loro sistemi IA, fornendo informazioni significative che consentano agli utenti di comprendere come e quando utilizzare correttamente la tecnologia. Queste informazioni devono essere condivise attraverso rapporti di trasparenza, che dettagliano gli impatti sociali e i rischi potenziali. Inoltre, è essenziale che venga promossa una cultura della condivisione delle informazioni tra le diverse entità, inclusi governi, accademia, e settore privato, per favorire le migliori pratiche e standard di sicurezza.
Un altro aspetto cruciale riguarda l'etica e le considerazioni sociali. L'HCoC stabilisce che l'intelligenza artificiale deve essere sviluppata tenendo conto della protezione dei diritti umani e del rispetto dei valori democratici. I sistemi IA devono essere progettati per tutelare le persone vulnerabili, compresi bambini, anziani e altre categorie a rischio, prevenendo bias dannosi e manipolazioni dell'informazione. La priorità deve essere data a ricerche collaborative che possano garantire che l'IA contribuisca positivamente alla sicurezza e al benessere sociale.
Per affrontare le sfide globali, come il cambiamento climatico, la salute e l'istruzione, l'IA deve essere orientata verso soluzioni che possano risolvere problemi di vasta portata, supportando gli Obiettivi di Sviluppo Sostenibile delle Nazioni Unite. Le organizzazioni devono inoltre contribuire allo sviluppo di standard internazionali per l'IA, che promuovano la trasparenza, l'interoperabilità e la protezione della privacy e della proprietà intellettuale.
Tutti questi principi devono essere supportati da investimenti in ricerca e sviluppo, con un focus particolare sulla sicurezza dei sistemi IA e sull'adozione di politiche di autenticazione dei contenuti, come l'uso di watermarking, per permettere agli utenti di identificare i contenuti generati dall'IA. La qualità dei dati e la protezione della privacy devono essere assicurate, in particolare per quanto riguarda i dati personali, e le organizzazioni devono rispettare i diritti di proprietà intellettuale.
Infine, la cooperazione internazionale è fondamentale. In un mondo sempre più interconnesso, la collaborazione tra paesi e istituzioni è essenziale per sviluppare quadri di governance globali che possano rispondere ai rischi e alle opportunità offerte dall'IA generativa. L'HCoC, pur non essendo giuridicamente vincolante, ha un'influenza significativa come "soft law", orientando il comportamento delle organizzazioni e fungendo da guida per l'adozione di buone pratiche.
La cooperazione internazionale è altresì determinante per garantire l'interoperabilità tra i diversi sistemi di regolamentazione e governance, facilitando un approccio unificato alla gestione dei rischi e alla promozione dell'innovazione. Le sfide sono molteplici, ma un impegno congiunto tra governi, accademia, industria e società civile è la chiave per un futuro in cui l'IA possa essere utilizzata per il bene comune, minimizzando al contempo i rischi.
Il destino di Aaron Burr: l’impero perduto e la fine di un sogno
Come la libertà religiosa viene percepita nella repubblica francese rispetto a quella americana
Come la Federated Learning e la Blockchain Possono Rivoluzionare le Applicazioni IoT per uno Sviluppo Sostenibile

Deutsch
Francais
Nederlands
Svenska
Norsk
Dansk
Suomi
Espanol
Italiano
Portugues
Magyar
Polski
Cestina
Русский