La crescente produzione di contenuti generati dall'intelligenza artificiale (IA) ha suscitato un acceso dibattito riguardo la tutela del diritto d'autore. È essenziale comprendere come la legge possa riconoscere le opere generate dall'IA, distinguendo tra quelle create autonomamente dalla macchina e quelle in cui l'intervento umano risulti determinante. In tale contesto, il concetto di "intenzione creativa" e "contributo creativo" assume un ruolo fondamentale.
Il Comitato per la revisione delle nuove merci informative, nel rapporto del 2017, ha ribadito una distinzione cruciale: le opere generate esclusivamente dall'IA non sono soggette a protezione del diritto d'autore, mentre quelle in cui l'IA è utilizzata come strumento per supportare l'intento creativo umano sono protette. La "intenzione creativa" si riferisce a un obiettivo generale di produrre un risultato specifico, mentre il "contributo creativo" implica una partecipazione diretta nell'espressione dell'opera, e non solamente nel contenuto fattuale o ideologico. Questo contributo deve essere valutato caso per caso, poiché in alcune circostanze l'espressione creativa non può essere controllata consapevolmente, soprattutto quando l'opera è in gran parte generata dall'IA.
L'interazione tra il diritto d'autore e la creazione assistita dall'IA solleva una questione complessa: chi sono gli autori? I sviluppatori dell'IA, che programmano e gestiscono i dati per l'apprendimento automatico, non sono generalmente considerati autori delle opere risultanti, in quanto il loro contributo tecnico non influenza direttamente l'output creativo specifico, che è principalmente determinato dagli input forniti dagli utenti, come i comandi (prompt). Tuttavia, in alcuni casi, il ruolo di un sviluppatore o utente potrebbe essere riconosciuto come "contributo creativo". Se un utente o sviluppatore perfeziona un sistema IA per produrre risultati all'interno di un determinato quadro estetico o tematico, tale azione potrebbe qualificarsi come un contributo creativo. Ad esempio, se un utente allena l'IA per generare opere artistiche in uno stile pittorico specifico o per creare opere letterarie con un tema definito, l'utente sta prendendo decisioni che guidano significativamente la direzione creativa del prodotto finale.
La semplice inserzione di un prompt, pur essendo necessaria per interagire con l'IA generativa, non è in genere sufficiente per stabilire un "contributo creativo" autonomo, poiché non specifica l'espressione creativa delle opere generate. Tuttavia, se i prompt sono dettagliati e indirizzano l'IA verso un determinato tipo di output creativo, possono essere considerati parte del processo creativo. Inoltre, la selezione tra le opzioni generate dall'IA implica una certa misura di decisione creativa, simile all'editing o alla curatela, e potrebbe essere riconosciuta come contributo creativo.
Un altro aspetto fondamentale da considerare è il processo iterativo di modifica dei risultati generati dall'IA, che può includere l'aggiustamento dei prompt iniziali o il perfezionamento delle selezioni dopo aver esaminato varie opzioni. Questo processo, che comporta la regolazione continua per perfezionare un'espressione creativa desiderata, riflette i tradizionali processi creativi. Queste modifiche, dove l'utente affina e rielabora il prodotto finale, evidenziano il ruolo attivo dell'utente nella creazione dell'opera finale. Pertanto, nell'ambito delle opere generate dall'IA, sia le specifiche dettagliate fornite all'IA (tramite prompt o parametri di perfezionamento) sia le interventi selettivi da parte degli utenti (tramite scelte e modifiche) possono essere riconosciuti come contributi creativi.
Questa visione si allinea con le tradizionali norme sul diritto d'autore, dove l'ingresso diretto e sostanziale di un individuo nella creazione di un'opera afferma il suo ruolo di titolare dei diritti d'autore. Quando il contenuto generato dall'IA riflette "intenzione creativa" e "contributo creativo" da parte di più individui e incarna pensieri o sentimenti, esso può essere protetto dal diritto d'autore, con l'autore riconosciuto come la persona che ha apportato significativi contributi creativi con intenzione. In determinate circostanze, la legge può riconoscere gli utenti dell'IA come autori, poiché le loro interazioni con l'IA implicano spesso decisioni creative.
Tuttavia, lo status di autore non è sempre chiaro, soprattutto quando i contributi creativi sono divisi tra più individui. In alcuni casi, ciò potrebbe comportare l'assenza di un autore singolo, ma se vi è un significativo sovrapporsi dei contributi, potrebbe essere riconosciuta una coautorialità. In situazioni di questo tipo, è necessario un processo di valutazione accurata per determinare l'entità del contributo creativo di ciascun individuo. Sebbene il contributo collettivo possa costituire un "contributo creativo", non tutte le singole azioni potrebbero qualificarsi come tali, e ciò potrebbe portare a scenari in cui nessun individuo viene riconosciuto come autore.
L'incertezza riguardante la protezione del diritto d'autore per le opere generate dall'IA ha portato a considerare la necessità di un intervento legislativo più mirato. La questione centrale riguarda la necessità di incentivare la produzione creativa. Si sostiene che senza diritti esclusivi sui risultati, gli sviluppatori potrebbero non essere sufficientemente motivati a investire nell'IA, dati i costi finanziari, temporali ed energetici significativi coinvolti. Tuttavia, questo ragionamento potrebbe non estendersi in modo uniforme a tutti i partecipanti allo sviluppo dell'IA. Per gli sviluppatori e i fornitori di servizi IA, le protezioni esistenti tramite brevetti per i sistemi IA o i diritti d'autore per il codice del programma potrebbero essere adeguate. Per gli utenti dell'IA, la necessità di una protezione del diritto d'autore dipende dal loro "contributo creativo" alle opere generate dall'IA.
Attualmente, la maggior parte degli esperti giapponesi concorda sul fatto che non sia urgente estendere la protezione del diritto d'autore alle opere generate dall'IA che non presentano un contributo creativo umano. Estendere tali protezioni non stimolerebbe necessariamente la creazione di nuove opere. Inoltre, le misure protettive tramite diritti esclusivi o diritti connessi sono viste come ingiustificabili in queste circostanze. Tuttavia, vi sono alternative giustificazioni per la protezione dei contenuti generati dall'IA, come suggerito in un altro rapporto del Gabinetto, che propone di riconoscere gli investimenti che le aziende fanno nello sviluppo e promozione di personaggi IA, che, insieme ai contenuti che contribuiscono a generare, formano un modello collaborativo tra gli sforzi umani e quelli dell'IA. Il rapporto del Comitato sottolinea inoltre che se le opere generate dall'IA iniziano a competere sul mercato con le creazioni umane, solo quelle opere che possono rappresentare i loro autori potrebbero qualificarsi.
Come le nuove normative sull'IA influenzano la concorrenza e le pratiche aziendali
Il panorama della concorrenza nel Regno Unito sta subendo un significativo cambiamento, con l'introduzione di nuovi regolamenti che ampliano la portata territoriale delle normative antitrust. L'articolo 119 della Parte 2 del Competition Act del 1998, che trattava solo gli accordi e le pratiche anticoncorrenziali implementati nel Regno Unito, è stato esteso per includere attività che, pur non essendo attuate nel Regno Unito, potrebbero avere effetti diretti e significativi sul commercio e sulla concorrenza nel paese. Questo ampliamento garantisce che le imprese e i consumatori del Regno Unito siano protetti dalle pratiche anticoncorrenziali, anche se esse si verificano in giurisdizioni straniere.
La nuova normativa obbliga a segnalare eventi significativi, come l’acquisizione da parte di un’impresa designata di una partecipazione di oltre il 25% in una società collegata al Regno Unito o la formazione di joint venture con investimenti superiori ai 25 milioni di sterline, che intendono operare nel mercato britannico. In tali casi, l’Autorità di concorrenza e mercati (CMA) ha il diritto di aprire un’indagine per valutare l’impatto sulla concorrenza, decidendo se imporre restrizioni. La regolamentazione è fondamentale per evitare che le fusioni e acquisizioni portino alla creazione di monopoli o al restringimento delle opportunità di mercato per le imprese più piccole.
Anche l'Unione Europea sta affrontando la questione della concorrenza in un mondo digitale che cambia rapidamente. La Commissione Europea ha già lanciato inviti a presentare contributi su come la concorrenza si stia evolvendo nel contesto dei mondi virtuali e dell'intelligenza artificiale generativa (GenAI). Nonostante l’adozione del regolamento sull’IA nell'UE, i sistemi di IA generativa stanno ancora prendendo forma, e le previsioni indicano che il loro impatto sui mercati sarà vasto, creando nuovi modelli di business e trasformando le dinamiche concorrenziali.
Il nuovo regolamento europeo sull'IA (AI Act), approvato nel 2024, stabilisce un quadro giuridico per regolare l'uso dell’intelligenza artificiale in Europa. Anche se il considerando 45 precisa che l’AI Act non intende alterare le normative esistenti sulla concorrenza, le sue implicazioni sono significative. In particolare, l'AI Act influisce sui poteri procedurali e investigativi delle autorità antitrust. Le autorità di vigilanza del mercato devono ora collaborare strettamente con le agenzie di concorrenza per identificare e mitigare i rischi competitivi associati all'uso di tecnologie IA generativa. Un aspetto centrale della normativa è che, per le IA ad alto rischio, le autorità di mercato possono ora accedere ai codici sorgente solo se necessario per valutare la conformità alle norme e se tutte le altre procedure di audit sono state esaurite o si sono rivelate insufficienti.
Il regolamento consente alle agenzie di concorrenza di monitorare le pratiche aziendali anche in assenza di sospetti di violazione della legge sulla concorrenza. In altre parole, le autorità ora possono raccogliere informazioni e accedere a dati sensibili, come i codici sorgente degli algoritmi, senza necessità di indagare su un’infrazione specifica. Ciò crea una nuova forma di vigilanza preventiva, che consente alle agenzie di essere più reattive e proattive nei confronti dei comportamenti anticoncorrenziali.
Inoltre, i fornitori di IA ad alto rischio sono obbligati a mantenere registri dettagliati delle operazioni dei loro sistemi IA, che includono eventi del sistema, operazioni algoritmiche, dati di input, metriche di prestazione, e interazioni con l'utente. Questi registri sono fondamentali per consentire alle autorità di concorrenza di analizzare le pratiche aziendali, ma potrebbero anche avere effetti collaterali indesiderati. La trasparenza richiesta dalla legge potrebbe, in alcuni casi, facilitare comportamenti collusivi tra aziende o condurre ad abusi di posizione dominante da parte di attori più potenti.
Un altro tema rilevante riguarda i modelli IA di tipo generale, cioè quei modelli che possono essere utilizzati in una varietà di contesti diversi e che possiedono capacità avanzate di generazione di contenuti. Questi modelli, sebbene offrano enormi vantaggi tecnologici, sollevano preoccupazioni per la concorrenza. L'AI Act riconosce che i fornitori di tali modelli hanno una responsabilità considerevole lungo tutta la catena del valore dell'IA, poiché questi modelli possono influenzare significativamente i mercati, creando potenzialmente condizioni monopolistiche che potrebbero sfavorire le piccole imprese che faticano a replicare tali tecnologie.
Il cambiamento normativo non si limita solo alla regolamentazione diretta delle tecnologie, ma riflette anche una nuova visione globale della concorrenza nell'era digitale. L’intelligenza artificiale, le tecnologie emergenti e i nuovi modelli di business stanno rimodellando le dinamiche di mercato, e le agenzie antitrust devono adattarsi rapidamente per garantire che la concorrenza rimanga equa. Sebbene la regolamentazione sia ancora in fase di sviluppo e le tecnologie siano in continuo cambiamento, è chiaro che la protezione della concorrenza richiede una vigilanza attenta e un aggiornamento costante delle leggi e delle politiche, affinché possano affrontare le sfide poste dalla digitalizzazione e dall'intelligenza artificiale.
Come la Generative AI e i Sistemi di Raccomandazione Possono Manipolare i Consumatori: Le Implicazioni della GDPR e la Trasparenza
L'introduzione di sistemi basati sull'intelligenza artificiale generativa (GenAI) e raccomandatori automatizzati sta cambiando rapidamente il panorama della comunicazione digitale e del commercio. Tuttavia, questi strumenti pongono significative sfide per la protezione dei consumatori, in particolare per quanto riguarda la trasparenza nell'uso dei dati personali. Le normative europee, come il Regolamento Generale sulla Protezione dei Dati (GDPR) e la Digital Services Act (DSA), cercano di rispondere a queste problematiche, ma la loro applicazione pratica rimane complessa e spesso inefficace.
Il GDPR impone che i dati personali siano trattati in modo lecito, equo e trasparente, e che le organizzazioni che utilizzano sistemi di AI generativa abbiano una base legittima, come il consenso esplicito dell'utente, per raccogliere e trattare i dati. Tuttavia, in molte situazioni il "consenso" degli utenti si riduce a una mera accettazione dei termini e condizioni, spesso difficili da comprendere e prive di reali informazioni sui processi sottostanti. Questo solleva interrogativi sulla genuinità del consenso e sulla capacità degli utenti di comprendere come i loro dati vengano utilizzati per influenzare le loro scelte.
La trasparenza è uno degli aspetti fondamentali del GDPR, ma nel contesto della GenAI, gli utenti medi spesso non sono consapevoli di come i loro dati vengano impiegati per creare contenuti altamente personalizzati e persuasivi. Questa mancanza di chiarezza rende vulnerabili gli utenti, che possono essere manipolati senza una consapevolezza piena dei meccanismi in gioco. Inoltre, il principio di minimizzazione dei dati e di limitazione dello scopo richiede che i dati raccolti siano adeguati e pertinenti, ma spesso le organizzazioni giustificano la raccolta di enormi quantità di dati come necessaria per migliorare l'efficacia dei sistemi di GenAI. Determinare cosa costituisce "dati necessari" è un concetto soggettivo e dipendente dal contesto, il che permette alle aziende di giustificare ampie pratiche di raccolta dei dati.
Inoltre, la GDPR riconosce vari diritti agli individui, come quello di accedere, rettificare e cancellare i propri dati, e di opporsi al loro trattamento. Tuttavia, esercitare questi diritti può risultare complesso, soprattutto quando si interagisce con sistemi GenAI. Gli utenti spesso non comprendono come accedere ai propri dati, né sono consapevoli di come questi vengano utilizzati per influenzarli. Questa difficoltà di esercizio riduce l'efficacia pratica dei diritti previsti dal GDPR, lasciando gli utenti in una posizione di svantaggio.
Un aspetto particolarmente controverso riguarda la regolamentazione dei sistemi di profilazione e delle decisioni automatizzate. Il GDPR include disposizioni specifiche che danno agli utenti il diritto di non essere sottoposti a decisioni basate esclusivamente su trattamenti automatizzati, inclusa la profilazione che li incide significativamente. Tuttavia, il regolamento prevede diverse eccezioni, come quando il trattamento è necessario per l'esecuzione di obblighi contrattuali o si basa su un consenso esplicito. Queste esenzioni possono essere facilmente sfruttate dalle organizzazioni, riducendo l'efficacia delle protezioni previste dalla GDPR.
Un ulteriore problema è rappresentato dalla difficoltà nel distinguere tra decisioni automatizzate e quelle che coinvolgono una minima interazione umana. Questa ambiguità complica l'applicazione delle normative e rende difficile per gli utenti comprendere appieno quando stanno interagendo con un sistema automatizzato, aumentando il rischio di manipolazioni non trasparenti.
Nel contesto dei sistemi di raccomandazione, l'Articolo 27 della DSA tenta di affrontare la questione della trasparenza nei marketplace online e nei motori di ricerca, ma la sua efficacia rimane discutibile. I requisiti di divulgazione dei "principali parametri" che guidano gli algoritmi di ranking potrebbero risultare insufficienti, poiché spesso i sistemi di GenAI sono così complessi e opachi che è difficile per gli operatori delle piattaforme fornire spiegazioni comprensibili sui criteri di ranking. Gli utenti potrebbero non ottenere una comprensione completa di come i risultati di ricerca siano curati e in che misura siano influenzati da strumenti di GenAI.
Inoltre, la DSA prevede che vengano divulgati i risultati sponsorizzati, ma non impedisce manipolazioni più sottili. Anche se gli annunci pubblicitari sono chiaramente etichettati, i sistemi di GenAI possono comunque dare priorità a determinati prodotti o servizi, basandosi su fattori non sempre evidenti, come le metriche di coinvolgimento degli utenti o alleanze strategiche. Questo può creare un'illusione di imparzialità e ranking organico, pur servendo gli interessi di inserzionisti e operatori delle piattaforme.
Secondo la Direttiva sulle pratiche commerciali sleali (UCPD), le pratiche commerciali ingannevoli o aggressive, come la pubblicità falsa o le tattiche di vendita aggressive, sono proibite. Sebbene la UCPD sia stata redatta prima dell'emergere dell'intelligenza artificiale, i suoi principi possono essere applicati per affrontare alcune delle sfide poste dai chatbot GenAI o dai sistemi di raccomandazione. L'articolo 7(4a) della UCPD, ad esempio, impone un obbligo di informare i consumatori sui principali parametri degli algoritmi di ranking e sulla loro importanza relativa. Questa disposizione richiede trasparenza riguardo ai fattori che influenzano il ranking dei contenuti e dei risultati di ricerca, ma nella pratica la mancanza di chiarezza e di regolamenti specifici continua a compromettere l'efficacia di tale approccio.
La trasparenza, quindi, rimane uno degli aspetti più critici per proteggere i consumatori in un mondo in cui l'intelligenza artificiale gioca un ruolo sempre più dominante. L'informazione chiara e comprensibile su come i sistemi AI utilizzano i dati personali per influenzare le decisioni è fondamentale per permettere agli utenti di fare scelte consapevoli. Senza di essa, l'utente rimane vulnerabile a manipolazioni invisibili che possono avere effetti significativi sul loro comportamento e sulle loro preferenze.
Quali sono i passi successivi per un quadro di governance globale più armonizzato per l'IA avanzata?
La governance dei sistemi di intelligenza artificiale generativa (GenAI) si trova oggi in un contesto frammentato, dove le normative nazionali impongono obblighi differenti ai sviluppatori e offrono protezioni non uniformi agli utenti. Come analizzato in precedenza, l'adozione del Codice di Condotta per l'IA (HCoC) potrebbe rappresentare una risorsa fondamentale per migliorare l'interoperabilità tra i quadri normativi dei membri del G7, ancorando lo sviluppo e il dispiegamento dei sistemi GenAI a principi democratici e umanocentrici. Tale coesione potrebbe non solo facilitare la cooperazione tra i membri del G7, ma anche servire da modello per la comunità internazionale. Tuttavia, nonostante il potenziale dell'HCoC nel promuovere l'armonia tra le politiche dei vari paesi, la sua mancanza di specificità limita la sua utilità pratica.
Le discussioni future tra i leader del G7 dovrebbero concentrarsi su come aggiornare l'HCoC per garantire l'interoperabilità delle normative sui sistemi avanzati di IA, non solo tra i paesi del G7, ma anche su scala globale. L'HCoC potrebbe diventare un punto di riferimento per integrare lo sviluppo e il dispiegamento dell'IA con i diritti umani, la democrazia e lo stato di diritto. Per sfruttare appieno il potenziale dell'HCoC, le future discussioni del G7 dovrebbero prioritizzare lo sviluppo in aree chiave come la terminologia e l'interoperabilità definitoria, la gestione dei rischi, l'impegno degli stakeholder, le considerazioni etiche e altre aree che non sono ancora esplorate nel Codice.
Terminologia e Definizioni: Creare un vocabolario comune
L'HCoC potrebbe costituire una base solida per stabilire definizioni consistenti o metodologie comuni per identificare i termini relativi alla governance dei sistemi avanzati di IA, favorendo un'implementazione normativa più fluida tra le giurisdizioni. Un consenso futuro sulla terminologia dovrebbe includere l'adozione di definizioni comuni per concetti critici, facilitando così la comprensione reciproca tra i vari attori del settore. Questo potrebbe essere realizzato mediante l'inclusione di un glossario di termini chiave con definizioni concordate o l'adozione di metodologie per identificare e classificare i sistemi di IA sulla base di fattori rilevanti per la valutazione dei rischi. Un linguaggio comune, infatti, semplificherebbe la comunicazione, offrendo certezza normativa e promuovendo la collaborazione tra i settori industriali a livello internazionale.
Al momento, nonostante gli sforzi per stabilire una terminologia comune, come quelli condotti dal Consiglio per il Commercio e la Tecnologia USA-UE, dall'OECD e dall'ISO, la definizione di "sistemi avanzati di IA" resta ancora vaga. Tale ambiguità solleva la questione di quali criteri – come operazioni a virgola mobile, qualità e dimensione dei dataset, o modalità di input e output – debbano essere utilizzati per classificare un sistema di IA come "avanzato". Per superare questa lacuna, sarebbe cruciale che l'HCoC avesse un ruolo chiave nella definizione e nella standardizzazione di questi termini.
Gestione dei Rischi e Governance: Costruire un quadro comune e robusto
La gestione dei rischi rappresenta una pietra miliare nello sviluppo responsabile dei sistemi di IA avanzata. L'HCoC ha il potenziale di contribuire significativamente a questo ambito, promuovendo principi condivisi e best practices tra le giurisdizioni. Una coesione nella gestione dei rischi dovrebbe includere, in primo luogo, l'identificazione e la condivisione dei rischi di sicurezza, in particolare quelli con conseguenze sistemiche. L'HCoC potrebbe integrare un elenco completo dei rischi tipici associati ai sistemi avanzati di IA, come le "allucinazioni" dell'IA (generazione di output inaccurati), la creazione di contenuti falsi (deepfakes), la violazione della proprietà intellettuale (integrazione di contenuti protetti da copyright nei dataset), le trasformazioni del mercato del lavoro dovute all'automazione, l'impatto ambientale dei sistemi di IA, l'amplificazione dei bias in base ai dati di addestramento e le problematiche relative alla privacy, tra gli altri.
Un approccio in due fasi potrebbe essere utile: prima, includere un elenco di rischi tipici, e successivamente, sviluppare un quadro di valutazione dei rischi per classificare i sistemi di IA in base al loro potenziale di danno. Tale quadro potrebbe attingere a modelli già esistenti, come quello dell'EU AI Act, che classifica i modelli di IA in base ai rischi sistemici, stabilendo requisiti di conformità più severi per i profili di IA ad alto rischio.
Rafforzare la chiarezza nel processo di gestione dei rischi
Per migliorare la chiarezza del processo di gestione dei rischi, l'HCoC potrebbe incoraggiare lo sviluppo di politiche di gestione dei rischi standardizzate, adattate alle applicazioni specifiche dell'IA, coprendo l'intero ciclo di vita dell'IA, dai doveri pre-mercato agli aggiornamenti post-mercato. I futuri sviluppi potrebbero attingere da modelli di gestione dei rischi già consolidati, come quelli forniti dal NIST o dai framework ISO/IEC 42001:2023, e includere anche i principi di altre fonti rinomate per arricchire la comprensione e la completezza delle politiche proposte.
Inoltre, l'HCoC dovrebbe sostenere l'adozione di politiche standardizzate in materia di governance dei dati, gestione dei rischi e sicurezza delle informazioni. La creazione di tali politiche potrebbe beneficiare di framework già esistenti, come quelli offerti dall'ISO/IEC 27001 e 27002, o dal NIST Cybersecurity Framework (CSF), che forniscono fondamenta strutturate adattabili al contesto particolare dei sistemi avanzati di IA.
Meccanismi di autenticazione dei contenuti
L'HCoC potrebbe anche includere meccanismi di autenticazione dei contenuti per consentire agli utenti di identificare gli autori di contenuti generati dall'IA. Tale misura sarebbe essenziale per contrastare la diffusione di contenuti falsi o manipolati, garantendo la trasparenza e l'affidabilità delle informazioni generate dai sistemi di IA.
Per ottenere questi risultati, sarà necessario un impegno coordinato e continuo tra i principali attori globali, inclusi i governi, le organizzazioni internazionali, le università, e le imprese tecnologiche. La cooperazione tra i vari stakeholder sarà fondamentale per stabilire linee guida pratiche e per implementare soluzioni che rispondano a un panorama tecnologico in rapido cambiamento.
Come si garantisce la coerenza tra modelli numerici e teoria fondamentale nelle analisi strutturali non lineari?
Come Gestire una Presidenza Improvvisata: Il Ruolo del Consigliere Militare e le Sfide di Trump

Deutsch
Francais
Nederlands
Svenska
Norsk
Dansk
Suomi
Espanol
Italiano
Portugues
Magyar
Polski
Cestina
Русский