Il concetto di "volizione" è fondamentale nella determinazione della responsabilità per violazione dei diritti d'autore. La violazione diretta di un'opera si verifica generalmente quando un singolo imputato ottiene l'accesso all'opera protetta e la incorpora nel proprio lavoro. Tuttavia, nel caso dei sistemi di intelligenza artificiale generativa, questo processo è suddiviso tra due parti potenzialmente non correlate: il fornitore del sistema e l'utente. Mentre il fornitore ha accesso iniziale all'opera protetta e crea le condizioni affinché il sistema generi uscite simili, l'utente, attraverso l'interazione con il sistema, crea l'output richiesto.

In linea di principio, il fornitore non è direttamente responsabile per la violazione a meno che non eserciti un controllo stretto sugli output generati dal sistema. Se, ad esempio, un sistema è progettato per generare solo un numero limitato di uscite, come un sistema che registra e trasmette solo i programmi disponibili via trasmissione via etere in una località specifica, allora la responsabilità potrebbe estendersi al fornitore. Ma nei casi di intelligenza artificiale generativa, dove il sistema può produrre un numero quasi illimitato di output, la responsabilità diretta è meno chiara. I sistemi di intelligenza artificiale sono più simili a una tipografia che a un sistema via cavo: quest'ultimo fornisce contenuti predefiniti, mentre il primo offre una vasta gamma di possibili risultati, la maggior parte dei quali non violano i diritti d'autore.

Anche se i dipendenti del fornitore potrebbero aver consapevolmente incluso determinati materiali nei dati di addestramento, non hanno esercitato una "volizione" nel generare i singoli output. In un contesto di intelligenza artificiale generativa, non c'è un'azione diretta di copia dell'opera dell'autore, ma piuttosto un processo di generazione di contenuti su richiesta dell'utente.

L'utente del sistema di intelligenza artificiale può avere un coinvolgimento limitato nel creare un output sostanzialmente simile all'opera protetta. Sebbene sia il prompt dell'utente a generare l'output, questo prompt può essere molto semplice e privo di riferimenti all'opera originale. In questo caso, la copia iniziale dell'opera avviene grazie alle azioni del fornitore, mentre la volizione di creare un output simile è completamente attribuibile all'utente. Non c'è quindi una responsabilità diretta da parte di nessuna delle due parti nella generazione dell'output simile, sebbene la questione resti complessa.

La legge sui brevetti, diversamente dalla legge sul diritto d'autore, prevede una dottrina di "violazione congiunta", ma ciò non stabilirebbe una responsabilità diretta per la violazione dei diritti d'autore, a meno che non vi fosse qualche accordo o coordinamento tra il fornitore e l'utente. In generale, la responsabilità indiretta potrebbe essere un aspetto teorico interessante, ma la sua applicazione pratica è ancora incerta, in particolare considerando che sono già in corso procedimenti legali contro i fornitori di intelligenza artificiale generativa, il che risolverà la questione della responsabilità per l'addestramento del sistema.

Nel caso in cui non vi fosse una responsabilità diretta per la violazione da parte dell'utente, la responsabilità indiretta del fornitore potrebbe diventare rilevante. La responsabilità indiretta per violazione dei diritti d'autore si manifesta in tre forme: responsabilità vicaria, dove il convenuto ha il diritto e la capacità di supervisionare o controllare l'attività illecita e ha un interesse economico diretto nella violazione; responsabilità contributiva, dove il convenuto contribuisce materialmente a un'attività di violazione conosciuta; e induzione, dove il convenuto induce o incoraggia intenzionalmente atti di violazione. Tuttavia, è possibile che nessuna di queste teorie si applichi ai fornitori di AI generativa, se non sussistono i presupposti di controllo o incentivo alle violazioni.

In sintesi, la responsabilità dei fornitori di sistemi di intelligenza artificiale generativa non è immediatamente chiara. Se il fornitore è ritenuto responsabile per le copie fatte durante l'addestramento del sistema, la responsabilità per gli output generati dagli utenti potrebbe essere superflua. Allo stesso modo, se l'utente non è direttamente responsabile per gli output generati, la responsabilità indiretta del fornitore diventa un tema di scarsa rilevanza pratica.

Il concetto di "uso leale" potrebbe diventare un punto cruciale. Ad esempio, se un'immagine generata da una fotografia di ritratto venisse utilizzata come illustrazione su una rivista online, sarebbe molto improbabile che l'uso fosse considerato leale. Tuttavia, la generazione di testi umoristici da abbinare a una canzone ben nota sarebbe più facilmente riconosciuta come "uso leale". È importante comprendere che la valutazione della legittimità dipende in gran parte dall'uso finale che viene fatto dell'output generato dal sistema di intelligenza artificiale.

L'Intelligenza Artificiale nella Giustizia: Rischi e Protezioni Legali

L'uso crescente dell'intelligenza artificiale (IA) nei sistemi giuridici solleva una serie di questioni legali ed etiche, specialmente per quanto riguarda la protezione dei diritti individuali e la salvaguardia dei principi di giustizia. Sebbene l'uso dell'IA nel contesto legale possa migliorare l'efficienza, la trasparenza e la coerenza, non sono da sottovalutare i rischi associati, in particolare quando si tratta di decisioni automatizzate che potrebbero influenzare i diritti fondamentali degli individui.

Una delle principali preoccupazioni riguarda l'articolo 22 del Regolamento Generale sulla Protezione dei Dati (GDPR), che stabilisce il diritto delle persone di non essere soggette a decisioni basate esclusivamente su un trattamento automatizzato dei loro dati personali. Questo diritto include la protezione contro il profilo automatizzato che può generare effetti giuridici significativi su una persona. Tuttavia, questa protezione non si applica automaticamente a tutte le situazioni in cui l'IA è utilizzata nel sistema giuridico. Per esempio, i sistemi di IA assistiva che supportano le attività degli operatori giuridici, come la ricerca o la preparazione di documenti, non sono inclusi in questo divieto, a meno che non producano effetti giuridici diretti sui diritti dei soggetti coinvolti.

Inoltre, la legge sulla protezione dei dati ha dei limiti intrinseci. Essa si applica solo quando vengono trattati dati personali e non copre scenari in cui vengono elaborati dati non personali. Per esempio, controversie legali che riguardano aziende o dati aziendali potrebbero non essere soggette alle normative sul trattamento dei dati, pur essendo trattate da sistemi di IA. Un altro aspetto critico è che la legge sui dati personali proibisce le decisioni totalmente automatizzate, ma non affronta in modo specifico l'uso dell'IA assistiva che non prende decisioni autonome, ma supporta l'operato umano. Di conseguenza, esistono delle lacune che non offrono una protezione sufficiente contro l’uso problematico dell’IA nel sistema giuridico.

Il Regolamento sull'Intelligenza Artificiale (AI Act) dell'Unione Europea, pur cercando di disciplinare l'uso dell'IA in contesti ad alto rischio come quello giudiziario, introduce delle eccezioni importanti. In particolare, l'articolo 6(3) dell'AI Act consente deroghe alla classificazione di "alto rischio" in circostanze specifiche. Ad esempio, se un sistema di IA è progettato per compiere un compito procedurale ristretto, migliorare i risultati di attività umane precedenti, rilevare schemi decisionali o eseguire attività preparatorie, nonostante l'intelligenza artificiale venga impiegata in contesti giuridici, non è considerato "ad alto rischio". Tuttavia, le applicazioni di queste eccezioni sono tutt'altro che semplici, specialmente quando si considera che un'IA può generare contenuti complessi che imitano il lavoro umano in modo sofisticato.

Questa situazione crea un paradosso: se da un lato l'AI Act si preoccupa di limitare l'uso di IA in contesti giudiziari a causa dei rischi di errori e pregiudizi, dall'altro non è completamente chiaro come applicare le eccezioni in modo da evitare danni significativi. Le eccezioni potrebbero consentire all'IA di svolgere attività che, sebbene apparentemente "procedurali", potrebbero in realtà influire sulla qualità e sull'equità delle decisioni giuridiche. Per esempio, l'uso dell'IA per redigere bozze di decisioni legali, analizzare tendenze giuridiche o creare riassunti di casi potrebbe sembrare una pratica innocua, ma se non supervisionata adeguatamente, potrebbe portare a interpretazioni errate della legge o distorsioni nei giudizi finali.

L'interazione con contenuti generati dall'IA in contesti legali non è ancora pienamente compresa, e l'impatto cognitivo che ha su professionisti come giudici, avvocati e altri operatori del diritto resta un campo di studio inesplorato. La rapidità con cui la tecnologia evolve rende essenziale monitorare costantemente i sistemi di IA, specialmente quando si utilizzano in ambiti così delicati come la giustizia.

Da un punto di vista giuridico, è necessario considerare anche la protezione dei diritti umani, che svolge un ruolo fondamentale nell'affrontare queste sfide. L'articolo 6 della Convenzione Europea dei Diritti dell'Uomo (CEDU) stabilisce il diritto a un processo equo, garantendo che ogni persona abbia diritto a un giudizio pubblico, equo e tempestivo, da parte di un tribunale indipendente e imparziale. Questo principio si applica anche quando l'IA è coinvolta, poiché l'uso di tecnologie che possono influenzare l'esito di un caso senza un'adeguata supervisione umana potrebbe compromettere l'imparzialità e l'equità del processo legale.

In conclusione, l'uso dell'IA nella giustizia è un terreno complesso che necessita di un equilibrio tra innovazione tecnologica e protezione dei diritti fondamentali. Sebbene la regolamentazione esista, è chiaro che ci sono ancora molte aree grigie che richiedono una riflessione continua. La legge deve non solo adattarsi ai cambiamenti rapidi della tecnologia, ma anche garantire che le decisioni giuridiche rimangano rispettose dei principi di giustizia e imparzialità.

La Questione delle "Limonate" nel Mercato dell'Arte Generata da AI: Autenticità e Incentivi

Il mercato dell'arte è da sempre terreno fertile per dibattiti legati all'autenticità e alla valutazione dei suoi beni. L'introduzione dell'arte generata da intelligenza artificiale (GenAI) ha aggiunto nuovi strati di complessità a queste discussioni, mettendo in luce una problematica molto simile al noto fenomeno delle "limonate" nel contesto economico: quando prodotti di qualità inferiore si vendono a prezzi elevati grazie alla mancanza di trasparenza. In questo caso, gli artefatti generati da AI e quelli creati dall'uomo sono diventati indistinguibili, portando alla domanda cruciale: chi garantisce l'autenticità di un'opera d'arte generata da una macchina?

Perché esista un "problema delle limonate", è necessario che i prodotti di qualità diversa abbiano un valore differente, ma siano allo stesso tempo indistinguibili. In altre parole, chi acquista un'opera d'arte dovrebbe essere in grado di distinguere se essa sia stata creata da un artista umano o generata artificialmente. Nel caso dell'arte prodotta tramite GenAI, questa distinzione non è immediatamente possibile. L'approccio tecnologico che sta alla base della generazione di opere d'arte da parte di intelligenze artificiali è molto sofisticato. I modelli di Reti Adversariali Generative (GAN), che alimentano il processo creativo, sono progettati in modo tale che un generatore (G) crea nuovi dati a partire da variabili casuali e un discriminatore (D) tenta di distinguere tra dati reali e generati. Se il discriminatore fallisce nel riconoscere una distinzione chiara, il processo di generazione si considera "perfetto". Ciò implica che il risultato finale di un'opera d'arte generata da AI possa sembrare indistinguibile da una creazione umana.

Tuttavia, questa indistinguibilità non implica automaticamente che le opere d'arte prodotte da AI siano falsificazioni o contraffazioni. Una "falsificazione" implica una intenzione fraudolenta di ingannare l'acquirente, presentando un'opera come originale quando in realtà non lo è. Un'opera generata da AI, pur essendo stilisticamente simile a quella di un artista, non è in sé una falsificazione, ma piuttosto un "fake", ovvero un'opera che imita lo stile di un maestro senza pretendere di essere la sua. L'esempio di "The Next Rembrandt", creata con l'ausilio di algoritmi di riconoscimento facciale e deep learning, è un caso emblematico. Sebbene l'opera sia visivamente indistinguibile da un quadro del celebre pittore olandese, essa è stata prodotta da un algoritmo e mai dichiarata come un'opera autentica di Rembrandt.

A questo punto, nasce la questione dell'incentivo a ingannare. Chi acquista o vende opere d'arte potrebbe avere un interesse nell'asserire che un'opera generata da AI sia stata creata da un artista umano, per beneficiare di un valore di mercato superiore. Se da un lato non è facile distinguere le opere, dall'altro è plausibile che il mercato percepisca le opere umane come "pesche" e quelle generati dalla macchina come "limonate". Diversi studi hanno mostrato un pregiudizio negativo nei confronti delle opere d'arte prodotte da AI, suggerendo che la percezione della bellezza e dell'originalità di un'opera può variare notevolmente a seconda che essa sia umana o artificiale.

Ad esempio, quando le opere di AI vengono messe all'asta, talvolta si verificano vendite che superano di gran lunga le stime, come nel caso del ritratto "Portrait of Edmond de Belamy" che è stato venduto da Christie's per una cifra molto più alta rispetto alla sua valutazione iniziale. Tuttavia, successivamente, le vendite di opere simili non hanno più suscitato lo stesso entusiasmo, suggerendo che l'effetto novità stia svanendo. Inoltre, la crescente incertezza legale riguardo alla possibilità di attribuire i diritti d'autore a un'opera d'arte generata da una macchina contribuisce a una certa instabilità nel mercato.

Quando si parla di arte generata da AI, un altro aspetto da tenere presente è che l'uso di queste tecnologie non implica una deprezzamento del valore artistico. Un'opera può essere vista come "autentica" non solo in relazione al suo creatore, ma anche nel contesto delle tecniche utilizzate per produrla. L'arte generata da AI apre nuove opportunità di espressione, ma solleva anche questioni complesse riguardo all'autenticità, al valore e alla proprietà intellettuale. Il mercato, le leggi e la percezione pubblica evolveranno nel tempo per adattarsi a questa nuova realtà, ma è chiaro che l'introduzione dell'AI nel campo artistico non farà che complicare ulteriormente le dinamiche di valutazione e autenticazione.