L'uso dell'intelligenza artificiale per la generazione di contenuti ha sollevato una serie di questioni legali complesse, in particolare per quanto riguarda la proprietà intellettuale dei lavori creati. Un aspetto centrale di questo dibattito riguarda la proprietà dei diritti d'autore sui contenuti generati, che, nei casi esaminati, è stata trasferita principalmente agli utenti, pur con condizioni molto varie tra le diverse piattaforme e modelli di intelligenza artificiale.

Per esempio, alcune piattaforme come LENSA e Midjourney, pur concedendo la proprietà del lavoro generato agli utenti, richiedevano l'assegnazione di licenze estremamente ampie e non esclusive per l'utilizzo e la modifica dei contenuti. LENSA, ad esempio, offre agli utenti una licenza "perpetua, revocabile, non esclusiva, senza royalty" che consente di riprodurre, modificare, adattare, tradurre e creare opere derivate. Altri servizi, come NightCafe, sono più diretti e dichiarano che l'utente possiede tutti i diritti di proprietà intellettuale sui contenuti generati. D'altra parte, modelli come Stable Diffusion si affidano a licenze open source comuni, come la versione BLOOM o la CreativeML Open RAIL-M, che implicano condizioni di utilizzo più trasparenti ma anche limitazioni nell'uso commerciale.

Per alcuni servizi di tipo Text-to-Image (T2I), come quelli di Synthesia, Gen-2 e Colossyan, la situazione è sostanzialmente la stessa, con gli utenti che detengono i diritti sui contenuti generati, ma con licenze più restrittive che permettono ai provider di preservare alcune prerogative sull'uso dei dati e sull'infrastruttura tecnologica. Tuttavia, un caso peculiare è quello di Baidu, che attraverso il suo servizio Ernie Bot dichiara di possedere tutti i diritti di proprietà intellettuale sui componenti tecnologici e sull'infrastruttura della piattaforma, ma non chiarisce completamente la situazione riguardante i lavori generati dagli utenti.

Anche nel contesto di modelli di linguaggio come ChatGPT e Bard, la proprietà dei contenuti generati è assegnata agli utenti, con specifiche condizioni relative all'uso e alla responsabilità dei contenuti stessi. In questo senso, è importante notare che la maggior parte delle piattaforme sottolinea che, sebbene gli utenti possiedano i diritti sui contenuti, essi sono responsabili in prima persona per qualsiasi violazione di diritti d'autore derivante dall'uso dei modelli. Le clausole di esonero da responsabilità e le limitazioni di garanzia sono comuni, con molti provider che si distaccano da ogni responsabilità legale per l'uso improprio dei contenuti generati.

La questione della responsabilità per violazioni del diritto d'autore è un altro elemento fondamentale. In tutti i casi esaminati, la responsabilità per eventuali violazioni di copyright ricade interamente sull'utente. Questo si traduce in un obbligo per l'utente di garantire che i contenuti generati non violino i diritti di proprietà intellettuale di terzi. Ad esempio, Midjourney esprime in modo vivace che chiunque violi intenzionalmente i diritti d'autore di altri dovrà rispondere direttamente, con l’azienda che si riserva il diritto di procedere legalmente per recuperare eventuali danni economici. Piattaforme come Stable Diffusion vanno oltre, indicando che la piattaforma stessa non si assume alcuna responsabilità per l'integrità dei contenuti generati, con il disclaimer che i modelli vengono forniti "così come sono", senza alcuna garanzia esplicita o implicita di non violazione dei diritti altrui.

Inoltre, molti modelli includono misure di mitigazione per prevenire o ridurre il rischio di violazioni del copyright, come il blocco di determinati prompt o parole chiave e la sospensione degli account che violano ripetutamente le regole. Alcuni, come Midjourney, utilizzano anche sistemi automatizzati per bloccare determinati contenuti e per segnalare violazioni, mentre NightCafe ha un sistema di enforcement che può comportare la rimozione di contenuti e la sospensione o il ban degli utenti in caso di violazioni. Queste misure servono non solo per prevenire la violazione dei diritti d'autore, ma anche per evitare la generazione di contenuti dannosi, come materiale illegale o disinformazione. L'implementazione di politiche di "notifica e rimozione" (notice and takedown) è ormai una prassi comune, simile a quella adottata dalle piattaforme sociali, per proteggere i provider da responsabilità legali in base a normative come il DMCA (Digital Millennium Copyright Act) o la legge sui servizi digitali dell'Unione Europea (DSA).

In un contesto in cui l'uso dei modelli di intelligenza artificiale è destinato ad aumentare esponenzialmente, è cruciale che gli utenti e i provider comprendano chiaramente le implicazioni legali relative alla proprietà intellettuale. La definizione di chi possiede veramente i diritti sui lavori generati dall'IA non è sempre semplice, soprattutto quando le licenze coinvolgono molteplici attori e tecnologie. I modelli di intelligenza artificiale sono strumenti potenti che ampliano enormemente le possibilità creative, ma richiedono anche una comprensione profonda delle leggi in materia di proprietà intellettuale, responsabilità e diritti d'autore.

Generative AI: Una Nuova Frontiera nell'Evoluzione dei Sistemi Intelligenti

Il concetto di sistemi di intelligenza artificiale (AI) ha subito una notevole trasformazione con l’emergere dei modelli generativi, che pongono nuove sfide legali, tecniche ed etiche. Secondo la definizione proposta dall’Organizzazione per la Cooperazione e lo Sviluppo Economico (OCSE), un "sistema di AI" è un sistema macchina progettato per operare con vari livelli di autonomia e che può mostrare adattabilità dopo la sua implementazione. Questo approccio enfatizza l’interazione, l’adattabilità, l’autonomia e l'influenza sull'ambiente, suggerendo che le capacità dell’AI vanno oltre la semplice esecuzione di compiti predefiniti, spingendo a interrogarsi sulla responsabilità e sulle implicazioni legali di decisioni che possono essere prese in maniera autonoma.

Un aspetto cruciale dei sistemi di AI è la loro capacità di apprendere in modo autonomo, un processo che si arricchisce con l’evoluzione dell'apprendimento adattivo. La crescita esponenziale di tali modelli solleva il rischio che si sviluppino comportamenti emergenti, ovvero comportamenti non previsti dai progettisti, che potrebbero eludere il controllo umano. L’idea che i sistemi di AI possano modificare i propri obiettivi, influenzare decisioni o risorse, o persino utilizzare tecniche di persuasione per simulare il comportamento umano, diventa non solo un’affermazione teorica, ma un rischio concreto. A tale riguardo, la rapidità con cui l’AI genera risultati – siano essi previsioni, raccomandazioni o decisioni – implica un livello di imprevedibilità che rende difficile stabilire la responsabilità per errori o danni derivanti da queste tecnologie.

Il Regolamento sull'AI dell'Unione Europea, al fine di rispondere a questa evoluzione, stabilisce una definizione precisa di "modelli di AI generativa" e "sistemi di AI generali", cercando di allinearsi con le tendenze globali e i concetti sviluppati dall'OCSE. Questi modelli, che appartengono alla categoria dei "modelli di AI generali", sono descritti come sistemi capaci di svolgere una vasta gamma di compiti, indipendentemente dalla loro applicazione specifica. La scelta di includere i modelli generativi sotto questa definizione non è puramente terminologica, ma ha implicazioni concrete riguardo alla regolamentazione, alle responsabilità legali e agli obblighi che tali modelli comportano. A questo proposito, l’introduzione di una disciplina che regola i rischi sistemici legati all’uso di modelli generativi contribuisce a stabilire un quadro giuridico che risponda non solo agli usi quotidiani, ma anche agli scenari potenzialmente pericolosi.

I modelli generativi di AI, pur non essendo definiti esplicitamente come "modelli di AI generativa" nel testo finale del regolamento, sono comunque inclusi come esempio tipico di "modelli di AI generali". Il termine scelto, quindi, evidenzia non solo l'aspetto di "fondamentale" che questi modelli rappresentano, ma anche la loro capacità di adattarsi a molteplici contesti e di operare attraverso una varietà di applicazioni. Da un lato, questi modelli offrono enormi potenzialità in termini di versatilità e capacità di eseguire attività complesse; dall’altro, il loro impatto sulla sicurezza pubblica e la stabilità globale non può essere sottovalutato.

Tuttavia, la regolamentazione sull'AI, pur cercando di abbracciare le caratteristiche distintive dei modelli generativi, non riesce sempre a colmare tutte le lacune in materia. In particolare, la gestione dei rischi associati ai comportamenti emergenti e l’attribuzione di responsabilità in caso di danni derivanti da decisioni autonome rimangono aree di incertezze normative. La rapida evoluzione tecnologica potrebbe infatti generare scenari imprevisti che richiedono un adattamento continuo delle leggi e delle pratiche normative.

È fondamentale che il regolamento non solo identifichi i rischi immediati, ma che anticipi anche le sfide future legate a modelli che potrebbero evolversi al di là delle previsioni attuali. L'integrazione di intelligenza artificiale nei sistemi globali implica una continua riflessione sulla governance di tali tecnologie e sulla capacità delle leggi di adattarsi al cambiamento. Inoltre, è cruciale che la legislazione europea resti aperta e flessibile rispetto alle future scoperte nell’ambito dell’intelligenza artificiale, poiché la velocità dell’innovazione rende sempre più difficile prevedere con certezza gli sviluppi futuri.

Il modello di AI generativa, in particolare, implica la creazione di contenuti che possono influenzare in modo significativo l'ambiente fisico e virtuale. La definizione di "obiettivi" che il sistema apprende, sia espliciti che impliciti, contribuisce alla creazione di un panorama complesso dove le decisioni, le previsioni o le raccomandazioni fatte dalla macchina possono avere implicazioni legali e sociali molto gravi. La natura di tali tecnologie obbliga a un attento esame del contesto in cui operano, nonché dei criteri di valutazione e attribuzione della responsabilità che devono essere applicati.