L'integrazione dei modelli generativi nell'ecosistema digitale globale solleva questioni complesse riguardo alla protezione dei dati personali e alla moderazione dei contenuti. Le normative esistenti, come la Direttiva sul Commercio Elettronico (2000/31/CE), hanno cercato di stabilire principi per il corretto funzionamento dei servizi online, ma la rapidità con cui si evolvono le tecnologie come MidJourney, ChatGPT e Bard ha evidenziato lacune significative nelle politiche di protezione dei dati e di gestione dei contenuti.

I fornitori di modelli generativi, come nel caso di MidJourney, ChatGPT e LENSA, offrono meccanismi per la rimozione di contenuti che violano il copyright, ma non sempre questi strumenti sono completi o trasparenti. Le piattaforme di solito richiedono una notifica formale, spesso in conformità con la legge statunitense Digital Millennium Copyright Act (DMCA), per l'eliminazione dei contenuti infrattivi. Tuttavia, le modalità con cui queste richieste sono gestite e i criteri utilizzati dai moderatori sono spesso poco chiari. In alcuni casi, come nel caso di Nightcafe, la piattaforma si riserva il diritto di esercitare discrezionalità nel decidere se una violazione è presente e quale sanzione applicare, ma anche i dettagli relativi ai moderatori umani o automatici rimangono opachi. La difficoltà di identificare gli enti o le persone responsabili della moderazione, unita alla discrezionalità con cui vengono applicate le sanzioni, crea un ambiente in cui l'utente non sempre ha una visibilità chiara su come vengano trattate le sue segnalazioni.

La situazione appare ancor più complicata quando si considerano i diritti legati alla protezione dei dati personali, che in fase iniziale di sviluppo dei modelli generativi erano spesso ignorati o solo marginalmente trattati. In particolare, molti fornitori di modelli non avevano politiche di privacy proprie, ma facevano riferimento a quelle generali delle aziende madri, che spesso non erano specificamente adattate alla gestione dei modelli di AI generativa. Inoltre, le opzioni per esercitare i diritti di protezione dei dati erano limitate, con pochi strumenti per gli utenti per esercitare diritti come la cancellazione dei dati, la portabilità, la rettifica o il diritto di opposizione al trattamento automatizzato.

L'introduzione del Regolamento Generale sulla Protezione dei Dati (GDPR) dell'Unione Europea ha rappresentato un passo importante in materia di diritti dei consumatori, stabilendo che i dati personali utilizzati per addestrare i modelli generativi debbano essere trattati in modo lecito, trasparente e conforme agli scopi per cui sono stati raccolti. Tuttavia, la mancanza di un sistema consolidato per la protezione dei dati nel contesto dei modelli generativi ha spinto a una riflessione più approfondita sulla necessità di adeguare questi strumenti alle normative globali sulla privacy. Le preoccupazioni sollevate dalle autorità italiane sulla possibile violazione dei diritti dei consumatori da parte di OpenAI e ChatGPT nel 2023 hanno messo in evidenza quanto la legislazione, anche quella extraterritoriale, come il GDPR, stia iniziando a influenzare la regolamentazione delle IA generative. Le piattaforme che operano in Europa o utilizzano i dati personali di cittadini europei sono obbligate a rispettare le disposizioni del GDPR, il che implica una gestione adeguata dei dati e la creazione di meccanismi efficaci per la protezione della privacy.

Nonostante ciò, le problematiche legate alla protezione dei dati sono tutt'altro che risolte. Se i dati personali vengono utilizzati per addestrare i modelli, devono essere giustificati con una base giuridica adeguata. Il concetto di "diritto all'oblio" è stato uno dei temi più dibattuti, soprattutto in relazione alla compatibilità tra il trattamento di dati personali e le esigenze di formazione dei modelli. In molti casi, l'applicazione della normativa GDPR ai modelli generativi è ancora in fase di definizione, con linee guida che sono in corso di elaborazione da parte del Comitato Europeo per la Protezione dei Dati (EDPB).

Nel panorama in evoluzione delle piattaforme di modelli generativi, emerge un problema fondamentale: la protezione dei dati e la moderazione dei contenuti devono essere affrontate non solo come singole questioni, ma come un contesto interconnesso in cui i diritti degli utenti devono essere protetti, ma anche garantita una moderazione trasparente e responsabile. Il rafforzamento della governance digitale e delle politiche di protezione dei dati sarà fondamentale per il futuro di queste tecnologie.

Oltre a questi aspetti, è fondamentale che i lettori comprendano il contesto giuridico in cui operano le piattaforme di AI generativa, soprattutto alla luce delle normative regionali e internazionali. Mentre la DMCA offre un quadro di riferimento principalmente per gli Stati Uniti, il GDPR e altre leggi locali stanno stabilendo nuovi standard di protezione per i cittadini. Pertanto, le piattaforme devono non solo conformarsi a questi standard, ma anche attuare politiche interne di moderazione dei contenuti che siano coerenti e prevedibili, in modo da evitare un eccesso di discrezionalità che potrebbe danneggiare gli utenti. La creazione di un sistema di governance più equo e trasparente sarà una delle sfide principali per le tecnologie emergenti.

L'intelligenza artificiale generativa e la sua rappresentazione della realtà: implicazioni epistemologiche e legali

L'intelligenza artificiale generativa (Gen AI) ha raggiunto livelli straordinari di capacità computazionale, permettendo alle macchine di produrre output che si avvicinano in modo inquietante alla realtà percepita dagli esseri umani. Questa potenza computazionale, tuttavia, porta con sé sfide epistemologiche e normative che necessitano di un esame approfondito, specialmente nel contesto del diritto. Mentre gli esseri umani sono in grado di interpretare la realtà attraverso abilità semantiche – attribuendo significato e valore alle informazioni – Gen AI agisce come un motore sintattico che elabora enormi quantità di dati senza comprendere il contenuto di ciò che elabora.

La differenza fondamentale tra l'uomo e l'AI generativa risiede nella natura della conoscenza. Gli esseri umani, infatti, sono in grado di operare una "ascesa semantica", cioè di passare dal linguaggio alla comprensione profonda di ciò che rappresentano le parole, mentre Gen AI non possiede questa capacità. Le sue risposte sono il risultato di una manipolazione statistica di parametri, priva di un'effettiva consapevolezza semantica del contenuto. La rappresentazione della realtà offerta da Gen AI, quindi, pur potendo essere accurata in determinate circostanze, non è mai fondata su un sistema di verifica intersoggettiva del suo valore epistemico.

Inoltre, l'approccio epistemologico dell'intelligenza artificiale generativa si discosta notevolmente dalla metodologia utilizzata nel diritto. La scienza giuridica, infatti, è un processo progressivo che si basa sulla discussione, sull'interpretazione e sull'applicazione di principi, categorie e prove, tramite un sistema normativo condiviso. Ogni conoscenza giuridica prodotta è soggetta a controllo e verifica da parte di una comunità di esperti, che contribuiscono in modo incrementale all'evoluzione della disciplina. In contrasto, Gen AI produce output che non necessitano di una comunità di interpreti per essere applicati, rendendo la sua "conoscenza" più un prodotto finale che un processo dinamico di validazione e discussione.

L'impossibilità di attribuire significato o di validare l'affidabilità degli output generati da Gen AI solleva interrogativi cruciali sul suo impatto nella presa di decisioni. Ad esempio, i modelli di linguaggio come ChatGPT possono fornire risposte variabili o anche contraddittorie, mettendo in evidenza l'incapacità del sistema di garantire una coerenza epistemica nelle sue produzioni. Ciò pone il problema della riproducibilità e del controllo delle risposte, dal momento che chi controlla le domande controlla le risposte e, di conseguenza, la realtà stessa.

Dal punto di vista legale, l'incapacità di Gen AI di fornire una spiegazione causale o predittiva valida limita la sua utilità come strumento di supporto decisionale nelle questioni giuridiche. La legge ha sempre avuto il compito di determinare l'entità e i limiti delle spiegazioni causali, stabilendo il legame tra eventi e le loro conseguenze legali. Tuttavia, Gen AI non è in grado di tracciare tale catena causale né di prevedere con certezza le implicazioni future di un evento. Questo solleva la questione di come il diritto possa regolare un evento quando non è in grado di determinare la provenienza e le conseguenze della conoscenza prodotta.

Il modello di Gen AI, quindi, non solo manca della capacità di conferire significato alle informazioni, ma impedisce anche una valutazione intersoggettiva e un controllo continuo da parte di una comunità di esperti. Il diritto, al contrario, è una costruzione sociale che si nutre di interpretazioni e discussioni da parte di esperti, ed è proprio questa interazione collettiva che rende il sapere giuridico progressivo e dinamico.

Nel contesto attuale, risulta fondamentale comprendere come bilanciare la rappresentazione della realtà prodotta dall'intelligenza artificiale generativa con l'interpretazione umana. Le questioni epistemologiche relative alla validità e all'affidabilità degli output generati dall'AI non sono solo una questione tecnica, ma anche etica e legale. Quali meccanismi possiamo implementare per garantire che le decisioni basate su Gen AI siano controllabili e giustificabili? L'adozione di salvaguardie che tutelino l'affidabilità dei sistemi AI e la loro capacità di operare nel rispetto dei principi normativi è una delle chiavi per affrontare queste sfide.

L'intelligenza artificiale generativa, quindi, pur essendo uno strumento straordinario, solleva interrogativi che riguardano la nostra capacità di comprenderla, controllarla e utilizzarla in modo responsabile. L'approccio epistemologico giuridico ci offre un quadro di riferimento utile per interrogarsi sul ruolo dell'AI nella società, ma è necessario andare oltre la mera applicazione tecnica della tecnologia, considerando anche le implicazioni filosofiche, etiche e legali che essa porta con sé.

La regolamentazione delle pratiche di manipolazione digitale e l'intelligenza artificiale: implicazioni legali e sfide future

Il Digital Markets Act (DMA) si occupa di regolare le pratiche di pubblicità personalizzata e il consenso degli utenti, in particolare per quanto riguarda la progettazione di interfacce e l'autonomia delle decisioni degli utenti. Nella sua dichiarazione del considerando 37, il DMA stabilisce che il consenso all'inserimento della pubblicità deve essere libero e consapevole. Inoltre, secondo l'articolo 13(6) e il considerando 70, viene ribadito che i gatekeeper non devono adottare comportamenti che possano compromettere l'efficacia delle disposizioni e degli obblighi previsti dal DMA. In particolare, sono vietati comportamenti che influenzino la scelta degli utenti attraverso la progettazione delle interfacce, impedendo un’autonomia decisionale libera e imparziale. Un esempio di questo fenomeno è rappresentato dai "dark patterns", tecniche manipolatorie che sfruttano la struttura, il funzionamento e l’interfaccia dell’applicazione per influenzare le scelte degli utenti in modo non neutro.

Tuttavia, il concetto di "non neutrale" resta ambiguo e, per quanto riguarda la parte operativa della norma, il divieto si limita solo all'interfaccia, senza tenere conto dei contenuti personalizzati. In tal modo, l’uso di intelligenza artificiale generativa per contenuti altamente personalizzati, come nel caso della pubblicità legata ai prodotti elettronici, potrebbe non essere direttamente sanzionabile se non modifica l’interfaccia dell’utente. Questo lascia spazio per la manipolazione tramite contenuti, seppur non attraverso modifiche all'interfaccia, portando così ad un potenziale vuoto normativo nelle regolamentazioni attuali del DMA.

Un altro importante limite del DMA è rappresentato dalla sua applicazione esclusiva ai gatekeeper, escludendo da tale normativa le piccole aziende e gli operatori che non rientrano sotto la sua definizione. Di conseguenza, le piccole imprese potrebbero continuare a fare uso di pratiche di manipolazione senza essere soggette alla sorveglianza del DMA, accentuando le lacune della regolamentazione nel trattamento dei "dark patterns". Inoltre, le normative non si applicano ai siti web, il che limita ulteriormente l’efficacia del DMA nell’affrontare il fenomeno della manipolazione digitale.

Parallelamente, l'Artificial Intelligence Act (AIA), pubblicato nell'aprile del 2021, ha rappresentato il primo tentativo dell'Unione Europea di regolamentare l'intelligenza artificiale, introducendo un approccio basato sul rischio. L'AIA include una lista di pratiche proibite, incentrate su quelle AI che violano i diritti fondamentali dell'individuo. La versione aggiornata del testo, approvata nel 2023, ha incluso modifiche specifiche relative alla manipolazione subliminale da parte dei sistemi di AI. L'articolo 5 (1)(a) ora stabilisce che è vietato l'uso di tecniche subliminali o manipolative che alterano significativamente il comportamento degli individui, influenzando la loro capacità di prendere decisioni informate. Queste pratiche, secondo l'AIA, devono essere proibite in quanto minacciano il benessere psicologico e fisico dell'individuo.

Tuttavia, l'AIA solleva altre questioni. Innanzitutto, la definizione di "tecniche subliminali" rimane vaga, poiché non è inclusa nei testi legislativi europei. L'assenza di una definizione precisa rende difficile applicare queste disposizioni in modo uniforme. La direttiva 2007/65/EC, ad esempio, vieta l'uso di tecniche subliminali nella pubblicità audiovisiva, ma senza specificarne il contenuto. Sebbene alcuni tentativi di definizione siano stati fatti, non esiste ancora un consenso in merito.

Nel contesto della pubblicità digitale, queste lacune si estendono alla progettazione di assistenti virtuali o altri sistemi basati su intelligenza artificiale, che potrebbero essere utilizzati in modo manipolativo, sfruttando le percezioni subliminali degli utenti. Un esempio di ciò è l'uso delle IA nei giocattoli o nei dispositivi domestici, che potrebbero indurre gli utenti a fare scelte che non riflettono pienamente le loro intenzioni consapevoli.

Alla luce di queste problematiche, è importante comprendere che il legislatore europeo sta cercando di affrontare un fenomeno complesso e in continua evoluzione, dove le tecnologie digitali e le capacità delle intelligenze artificiali pongono nuove sfide per la regolamentazione. Le pratiche manipolative, infatti, non si limitano all’interfaccia utente, ma si estendono al contenuto che viene presentato, aumentando i rischi di decisioni distorte, spesso inconsapevoli. Il futuro della regolamentazione dovrà prendere in considerazione questi aspetti, adattandosi a un panorama che cambia rapidamente e cercando di garantire la protezione degli individui senza ostacolare l'innovazione.

L'influenza dell'IA nel mercato dell'arte: Il problema dei "limoni" e la selezione innaturale

Nel contesto dell'arte contemporanea, l'introduzione dell'intelligenza artificiale (IA) ha sollevato questioni rilevanti riguardo alla separazione tra opere create dall'uomo e quelle assistite dalla macchina. La vicenda del fotografo tedesco Boris Eldagsen, che nel 2023 ha rifiutato il premio nella categoria Creative Open Competition dei Sony World Photography Awards dopo aver rivelato che la sua foto era stata realizzata con un'intelligenza artificiale, ci offre uno spunto interessante. Eldagsen ha dichiarato di aver volutamente ingannato la giuria per avviare una discussione pubblica sul futuro della fotografia. Questo gesto, pur sollevando polemiche, ci porta a riflettere sulle implicazioni legali ed economiche dell'uso dell'IA nell'arte.

La questione centrale che emerge è la difficoltà nel definire il controllo creativo: mentre nelle opere create interamente dall'uomo il controllo è evidente, l'uso di un'intelligenza artificiale solleva dubbi sul grado di creatività effettivamente esercitato dall'autore umano. Secondo il caso Burrow-Giles Lithographic Co. v. Sarony del 1884, la presenza di un "controllo creativo umano" è sufficiente affinché un'opera venga riconosciuta come protetta dal diritto d'autore. Tuttavia, il caso recente Zarya of the Dawn, discusso dalla US Copyright Office nel 2023, suggerisce che l'utilizzo di un'IA potrebbe non soddisfare questo requisito, poiché l'intelligenza artificiale, pur essendo un potente strumento, non esercita una "creatività" nel senso tradizionale del termine.

Questa distinzione tra le opere umane e quelle "aumentate" dalla macchina ha anche ripercussioni sul mercato dell'arte, creando una situazione di "informazione asimmetrica". In termini economici, questo fenomeno è simile al cosiddetto "problema dei limoni", descritto dall'economista George Akerlof nel 1970. In un mercato dove è impossibile distinguere tra un'opera d'arte creata dall'uomo e una creata con l'assistenza dell'IA, i compratori non possono valutare correttamente il valore intrinseco dell'opera. Se i venditori hanno interesse a non rivelare l'uso dell'IA nella creazione, il prezzo delle opere umane rischia di essere sistematicamente sottostimato, mentre le opere "aumentate" dalla macchina potrebbero essere vendute a un prezzo superiore rispetto al loro valore reale.

Il mercato dell'arte, quindi, diventa terreno fertile per il "problema dei limoni". Come nel caso delle automobili usate, in cui i "peaches" (le buone) sono indistinguibili dai "lemons" (le cattive), i compratori sono costretti a fare una valutazione media della qualità. Questo comportamento abbassa il prezzo delle opere di alta qualità, creando un circolo vizioso in cui gli artisti umani, a causa di questa distorsione, non riescono a ottenere il giusto valore per le loro opere. Così, l'arte "aumentata" dall'IA, pur non essendo necessariamente di qualità superiore, finisce per prevalere in un mercato sempre più orientato a cercare opere meno costose e più facilmente replicabili.

Un'interpretazione di questa dinamica potrebbe essere quella di una "selezione innaturale", ispirata alla teoria di Charles Darwin sulla selezione naturale. Se due specie competono per lo stesso spazio ecologico, quella più adattata prevale. Tuttavia, nel caso del mercato dell'arte, non è la qualità intrinseca delle opere a determinare il loro successo, ma l'informazione asimmetrica che crea un vantaggio per le opere assistite dalla macchina. L'assenza di competizione basata sulle meriti delle opere stesse porta alla marginalizzazione dell'arte creata dall'uomo, che rischia di essere soppiantata da quella "macchina-assistita". Darwin, nel suo celebre lavoro L'origine delle specie, sosteneva che la selezione naturale agisce preservando le variazioni favorevoli che si adattano meglio all'ambiente. In questo caso, però, la selezione non avviene in modo naturale, ma è indotta da un'informazione incompleta e da vantaggi esterni al merito.

Questa situazione è particolarmente pericolosa per la qualità e la varietà del mercato dell'arte. L'arte umana, spesso più costosa e con un valore sentimentale, potrebbe scomparire se non si interviene per regolamentare questa disparità di informazioni. La soluzione a questo problema potrebbe risiedere nell'introduzione di un "regolamento d'origine", ispirato alle leggi sull'autenticazione delle opere d'arte e al sistema doganale dell'Unione Europea. Questo regolamento permetterebbe di garantire che ogni opera, sia essa creata dall'uomo o assistita dalla macchina, venga adeguatamente etichettata, permettendo ai compratori di fare scelte consapevoli e giuste.

Inoltre, l'adozione di regole chiare sull'origine delle opere d'arte potrebbe non solo risolvere il problema dell'informazione asimmetrica, ma anche rafforzare la posizione degli artisti umani nel mercato. Questo tipo di intervento potrebbe essere una risposta proporzionata alle sfide portate dall'intelligenza artificiale, senza ricorrere a una resistenza totale verso l'innovazione tecnologica. Non si tratta di escludere l'IA dal processo creativo, ma di garantire che entrambe le forme di arte – quella umana e quella assistita dalla macchina – possano coesistere e competere in modo equo, preservando la diversità e la qualità del mercato dell'arte.

Qual è la responsabilità dei creatori di modelli AI quando gli strumenti vengono modificati per scopi dannosi?

La rapida evoluzione delle tecnologie di intelligenza artificiale (IA) ha introdotto sfide significative in ambito giuridico, in particolare per quanto riguarda la responsabilità dei creatori di modelli AI. Un aspetto fondamentale è il ruolo che i modelli di IA possono giocare nel facilitare attività dannose, come gli attacchi informatici. La difficoltà di determinare se il creatore di un modello AI possa essere ritenuto responsabile per il suo uso improprio dipende da vari fattori, inclusi i meccanismi di sicurezza implementati nel modello e la possibilità che l'utente finale modifichi questi sistemi per scopi malintenzionati.

Un esempio pratico potrebbe essere quello di un modello AI progettato per impedire l'accesso a contenuti dannosi o attività illegali, come l'attacco a infrastrutture critiche. Se il creatore del modello inserisce dei "safeguards" (sistemi di protezione) che impediscono a un utente di richiedere aiuto per attività dannose, come attacchi informatici, in teoria il modello dovrebbe essere sicuro da un uso illecito. Tuttavia, la realtà è ben più complessa. Molti ricercatori hanno dimostrato che, con una minima modifica, gli utenti possono facilmente rimuovere queste protezioni. Ad esempio, basta eliminare solo una piccola parte dei pesi del modello per comprometterne la sicurezza, o eseguire un "fine-tuning" (aggiustamenti successivi tramite addestramento) su una piccola quantità di dati, per rimuovere le misure di sicurezza.

Il problema si aggrava quando il modello è rilasciato in un ambiente dove non è possibile monitorare completamente l'uso finale. Se un modello, dopo essere stato rilasciato, viene modificato da un utente che rimuove le protezioni, il creatore originale del modello può essere ritenuto responsabile? E cosa dire di coloro che utilizzano il modello per scopi legittimi, come testare la sicurezza, ma che, a causa delle modifiche, si trovano a contribuire, involontariamente, a danni maggiori? La domanda fondamentale che si pone è: quale standard di "cura ragionevole" si applica in questi casi?

La questione della "cura ragionevole" è particolarmente complicata in scenari in cui il modello viene rilasciato online e, successivamente, viene alterato per scopi dannosi. Se un modello originariamente sicuro viene manipolato per facilitare attacchi, può essere difficile determinare se il creatore originale abbia fatto tutto il possibile per evitare l'abuso. La legge potrebbe, in futuro, evolversi per riconoscere che i creatori di modelli devono prevedere la possibilità che i loro strumenti vengano modificati e utilizzati in modo pericoloso, e quindi essere responsabili per non aver impedito tale possibilità.

Inoltre, la questione dell'intento (scienter) rappresenta un altro ostacolo significativo. In molte giurisdizioni, la responsabilità per danni causati da un'azione illecita richiede la prova che il colpevole fosse a conoscenza dei rischi associati al proprio comportamento. Ad esempio, in casi legali come Twitter, Inc. v. Taamneh e Gonzalez v. Google, i tribunali hanno esaminato se le piattaforme sociali possano essere ritenute responsabili per il reclutamento di terroristi attraverso i loro algoritmi di raccomandazione. In questi casi, la domanda non è se l'algoritmo "sapeva" cosa stava facendo, ma se l'azienda fosse consapevole del rischio di promuovere contenuti dannosi. Analogamente, se un modello AI viene utilizzato per scopi dannosi, potrebbe essere difficile provare che il creatore del modello fosse consapevole di tale utilizzo, soprattutto se non esiste un monitoraggio diretto delle interazioni tra utenti e modello.

La responsabilità giuridica dei creatori di modelli AI non si limita, quindi, a un'analisi superficiale del design del modello stesso, ma deve includere una riflessione sulla facilità con cui tali modelli possono essere manipolati o modificati. In un contesto dove gli strumenti sono sempre più accessibili e modificabili, i creatori di modelli dovranno adottare misure di sicurezza più sofisticate, non solo per evitare abusi immediati, ma per rendere difficile l'uso malevolo anche a posteriori.

Infine, è importante comprendere che la responsabilità legale non si ferma solo al livello di progettazione del modello, ma si estende anche a come vengono gestiti e monitorati i modelli dopo il loro rilascio. Le protezioni installate a livello di codice potrebbero non essere sufficienti a garantire che il modello venga utilizzato solo per scopi legittimi, se non vengono anche adottate politiche per tracciare e limitare l'accesso a funzionalità pericolose. In un futuro vicino, potrebbero emergere nuove leggi e regolamenti che impongano ai creatori di IA di prevedere scenari complessi e imprevisti, con il fine di ridurre il rischio di danni sistemici derivanti dall'uso illecito delle tecnologie.