La crescente centralità dei modelli di intelligenza artificiale generativa solleva importanti interrogativi riguardo alla protezione dei dati personali. L'asimmetria informativa tra le grandi aziende tecnologiche e gli utenti, che sono i principali fornitori di dati, è ormai una realtà consolidata. Il potere informativo di queste aziende rende difficoltoso per gli utenti gestire pienamente i propri dati, lasciando spazio a un controllo limitato da parte degli stessi. Sebbene i diritti di privacy possano conferire una protezione modesta in casi isolati, questo controllo è troppo sporadico e frammentato per costituire una difesa efficace contro la raccolta e l'uso dei dati.

In questo contesto, i diritti legali, come il diritto all'informazione, alla rettifica e alla cancellazione dei dati, non sono sufficienti per contrastare in modo significativo il disempowerment dei dati. In molti casi, la quantità enorme di dati trattati dai modelli di intelligenza artificiale rende impossibile l'informazione diretta degli utenti riguardo al trattamento dei loro dati, o addirittura l'identificazione di chi stia processando questi dati. Come evidenziato dalla prassi, aziende come OpenAI e Midjourney non hanno risposto alle richieste di informazioni da parte degli utenti i cui dati sono stati utilizzati per addestrare i modelli. La difficoltà di far rispettare i diritti previsti dal GDPR risiede proprio nella mancanza di trasparenza e nel fatto che l’informazione necessaria a garantire la protezione dei diritti dell'individuo spesso non può essere fornita in modo efficace.

Il GDPR stabilisce che i dati personali devono essere trattati in modo trasparente, ma questa trasparenza diventa problematico quando i dati provengono da fonti multiple e vengono trattati in modo così vasto. L'articolo 13 del GDPR impone che gli utenti siano informati su chi stia trattando i loro dati, per quali scopi, sulla base di quale giuridica legittimità e se questi dati siano stati condivisi con terzi. Tuttavia, le stesse normative prevedono delle eccezioni, come nel caso in cui la fornitura di tali informazioni risulti impossibile o comporti uno sforzo sproporzionato, specialmente per finalità di archiviazione pubblica, ricerca scientifica o scopi statistici. Queste eccezioni non dovrebbero applicarsi a modelli generativi che trattano dati in modo universale, ma la prassi giuridica non sembra in grado di risolvere adeguatamente queste problematiche.

I diritti di cancellazione o rettifica, pur essendo previsti dalla legge, diventano di difficile applicazione nei casi in cui il trattamento dei dati non è univoco. Ad esempio, i dati utilizzati per addestrare un modello di intelligenza artificiale possono essere diffusi e riutilizzati in maniera tale che, anche se un dato viene "rimosso" dal dataset, non si può garantire che venga effettivamente eliminato o che l'informazione correlata non emerga in seguito. Poiché i modelli di apprendimento automatico utilizzano i dati durante la fase di addestramento per costruire i propri parametri, l'informazione originale potrebbe emergere nelle risposte generate dal modello, facendo sembrare che i dati eliminati siano ancora accessibili.

A questo si aggiunge il problema della responsabilità legale nei confronti dei modelli generativi. Secondo il GDPR, la responsabilità per il trattamento dei dati è divisa tra il "titolare del trattamento" e il "responsabile del trattamento", ma nel contesto dei modelli generativi, è difficile stabilire chi abbia la piena responsabilità, soprattutto quando i dati vengono trattati in maniera complessa e multilivello. Le aziende che sviluppano i modelli, come OpenAI e Google, sono chiaramente titolari del trattamento per quanto riguarda l'elaborazione dei dati utilizzati per costruire i parametri del modello. Tuttavia, quando gli utenti interagiscono con questi modelli e forniscono input (come i prompt), si pone la questione di se questi utenti possano essere considerati co-titolari del trattamento dei dati ai sensi dell'articolo 26 del GDPR. Gli utenti non agiscono come "responsabili del trattamento" nel senso tradizionale, ma la loro interazione con il modello pone interrogativi sulla natura della loro responsabilità, seppur limitata.

Il problema della gestione dei dati nei modelli generativi diventa ancora più complesso considerando che, mentre il modello viene utilizzato per scopi individuali, il trattamento dei dati avviene in modo collettivo. È chiaro che la protezione dei dati non può essere affrontata unicamente a livello individuale, ma deve essere ripensata su una scala più ampia, che includa una visione sistemica e collettiva. Questo implica una nuova comprensione della protezione dei dati, che non può limitarsi a soluzioni puntuali per singoli individui, ma deve abbracciare l'intero ecosistema tecnologico.

La risoluzione delle problematiche legate alla protezione dei dati nei modelli generativi non può fare a meno di un approccio che comprenda la responsabilità condivisa e la cooperazione tra sviluppatori, utenti e autorità di regolamentazione. Solo in questo modo sarà possibile affrontare adeguatamente le sfide poste dall'uso massivo dei dati nei modelli di intelligenza artificiale generativa, garantendo, allo stesso tempo, che i diritti degli individui siano effettivamente rispettati.

Generative AI e Responsabilità Criminale: Un Dilemma tra Colpa e Controllo

La crescente diffusione delle tecnologie di intelligenza artificiale generativa solleva interrogativi complessi sul piano della responsabilità legale, in particolare riguardo ai danni causati da queste tecnologie e al ruolo che gli attori umani, come sviluppatori e operatori, rivestono in tale contesto. Le difficoltà derivano principalmente dalla natura del sistema, che è intrinsecamente dinamico e multifattoriale. I danni legati all’uso di sistemi di AI generativa non sono mai il frutto di una singola azione, ma piuttosto il risultato di un'interazione tra vari attori: l'utente, il sistema stesso e, talvolta, altre entità tecniche, come le piattaforme su cui i modelli vengono implementati. Questo quadro solleva il problema centrale del diritto penale: chi, e fino a che punto, è responsabile per un danno causato da un’intelligenza artificiale?

Le difficoltà di causazione in questo contesto sono notevoli. In molti casi, le azioni degli utenti che abusano della tecnologia non sono completamente controllabili dai progettisti o dagli operatori dei modelli. Ad esempio, nei modelli open-source di AI generativa, la possibilità di monitorare e limitare l'uso malevolo da parte degli utenti è sostanzialmente assente. Al contrario, nei sistemi più strutturati, come le piattaforme chat-based, l’operatore può monitorare più da vicino l'interazione, ma questo non implica automaticamente una responsabilità diretta in caso di danni. Le difficoltà nel tracciare una catena di causa ed effetto tra l'uso imprudente da parte dell'operatore e i danni prodotti dal sistema sono così complesse da mettere in discussione l'efficacia del modello di responsabilità penale tradizionale, che si fonda sulla colpa individuale e sull'intenzionalità.

Tuttavia, il vero nodo del problema risiede nella natura della “colpa” nel contesto dell'AI generativa. Il diritto penale tradizionale, radicato nella responsabilità individuale, appare sempre più inadeguato quando si tratta di casi in cui l'azione dannosa non è il risultato diretto di una decisione consapevole e intenzionale di un singolo attore. L’analisi della responsabilità per danni derivanti dall'uso di AI generativa implica una revisione dei principi fondamentali del diritto penale. La necessità di attribuire una responsabilità penale in questi casi non può ignorare la frammentazione del controllo, che è alla base del cosiddetto “problema delle mani multiple” (many-hands problem). In un sistema in cui diversi soggetti – inclusi sviluppatori, utenti e operatori – interagiscono con la tecnologia in modi che sfuggono al controllo centralizzato, determinare chi sia effettivamente responsabile diventa un compito arduo.

Il modello tradizionale di “persona–azione–danno” non è più sufficiente per affrontare le sfide poste dalla società algoritmica. Il rischio, infatti, non è più circoscritto alle azioni di un singolo individuo, ma è sistemico, generato dalla combinazione di diversi fattori tecnici e sociali che agiscono simultaneamente. La responsabilità per danni legati all'AI generativa non può quindi essere limitata alla punizione dei comportamenti criminali intenzionali, ma deve considerare anche le dinamiche sistemiche che causano danni a livello collettivo, e non solo individuale.

Un altro aspetto fondamentale riguarda la possibilità di estendere il campo della responsabilità penale a situazioni in cui l’AI generativa crei un rischio diffuso per la sicurezza collettiva. Se i sistemi generativi causano danni indiretti ma massicci, potrebbe essere necessario ripensare la colpa come un concetto adattabile, che si evolve con le dinamiche di interazione tra esseri umani e macchine. In questo senso, la colpa potrebbe agire più come una “porta” che si apre alla possibilità di nuove forme di responsabilità penale, adattate alle circostanze emergenti e ai rischi legati all’uso delle nuove tecnologie.

Quando si affrontano le problematiche di responsabilità, non è solo il comportamento dell’attore umano a dover essere analizzato. La complessità della situazione, dovuta alla sinergia tra l’intelligenza artificiale e l’agente umano, richiede una riflessione profonda sulla natura della responsabilità in un contesto tecnologico sempre più intricato. La definizione di chi è responsabile non deve più limitarsi a un singolo attore umano, ma considerare le interazioni sistemiche tra i vari componenti tecnologici, gli utenti e le piattaforme.

Va notato, inoltre, che l’uso di leggi penali preventive per regolare i danni causati dalla tecnologia potrebbe sollevare preoccupazioni legate alla sovrapposizione tra diritto penale e altre branche del diritto, come il diritto civile o il diritto amministrativo, in cui si trovano già strumenti adeguati per affrontare le problematiche di rischio e danno. Questo implica la necessità di una maggiore armonizzazione tra le diverse aree giuridiche, al fine di evitare l’overcriminalizzazione di comportamenti che, pur rischiosi, non devono necessariamente essere considerati reati.