Nel contesto dell’intelligenza artificiale generativa, i modelli di linguaggio di grandi dimensioni (LLM) e quelli che generano contenuti audio, immagini e video pongono significative sfide legali in materia di protezione dei dati personali. La legislazione europea, in particolare il GDPR, si trova ad affrontare una realtà in cui le modalità di trattamento dei dati non si allineano facilmente con le categorie tradizionali di controllo e responsabilità. In generale, i modelli generativi di intelligenza artificiale coinvolgono sia i fornitori che gli utenti, ma la loro interazione non si adatta perfettamente alla struttura legale stabilita dal GDPR.

In primo luogo, i fornitori di modelli generativi stabiliscono un quadro generale all'interno del quale i modelli sono utilizzati, mentre gli utenti determinano gli scopi specifici del trattamento dei dati a seconda delle loro necessità. In teoria, questo potrebbe far sì che fornitori e utenti siano considerati "controllori congiunti" dei dati. Tuttavia, un'analisi più approfondita rivela delle problematiche: i fornitori influenzano principalmente le modalità di elaborazione dei dati, mentre gli utenti, sebbene forniscano input attivi per generare e modellare i risultati, non hanno potere sulla base dati utilizzata per l'addestramento del modello. Gli utenti, infatti, non possono né concedere diritti di accesso ai fornitori né eliminare i dati personali dal set di addestramento. Questo rende difficile trattare gli utenti come "controllori" secondo la definizione del GDPR, poiché la loro influenza sul trattamento dei dati è limitata.

Inoltre, il GDPR prevede che i soggetti dei dati abbiano il diritto di presentare reclami contro qualsiasi controllore congiunto, ma, come mostrato dai casi legali, la semplice "causalità contributiva" senza un'azione cooperativa non è sufficiente per attribuire una responsabilità condivisa. Pertanto, non è corretto considerare gli utenti pienamente responsabili per il trattamento dei dati da parte dei fornitori, soprattutto se si considera che la responsabilità è più chiara quando il trattamento è definito dai fornitori e non dagli utenti. Questo solleva interrogativi importanti sulla definizione di responsabilità in un contesto in cui i dati sono trattati da modelli complessi che operano in modalità autonome e su larga scala.

Una problematica simile emerge quando si considerano i modelli generativi che producono contenuti audio, immagini e video. In questi casi, non si tratta semplicemente di generare informazioni, ma di creare nuovi contenuti visivi o acustici che potrebbero essere utilizzati per identificare un individuo. Ad esempio, le immagini e i video possono essere considerati dati personali se sono in grado di identificare una persona, specialmente nel caso di deepfake, dove immagini false vengono create per danneggiare l’immagine di qualcuno, senza il suo consenso. Le donne sono particolarmente vulnerabili in questo contesto, poiché sono spesso le vittime di pornografia generata tramite deepfake, una violazione grave della privacy e dei diritti personali. Questa forma di trattamento illecito dei dati è punibile dal GDPR e, in molti casi, anche da leggi nazionali.

Anche le voci possono essere considerate dati personali, se sono utilizzabili per identificare un individuo. Tecniche di riconoscimento vocale o facciale sono ormai così avanzate che anche l’identificazione biometrica può essere possibile attraverso l'analisi del contenuto audio o video generato da IA. La legislazione europea riconosce questo tipo di dato come dati biometrici, e pertanto la protezione è ulteriormente rafforzata.

Tuttavia, la recente introduzione del Regolamento sull'Intelligenza Artificiale (AI Act) sembra non offrire una protezione adeguata. L'AI Act, pur imponendo l'obbligo di etichettare i deepfake, non affronta in modo sufficiente le sfide legali sollevate dal trattamento illecito dei dati personali. La legge, infatti, è centrata sulla sicurezza dei prodotti e non sulla protezione dei diritti fondamentali, come nel caso del GDPR, il che evidenzia una carenza strutturale nella legislazione attuale.

La diffusione delle tecnologie di intelligenza artificiale generativa sta mettendo in evidenza le lacune del GDPR, specialmente in relazione alla protezione dei diritti dei singoli individui e alla gestione dei dati personali in contesti altamente dinamici e complessi. Mentre la legge cerca di proteggere la privacy e i diritti degli individui, la rapidità dell'evoluzione tecnologica e la massiccia quantità di dati trattati rendono difficile mantenere l'efficacia della legislazione. Per rispondere a queste sfide, è necessaria una riflessione più ampia che vada oltre la semplice tutela dei diritti individuali, considerando le implicazioni socio-tecniche di queste tecnologie e la loro interazione con la normativa esistente.

Come la Governance della Privacy deve Evolvere nell'Era dell'IA Generativa?

La rapida evoluzione delle tecnologie di intelligenza artificiale generativa pone una serie di sfide per la protezione della privacy e la regolamentazione dei dati. Le normative esistenti, come il CCPA, non sono sufficienti a eliminare completamente l'influenza dei dati personali sulle previsioni o sugli output dei modelli. Inoltre, l'uso di modelli generativi per creare e diffondere contenuti dannosi, come la pornografia deepfake non consensuale o notizie false, è difficile da contenere o invertire, poiché manca un sistema robusto di autenticazione e rimozione dei contenuti sui social media.

Uno degli aspetti più problematici delle intelligenze artificiali generative è l'invisibilità dei loro impatti. Molti danni derivanti da questi sistemi sono nascosti, inseriti in processi automatizzati che avvengono ben prima dei punti decisionali formali. Piuttosto che un rifiuto esplicito, le valutazioni e previsioni inaccurate o distorte spesso impediscono l'accesso a opportunità, creando barriere invisibili. Un esempio emblematico di questo fenomeno è l'algoritmo di selezione del personale, che può scartare candidati qualificati sulla base di valutazioni distorte dei loro profili online o curriculum, impedendo a intere comunità marginalizzate di accedere a opportunità economiche, dando vita a una sorta di "soffitto di silicio".

Tuttavia, i danni collettivi, come gli esiti discriminatori e l'erosione del discorso pubblico, non possono essere ricondotti a singoli episodi di cattiva condotta. Questi danni emergono dalle interazioni complesse tra i sistemi di IA e la società, i cui effetti si rivelano solo nel tempo, quando si accumulano e rinforzano i pattern preesistenti di disuguaglianza e svantaggio. Questa invisibilità rappresenta un ostacolo significativo alla protezione della privacy e all'applicazione delle leggi sulla protezione dei dati, che si concentrano su danni specifici e identificabili e dipendono da reclami individuali o cause legali per far emergere il malfunzionamento.

Le limitazioni del controllo individuale e l'impatto collettivo dell'IA generativa sottolineano l'inadeguatezza delle forme tradizionali di regolamentazione reattiva. Sebbene azioni di contestazione individuale e azioni legali possano essere utili per ottenere risarcimenti e rendere conto di casi specifici, spesso sono troppo lente, costose e limitate nel loro ambito per mitigare i rischi ampi e in rapida evoluzione delle IA generative. Inoltre, questi meccanismi retroattivi non affrontano gli impatti più diffusi e a lungo termine che i sistemi di IA possono avere sulla società, i quali si accumulano gradualmente, senza che se ne percepisca immediatamente l'entità.

Per affrontare adeguatamente le minacce legate alla privacy e alla protezione dei dati nell'era dell'IA generativa, è necessario un nuovo paradigma di governance della privacy. Un cambiamento fondamentale consiste nel passare da una concezione individuale della privacy a una concezione collettiva, riconoscendo la privacy non solo come un diritto individuale, ma come un bene sociale e pubblico. In questo nuovo quadro, le istituzioni dovrebbero avere obblighi positivi nei confronti della privacy, piuttosto che essere semplicemente vincolate a rispettare i diritti individuali.

Questo approccio implica anche un cambiamento dalla governance reattiva a una governance proattiva. Non bisogna più fare affidamento solo su rimedi retroattivi, come azioni legali o reclami dei consumatori, ma occorre istituzionalizzare pratiche di monitoraggio continuo, auditing e valutazione dell’impatto, per individuare e mitigare i potenziali rischi prima che le IA generative vengano adottate su larga scala. La legge sull’IA dell'Unione Europea rappresenta un modello promettente, in quanto adotta un approccio sistematico alla governance, imponendo requisiti graduati in base al livello di rischio della tecnologia.

La governance proattiva dovrebbe essere integrata in un sistema che valorizzi l’innovazione responsabile. In questo contesto, si tratta di promuovere l’innovazione che non solo tenga conto dei benefici economici e sociali, ma che sia consapevole delle sue implicazioni etiche e legali. Le soluzioni impulsive o irresponsabili possono portare a danni irreversibili, soprattutto quando i modelli generativi vengono utilizzati senza adeguata supervisione, creando danni che possono ripercuotersi a lungo sulla società nel suo insieme.

In conclusione, mentre l’adozione di IA generativa porta enormi vantaggi in termini di progresso tecnologico e innovazione, è cruciale che la governance della privacy evolva per affrontare i nuovi rischi e le sfide. L’attuale struttura di regolamentazione non è sufficiente a rispondere alle esigenze di protezione in un mondo sempre più automatizzato e interconnesso. Solo attraverso un approccio che vada oltre il controllo individuale, che si focalizzi sulla protezione collettiva e che promuova una governance preventiva, sarà possibile garantire che l’IA generativa sia usata in modo responsabile e sicuro.

L'uso lecito nella formazione dell'intelligenza artificiale generativa e i diritti d'autore

Nel contesto dell'uso dell'intelligenza artificiale generativa, il concetto di "uso lecito" (fair use) assume un'importanza crescente, soprattutto quando si parla dell'utilizzo di opere protette da copyright per addestrare modelli di IA. Diverse decisioni legali hanno stabilito che copiare un'opera protetta da copyright per estrarre esclusivamente il suo valore informativo o funzionale, senza riprodurre l'espressione creativa dell'opera stessa, può essere considerato un uso lecito. Un esempio emblematico è fornito dalla giurisprudenza statunitense che, in due casi distinti riguardanti le console di videogiochi, ha stabilito che la copia dei sistemi operativi dei produttori di console non fosse una violazione del copyright, poiché l'obiettivo del copiare era esclusivamente di permettere la compatibilità con giochi o hardware diversi.

Il caso di Google, che ha scansionato milioni di libri per permettere la ricerca testuale, è un altro esempio rilevante di utilizzo lecito, in quanto non mirava a distribuire copie dei libri, ma a rendere disponibile un sistema di ricerca dei contenuti. La Corte Suprema ha confermato che l'uso dei comandi della piattaforma Java da parte di Oracle per permettere la creazione di app per smartphone fosse un uso lecito, in quanto mirava a facilitare lo sviluppo di software senza entrare in competizione con la piattaforma originale.

Tuttavia, quando si analizzano casi di "intermediate copying" — ovvero la copia che ha come scopo l'estrazione di valore funzionale o informativo senza replicare l'espressione creativa — le decisioni legali dipendono in gran parte dalla natura del risultato prodotto dall'atto di copia e dal suo utilizzo. La Corte ha osservato, ad esempio, che l'uso dei comandi della piattaforma Java non mirava a sostituire il sistema operativo Java, ma a permettere la creazione di app per un ambiente diverso, il che ha portato a una valutazione favorevole all'uso lecito.

Un altro elemento che complica la valutazione è la possibilità che l'uso di opere protette da copyright per addestrare i modelli di IA possa, in alcuni casi, portare alla creazione di opere simili a quelle originali, con il rischio di sostituire le opere originali nel mercato. Ad esempio, in un caso del Secondo Circuito, è stato stabilito che un servizio di clipping di notizie online che offriva estratti abbastanza lunghi da sostituire i programmi originali non fosse considerato un uso lecito. In altre parole, se un'IA genera contenuti simili a quelli su cui è stata addestrata, e questi contenuti sono usati per scopi che potrebbero sottrarre spazio di mercato alle opere originali, l'uso non è giustificato dalla dottrina del fair use.

Anche la sentenza della Corte Suprema nel caso Andy Warhol Foundation v. Goldsmith ha sollevato interrogativi riguardo all'uso di opere protette, concentrandosi sull'importanza del "sostituire" le opere originali. In questo caso, la corte ha valutato che la riproduzione del ritratto di Warhol basato su una fotografia di Goldsmith non fosse trasformativa, poiché utilizzata per lo stesso scopo per cui la fotografa avrebbe licenziato la sua opera: la copertura di una rivista. In sostanza, la Corte ha voluto sottolineare che l'analisi dell'uso lecito non può prescindere dalla considerazione dell'effetto che tale uso ha sul mercato delle opere originali.

Questo panorama giuridico solleva una domanda fondamentale riguardo all'uso delle opere protette per l'addestramento delle IA generative. Se il sistema IA produce risultati che somigliano sostanzialmente alle opere utilizzate per l'addestramento, ciò potrebbe configurare una violazione del copyright, a prescindere dalle intenzioni dell'utente o del fornitore del sistema. La questione diventa più complessa se si considera che, mentre l'addestramento dell'IA è sotto il controllo del fornitore del sistema, la generazione del contenuto finale è spesso lasciata al controllo di un utente esterno, il quale può non avere piena consapevolezza dei dati utilizzati per l'addestramento del modello.

Il rischio che un fornitore di IA possa sfuggire alla responsabilità semplicemente perché non ha il controllo diretto sui risultati generati dal sistema non sembra equo. Tuttavia, non sembra giusto nemmeno fare ricadere la responsabilità solo sull'utente che potrebbe utilizzare la tecnologia per produrre risultati che somigliano a opere protette. In altre parole, la responsabilità legale dovrebbe tenere conto di un equilibrio tra il controllo che il fornitore dell'IA ha durante il processo di addestramento e la libertà dell'utente di generare contenuti una volta che il sistema è in funzione.

Una delle problematiche più rilevanti, tuttavia, riguarda l'incapacità di tracciare l'uso delle opere protette nei processi di addestramento. L'IA non crea nel modo in cui lo fa un essere umano, ma separa nettamente la fase di "apprendimento" dalla fase di "produzione". Mentre un artista umano può rielaborare consapevolmente una determinata opera, un'IA apprende da una vasta gamma di dati e genera output in modo del tutto automatizzato. In questo contesto, non è del tutto chiaro come si possa applicare la stessa logica giuridica usata per i creatori umani alle macchine, le cui azioni sono in gran parte determinate da algoritmi e processi automatizzati.

Pertanto, la giurisprudenza futura dovrà affrontare questa questione in modo più approfondito, considerando non solo la somiglianza tra l'opera originale e quella generata, ma anche la natura del processo creativo dell'IA e come questa incida sui diritti d'autore. Il principio di "uso lecito" potrebbe richiedere una revisione significativa per adattarsi alle sfide sollevate dall'intelligenza artificiale generativa, che separa l'apprendimento dalla produzione in modo che non ha precedenti nelle forme tradizionali di creazione artistica o tecnologica.

L'intelligenza artificiale e la responsabilità dei direttori aziendali: tra indipendenza di giudizio e affidabilità dei consigli

Il dovere di esercitare un giudizio indipendente da parte dei direttori aziendali non è solo una formalità giuridica, ma un principio fondamentale che deve guidare ogni decisione che coinvolge l’interesse della compagnia. La responsabilità del direttore è quella di fare le proprie valutazioni, senza seguire ciecamente le opinioni di altri, comprese quelle fornite da un sistema di intelligenza artificiale (IA). L’obbligo di giudizio indipendente è radicato nel fatto che il direttore è stato nominato per prendere decisioni per conto dell'azienda e non per delegare tale compito a qualcun altro senza un’adeguata riflessione.

Seppur un direttore possa delegare alcune funzioni in base agli statuti societari, la responsabilità finale rimane sempre sua. Il giudizio finale, infatti, deve essere quello del direttore, anche quando si avvale di consulenze esterne. Il ricorso all’intelligenza artificiale per raccogliere dati o ottenere suggerimenti non esonera in alcun modo il direttore dal dovere di analizzare e riflettere criticamente sulle informazioni ricevute.

Le tecnologie avanzate, come i sistemi di IA generativa, sono sempre più considerate strumenti legittimi per supportare il processo decisionale nei consigli di amministrazione. È ormai riconosciuto che in determinati settori e operazioni finanziarie, l’utilizzo di IA potrebbe diventare una prassi comune, se non addirittura una necessità, per prendere decisioni ben ponderate. Tuttavia, come per ogni altra consulenza professionale, non è accettabile una dipendenza cieca dai suggerimenti forniti dalla macchina. L’uso di IA non deve trasformarsi in una delega totale del giudizio umano, ma deve integrarsi in un processo decisionale che conserva la supervisione e la responsabilità finale del direttore.

In situazioni in cui un direttore fa affidamento su un sistema di IA, potrebbe trovarsi a dover giustificare la sua decisione, soprattutto se il sistema fornisce risposte non facilmente spiegabili o incoerenti. Il principale problema che emerge è la cosiddetta “spiegabilità” dell’intelligenza artificiale. I modelli di IA, specialmente quelli generativi, sono spesso non deterministici, il che significa che possono produrre risultati differenti pur partendo dallo stesso input. Questo rende difficile spiegare perché una determinata decisione è stata presa in base a un suggerimento dell’IA, complicando ulteriormente la difesa di tale scelta in sede legale o regolatoria.

Le difficoltà legate alla mancanza di trasparenza e spiegabilità dei sistemi IA sono ulteriormente amplificate dai cosiddetti "black box" e dalle cosiddette “allucinazioni” dell’IA, fenomeni in cui i sistemi forniscono risposte che, pur sembrando plausibili, sono errate o ingannevoli. Per questi motivi, i direttori aziendali potrebbero trovarsi in una posizione scomoda, soprattutto quando l’IA non riesce a fornire una giustificazione chiara e tracciabile per le sue raccomandazioni.

Nonostante ciò, è possibile che i sistemi IA generativi, in particolare quelli in grado di effettuare analisi approfondite come la due diligence, diventino strumenti indispensabili nelle valutazioni e nelle decisioni aziendali critiche, come le fusioni e acquisizioni, la valutazione di investimenti strategici e la gestione dei rischi. Questo impone ai direttori di adattarsi a un nuovo paradigma che include l’uso di tecnologie avanzate, pur mantenendo saldamente il controllo sulle decisioni finali.

Un’altra questione che emerge riguarda il rischio di conflitti di interesse. In un contesto in cui le decisioni sono supportate da IA, i direttori devono prestare particolare attenzione a evitare situazioni in cui l’uso di queste tecnologie potrebbe compromettere la loro imparzialità o sollevare dubbi sull’integrità delle loro scelte. Il dovere di evitare conflitti di interesse e di dichiarare eventuali interessi nei contratti proposti diventa particolarmente delicato quando le informazioni che influenzano tali decisioni provengono da una macchina, la cui logica può non essere facilmente comprensibile o verificabile.

Un altro aspetto fondamentale riguarda l’integrazione dell’IA nel processo decisionale. La supervisione di un team multidisciplinare che comprenda esperti digitali, giuristi, economisti e rappresentanti degli azionisti è cruciale per garantire che l’IA sia utilizzata correttamente e che le decisioni siano legittime e in linea con le normative vigenti. Solo un approccio collaborativo, che integri competenze tecniche e legali, potrà evitare i rischi legati alla dipendenza eccessiva da strumenti non spiegabili.

Infine, sebbene l’uso dell’IA stia rapidamente diventando un fattore determinante nelle decisioni aziendali, la sua implementazione richiede una continua attenzione alle sfide etiche, legali e pratiche. I direttori aziendali, sebbene possano avvalersi della tecnologia per migliorare le loro decisioni, devono sempre essere pronti a giustificare e a dimostrare la validità delle loro scelte, sia davanti agli azionisti che in sede legale. Le implicazioni legali legate all’uso di IA, soprattutto in contesti regolatori sempre più stringenti, non devono mai essere sottovalutate.