Nel corso del 2023, la difficoltà dei fornitori di modelli di intelligenza artificiale generativa nell'implementare in modo adeguato i diritti degli utenti in materia di protezione dei dati personali è stata particolarmente evidente. Tra i tredici modelli analizzati, ben nove facevano riferimento al GDPR nelle loro politiche sulla privacy (quando presenti), ma solo sette menzionavano esplicitamente il California Consumer Privacy Act (CCPA), la legge californiana che regola la protezione dei dati personali. Il servizio LENSA, un'applicazione russa, si distingue in questo contesto per la sua notifica speciale per la California e la raccolta dei dati, mostrando una maggiore attenzione verso la privacy degli utenti rispetto ad altri modelli.
La trasparenza riguardo al trattamento dei dati personali è stata una questione fondamentale. I modelli di intelligenza artificiale generativa T2T analizzati offrivano almeno un indirizzo email come mezzo per consentire agli utenti di opporsi all'elaborazione dei propri dati o di richiederne la cancellazione. Tuttavia, la coerenza nelle politiche sulla privacy variava notevolmente tra i modelli. In molti casi, le clausole utilizzate dai fornitori erano standardizzate e non specificavano in modo chiaro le modalità di trattamento dei dati, lasciando in secondo piano questioni più delicate come la gestione dei dati provenienti dal web pubblico, utilizzati per addestrare i modelli.
Le politiche sulla privacy dei grandi fornitori, come Google, risultano particolarmente complesse da decifrare, in quanto si applicano a tutte le loro generative AI, e a volte a tutti i servizi offerti dall'azienda. Questo rende difficile capire quali dati vengano effettivamente trattati da ciascun modello e quali diritti specifici vengano garantiti agli utenti. Nonostante queste problematiche, la pressione delle autorità di protezione dei dati personali (DPA) e delle organizzazioni per la privacy, come la Federal Trade Commission (FTC) negli Stati Uniti, sta portando a un progressivo miglioramento delle politiche. A fine 2023, dodici su tredici modelli avevano aggiornato le loro politiche, includendo una maggiore attenzione ai diritti degli utenti, sebbene la maggior parte di essi offrisse ancora solo un indirizzo email come canale per la presentazione di reclami. Due modelli non offrivano nemmeno questa possibilità.
L'evoluzione delle politiche sulla privacy nel 2023 ha rappresentato un passo avanti importante, anche se incompleto. In particolare, va sottolineato che OpenAI, il fornitore di ChatGPT, ha iniziato a fare riferimento al diritto all'oblio e ha aggiunto una base legale per il trattamento dei dati solo dopo essere stato bandito in Italia dalla Garante per la protezione dei dati personali. Tuttavia, la mancanza di chiarezza sul diritto di rettifica, che ancora oggi non viene pienamente soddisfatto, continua a essere un punto di criticità. Questi sviluppi indicano che la conformità al GDPR da parte dei grandi fornitori di modelli di intelligenza artificiale è ancora un lavoro in corso, e che ulteriori azioni da parte delle autorità regolatorie e degli attivisti per la privacy saranno necessarie per garantire che non si tratti solo di conformità formale.
Il panorama normativo in continua evoluzione, e l'incertezza riguardo alle modalità di trattamento dei dati da parte delle grandi aziende tecnologiche, pongono una sfida significativa. In particolare, è cruciale che i modelli di intelligenza artificiale non si limitino a offrire canali di reclamo superficiali, ma che si impegnino in una trasparenza totale riguardo al trattamento dei dati, soprattutto per quanto concerne l'origine dei dataset utilizzati per l'addestramento. Inoltre, il diritto degli utenti a conoscere in modo chiaro come i loro dati vengano trattati, e a esercitare i propri diritti, è un elemento fondamentale che deve essere incluso in modo completo nelle politiche aziendali, in modo che non si riduca tutto a una mera formalità burocratica.
L'approccio da parte dei fornitori di modelli di intelligenza artificiale generativa in relazione ai diritti degli utenti non può limitarsi alla semplice aderenza ai regolamenti, ma deve essere basato su una cultura aziendale che promuova attivamente la protezione della privacy. Questo non solo contribuirà a una maggiore fiducia da parte degli utenti, ma eviterà anche potenziali problemi legali e danni reputazionali in futuro. Con l'adozione e l'evoluzione di regolamenti più chiari e rigorosi, è essenziale che i fornitori di IA generativa si adattino alle normative in continua espansione e pongano l'accento sulla trasparenza, sull'accesso ai diritti degli utenti e sulla responsabilità nell'utilizzo dei dati.
Generative AI e la Protezione della Proprietà Intellettuale: Sfide e Prospettive
La rapida evoluzione dell'intelligenza artificiale generativa sta creando nuove dinamiche nel campo della proprietà intellettuale, sollevando interrogativi su come adattare le leggi esistenti alle tecnologie emergenti. L'intelligenza artificiale, in particolare quella generativa, ha il potenziale per sconvolgere non solo categorie giuridiche consolidate, ma anche interi settori industriali. Tuttavia, è inevitabile che, come per ogni innovazione tecnologica, il sistema giuridico dovrà evolvere per rispondere alle sfide poste da tali cambiamenti.
Le tecnologie di AI generativa, sebbene possiedano enormi capacità di innovazione e automazione, pongono questioni complesse in relazione alla protezione dei diritti di proprietà intellettuale, specialmente per quanto riguarda i marchi, i brevetti e i segreti commerciali. Una delle sfide principali è rappresentata dalla capacità dell'IA di creare contenuti che sembrano provenire da autori umani, sollevando dubbi su come le attuali leggi sul copyright possano applicarsi a opere generate da una macchina.
Un aspetto significativo riguarda i marchi. Sebbene i marchi siano stati progettati per distinguere prodotti e servizi nel mercato, l'IA generativa potrebbe ridurre il bisogno di marchi facilmente riconoscibili. Infatti, le piattaforme di shopping basate su AI, come quelle già in fase di sviluppo, potrebbero rendere irrilevanti i marchi tradizionali. Un esempio lampante è la capacità di un sistema AI di identificare le caratteristiche di un prodotto senza necessità di un marchio distintivo: ciò che per un computer è ugualmente valido, ad esempio, ZL3XC!7K4BV funziona esattamente come APPLE. In tale scenario, la funzione di un marchio come segno distintivo di qualità e origine potrebbe non essere più necessaria, ribaltando la logica che ha caratterizzato la protezione dei marchi per più di un secolo.
Nel caso dei segreti commerciali, l'AI generativa non sembra, in linea generale, rappresentare una minaccia diretta alla protezione dei segreti aziendali, in quanto la legge sui segreti commerciali non richiede la produzione di conoscenze in modo specifico come avviene per brevetti e copyright. Tuttavia, un punto cruciale è che i fornitori di AI generativa potrebbero fare affidamento sui segreti commerciali per proteggere modelli, algoritmi e sistemi software, poiché la protezione tramite brevetto potrebbe essere problematica. Tuttavia, questo tipo di protezione si scontra con la crescente disponibilità di dati di addestramento, modelli e software in modalità open source, che difficilmente potrebbero essere tutelati come segreti commerciali.
Un’altra questione riguarda l'abilità di reverse engineering che i concorrenti potrebbero esercitare sui sistemi di AI generativa. Sebbene i fornitori di AI cerchino di limitare tali pratiche mediante termini d’uso, la difficoltà di applicare restrizioni valide rende questa protezione poco efficace, creando un contesto in cui la protezione dei segreti commerciali risulta più ardua e meno garantita rispetto ad altre forme di proprietà intellettuale. In definitiva, questa situazione potrebbe incentivare una concentrazione dell'industria, con un numero ridotto di grandi aziende in grado di proteggere i propri vantaggi competitivi.
A lungo termine, il ricorso ai segreti commerciali potrebbe portare a una minore innovazione e alla creazione di un numero ristretto di grandi imprese dominate dalla tecnologia AI. Ciò potrebbe ridurre la varietà e la diversità nell’ecosistema tecnologico, in quanto le aziende tenderebbero ad acquisire i concorrenti piuttosto che negoziare per l’acquisto delle loro tecnologie. Questo fenomeno potrebbe avere un impatto negativo sull'innovazione e sulla crescita del settore.
È chiaro che la legge della proprietà intellettuale, storicamente orientata a proteggere i diritti degli individui e delle aziende sulla base delle tecnologie e delle pratiche esistenti, fatica ad adattarsi ai rapidi sviluppi dell’intelligenza artificiale. Tuttavia, nonostante le sfide iniziali, è probabile che, con il tempo, emerga un nuovo regime giuridico che sarà in grado di affrontare le problematiche legate all’AI generativa, ma solo dopo un periodo di transizione durante il quale le normative attuali saranno adattate per rispondere alle esigenze del XXI secolo.
Un altro elemento da considerare è l'evoluzione delle normative internazionali. In paesi come Giappone e Cina, che possiedono sistemi di copyright con radici storiche e politiche diverse rispetto all'Occidente, la risposta alle sfide dell'IA potrebbe essere diversa. La protezione del diritto d'autore in Giappone, ad esempio, enfatizza l'“utilizzo equo” dei prodotti culturali, mentre in Cina la legge non include una nozione di "fair use", che potrebbe comportare differenze significative nel modo in cui le tecnologie di AI vengono integrate nel sistema giuridico e commerciale. Questi differenti approcci potrebbero rivelarsi cruciali nel determinare come le aziende di intelligenza artificiale operano e competono su scala globale.
L'evoluzione della regolamentazione della pratica legale non autorizzata (UPL) nell'era della tecnologia legale
Un importante studio pubblicato da Claessens e colleghi sulla situazione legale nei ventisette stati membri dell'Unione Europea mette in luce un aspetto cruciale della regolamentazione legale. Secondo questo studio, quindici stati membri considerano la "consulenza legale" fuori dal tribunale come un'attività riservata agli avvocati. Negli altri dodici paesi, tuttavia, sembra che la consulenza legale in sé non sia soggetta alle normative sui servizi legali. Negli Stati Uniti, invece, tutti i cinquanta stati e il Distretto di Columbia vietano la "pratica legale non autorizzata" (UPL), in linea con la Regola 5.5 del Modello delle Regole di Condotta Professionale dell'American Bar Association (ABA), che, tra le altre cose, proibisce agli avvocati di esercitare in una giurisdizione in cui non sono abilitati. Tuttavia, esiste poca guida su ciò che rientra o meno nella definizione di UPL.
Le società che offrono modelli linguistici di grandi dimensioni (LLM) sono in genere fornitori di software che non sono autorizzati a praticare la legge. Questo solleva la questione se ciò costituisca una forma di UPL. Le giurisdizioni che vietano o limitano le attività legali fuori dal tribunale da parte di persone non autorizzate fanno generalmente una distinzione tra "informazioni legali" (non regolamentate) e "consulenza legale" (regolamentata). Le informazioni legali sono spesso percepite come un bene pubblico, accessibile a tutti, e vengono descritte come generiche, non riferite a situazioni particolari. La consulenza legale, invece, è più mirata e specifica in relazione alle esigenze del consumatore. Di conseguenza, materiali legali stampati, come manuali o istruzioni su come intentare una causa, di solito non vengono considerati consulenza legale. Inoltre, una persona non avvocato può pubblicare e vendere moduli legali campione o kit legali "fai-da-te" e fornire istruzioni generali su come compilare i moduli, a condizione che non venga fornita alcuna consulenza.
La consulenza legale, invece, è specificamente adattata alle circostanze e alle esigenze individuali del cliente. In genere, comporta l'analisi di un insieme di fatti e la consulenza su una determinata azione da intraprendere, in base alla legge applicabile. Alcuni esempi di attività che costituiscono consulenza legale includono (i) la selezione, la redazione o il completamento di moduli legali, documenti o accordi specifici per la situazione di una persona; (ii) la rappresentanza di una persona in tribunale; (iii) la negoziazione dei diritti legali per conto di una persona; e (iv) la previsione dell'esito di una disputa legale.
La tecnologia legale, e in particolare gli LLM, sta sconvolgendo questi confini. Più le applicazioni diventano sofisticate, più è difficile tracciare una linea netta tra informazioni legali e consulenza, tra forme di comunicazione standardizzate e su misura, e tra prodotti e servizi. Con l'aumento delle applicazioni offerte da società di software per scopi legali, è molto probabile che queste attività oltrepassino il confine della consulenza legale. In questo contesto, le associazioni degli avvocati e i regolatori in tutto il mondo hanno avviato azioni contro le aziende di tecnologia legale per la "pratica legale non autorizzata".
Un esempio significativo di questa problematica è il caso di LegalZoom negli Stati Uniti. LegalZoom è uno dei principali fornitori di servizi di documenti legali online, che offre ai clienti moduli scaricabili e assistenza interattiva attraverso questionari e diagrammi di flusso relativi ai loro problemi legali. Sebbene LegalZoom non affermi di fornire un avvocato ai suoi utenti, ma piuttosto "informazioni legali" tramite una serie sofisticata di moduli e domande, il suo modello di business ha sollevato ampie preoccupazioni riguardo alla possibile violazione delle normative sull'UPL. Ciò ha portato a una disputa con la North Carolina State Bar Association, che è durata diversi anni, così come altre controversie legali con concorrenti e clienti. La questione principale riguardava se l'offerta di LegalZoom costituisse un servizio legale impermissibile secondo l'articolo 5.5(b) delle Regole ABA. I tribunali statunitensi hanno stabilito che, effettivamente, ciò costituiva una violazione dell'UPL, ma in altre giurisdizioni le corti hanno concluso che LegalZoom non stesse praticando la legge in modo non autorizzato. La disputa con la North Carolina State Bar si è conclusa con un accordo, e nel 2016 è stata approvata una nuova legge che esenta i fornitori che offrono software interattivi per la generazione di documenti legali basati sulle risposte date dal consumatore alle domande, dalla qualificazione come esercizio della legge.
In risposta a queste problematiche, alcuni stati degli Stati Uniti hanno istituito "sandbox regolatori", come gli stati di Utah e Arizona. Questi programmi pilota hanno sospeso alcune regole delle Modelli delle Regole ABA per un periodo di prova, per testare forme innovative di servizi legali. Utah ha riconosciuto nel 2020 l'opportunità di espandere i tipi di fornitori legali quando la sua Corte Suprema ha approvato una "sandbox" in cui i non avvocati possono fornire servizi e operazioni legali. L'Arizona, invece, nel 2021 ha abrogato la regola 5.4(b) delle Regole ABA.
L'avvento degli LLM sta non solo rimettendo in discussione le definizioni di ciò che costituisce la consulenza legale, ma anche creando nuove sfide per i regolatori e i professionisti legali. La continua evoluzione di queste tecnologie pone la domanda se il diritto legale possa o meno rimanere esclusivo dominio degli avvocati, oppure se l'accesso a informazioni legali tramite tecnologie avanzate possa contribuire a una democratizzazione della giustizia.
Come la Generazione di Contenuti da parte dell'AI sta Trasformando la Conoscenza, la Creatività e la Società
La generazione automatica di contenuti attraverso intelligenza artificiale (AI generativa) ha suscitato un ampio dibattito riguardo le sue implicazioni, non solo sul piano tecnico, ma anche sotto l’aspetto epistemologico e sociale. Da un lato, l'AI generativa sembra avere il potenziale per rivoluzionare la produzione di contenuti, dall'arte alla ricerca scientifica. Dall'altro, tuttavia, solleva interrogativi sulla responsabilità della produzione, sulla qualità e sull'autenticità dei contenuti generati, nonché sull'impatto che può avere sulla pluralità epistemica e sull'inclusività sociale. In questo contesto, il rischio che l’AI generativa possa consolidare e perpetuare visioni dominanti del mondo, escludendo voci e punti di vista marginalizzati, è un tema centrale.
Una delle principali sfide sollevate dall'uso di modelli AI generativi riguarda il concetto stesso di “autore”. In ambito scientifico, infatti, il dibattito non si limita solo alla riproducibilità dei risultati, ma si estende anche all'attribuzione della paternità dei contenuti. L'AI, infatti, non crea contenuti completamente nuovi, ma genera output sulla base di modelli di linguaggio e dati esistenti. Ciò implica che l'AI non è in grado di immaginare o di proporre visioni radicalmente innovative, ma si limita a rielaborare e a combinare conoscenze già presenti, spesso consolidando le visioni tradizionali del mondo. In altre parole, mentre le capacità generative dell'AI possono sembrare una forma di innovazione, esse potrebbero, in realtà, rafforzare visioni tradizionali e convenzionali.
In ambito educativo e di ricerca, le implicazioni dell'AI generativa sono molteplici. Da una parte, gli strumenti AI possono contribuire a migliorare l’efficienza della ricerca e dell'insegnamento, supportando le attività di sintesi e analisi. Dall'altra, c'è il pericolo che l'AI, nella sua tendenza a "riprodurre" il mondo conosciuto, finisca per consolidare bias e errori già esistenti, escludendo nuovi punti di vista e alternative epistemiche. Ciò solleva questioni significative sul rischio di inquinamento dell'informazione, con contenuti errati o parziali che si mescolano a quelli autentici e verificabili, con conseguenze dannose, in particolare per gli apprendenti più giovani che non possiedono una solida conoscenza pregressa.
L’aspetto epistemologico di questa trasformazione riguarda anche la questione della “pluralità epistemica”. Ogni ricerca autentica si fonda sulla capacità di porre domande pertinenti, che possano stimolare una riflessione nuova e profonda. Tuttavia, i modelli AI generativi, in quanto basati su dataset statici, tendono a "riflettere" la realtà come essa è stata osservata fino a quel momento, senza introdurre veri spunti di novità. Il rischio, in questo senso, è che l'AI finisca per limitare la pluralità delle opinioni, privilegiando visioni dominanti e marginalizzando quelle minoritarie. Questo non solo pone una sfida alla ricerca scientifica, ma rischia anche di minare i principi democratici, in quanto la conoscenza generata dall’AI potrebbe rafforzare le disuguaglianze sociali ed epistemiche.
Il fenomeno della dipendenza tecnologica è un’altra preoccupazione centrale. La crescente fiducia nell’AI per la produzione di contenuti, la presa di decisioni e il supporto in attività quotidiane solleva problemi legati alla valutazione della qualità dei contenuti generati. Se da un lato l’AI può offrire risultati migliori o più sicuri rispetto agli esseri umani in certi ambiti, dall’altro è fondamentale stabilire criteri per valutare in modo critico l’affidabilità degli output. Il rischio che si corre, infatti, è quello di delegare decisioni cruciali all’AI senza una comprensione adeguata dei suoi limiti, con conseguenze pericolose per la società.
In un contesto come quello attuale, dove l’AI generativa sta assumendo un ruolo sempre più centrale, è essenziale affrontare questi temi con un approccio critico e consapevole. La ricerca e l’educazione devono essere in grado di integrare l’uso dell’AI senza che essa prevalga sul pensiero critico, sulla pluralità delle visioni e sull’inclusività delle voci marginalizzate. Inoltre, la sfida epistemologica deve essere affrontata non solo con attenzione alle tecnologie in sé, ma anche con uno sguardo orientato alla costruzione di una conoscenza più equa e diversificata, che tenga conto delle disuguaglianze esistenti e non ne rinforzi i pregiudizi.

Deutsch
Francais
Nederlands
Svenska
Norsk
Dansk
Suomi
Espanol
Italiano
Portugues
Magyar
Polski
Cestina
Русский