Le piattaforme online e i fornitori di modelli generativi si trovano ad affrontare una crescente responsabilità riguardo alla gestione dei contenuti e alla tutela dei diritti degli utenti. L'Articolo 14 del Digital Services Act (DSA) stabilisce che i fornitori di servizi devono applicare i loro termini di servizio tenendo conto dei "diritti fondamentali" degli utenti, un principio che va oltre la mera applicazione di regole di moderazione. L’idea di caricare tutti i rischi sugli utenti, come accade nei modelli attuali, sembra inadeguata rispetto al diritto di libertà di espressione. La regolamentazione delle piattaforme deve includere l'obbligo di fornire trasparenza sulle decisioni di moderazione dei contenuti, indicando le ragioni di ogni decisione (Articolo 15). Le piattaforme online dovrebbero anche garantire archivi delle pubblicità, implementare meccanismi di segnalazione affidabili e rispettare i diritti di ricorso nelle decisioni interne ed esterne riguardanti la moderazione.
Queste disposizioni potrebbero risolvere molti dei problemi procedurali riscontrati nei modelli attuali di Termini e Condizioni (T&Cs) e migliorare l’approccio di governance, che spesso risulta ostile e ingiusto nei confronti degli utenti meno potenti. Al momento, i fornitori di modelli generativi sembrano godere di una posizione privilegiata: essi scaricano i rischi sugli utenti attraverso i loro T&Cs, mentre si sottraggono agli obblighi positivi introdotti dal DSA. Questo è un comportamento che risulta ingiusto e che va modificato al più presto.
Sebbene il DSA sia uno strumento fondamentale in Europa, non può essere l’unico ad affrontare la crescente sfida globale rappresentata dai modelli di AI generativa. Infatti, i modelli generativi vengono sviluppati in tutto il mondo, non solo nei paesi occidentali. Ad esempio, in Cina, già dal 2024, sono stati registrati 117 modelli generativi, segno che la regolamentazione dell'AI sta acquisendo una dimensione globale, con approcci distinti rispetto a quelli occidentali. Un elemento chiave della regolamentazione cinese è che i servizi di AI generativa possono essere resi disponibili al pubblico solo dopo un’approvazione pre-mercato da parte delle autorità competenti. I sviluppatori devono fornire documentazione completa del modello, incluse le T&Cs, per ottenere questa approvazione.
L’approvazione pre-mercato delle T&Cs e delle politiche di privacy dei servizi di AI generativa potrebbe rappresentare una soluzione utile per ridurre gli effetti collaterali dell'autoregolamentazione basata sul mercato. Questo modello potrebbe essere paragonato alla regolamentazione statale prevista per il settore farmaceutico o alimentare, come il modello dell’FDA negli Stati Uniti. In Europa, il principio di una “licenza pre-mercato” potrebbe portare a contratti regolati che armonizzano le pratiche di auto-gestione nel settore e controllano i termini di uso e la moderazione dei contenuti, riducendo gli abusi.
Inoltre, va sottolineato che esistono giurisdizioni che già prevedono la nullità delle clausole abusive nei contratti di consumo e che vietano pratiche commerciali sleali. L'applicazione di tali principi anche ai T&Cs dei modelli di AI generativa potrebbe rivelarsi molto utile per affrontare i problemi legati alla potenza eccessiva delle grandi piattaforme tecnologiche. L’attuale quadro normativo del DSA, che si occupa anche della protezione del consumatore, potrebbe costituire un punto di partenza per un controllo delle T&Cs delle AI generative anche in altri contesti giuridici fuori dall’Unione Europea.
Nonostante le sfide che queste regolazioni potrebbero comportare, è probabile che il problema dell’abuso di potere tra grandi attori del settore tecnologico e piccole e medie imprese (PMI) persista. In effetti, le condizioni di mercato potrebbero non produrre una maggiore equità, ma mantenere inalterato un sistema dove i colossi come Google o OpenAI continuano a prevalere, imponendo contratti unilaterali favorevoli alle loro politiche aziendali.
Importante è anche l’approfondimento delle implicazioni di una regolazione globale, che superi i confini dei singoli stati, e l'adozione di misure uniformi a livello internazionale per evitare che le distorsioni create dalle pratiche commerciali non equilibrate nel mercato dei social media si ripropongano nel contesto delle AI generative. Il rischio è che le problematiche di estrazione dei dati e di sfruttamento dei contenuti da parte delle piattaforme sociali possano essere replicati in maniera ancor più problematica, attraverso l’uso dei modelli di AI.
L'intelligenza artificiale generativa e la manipolazione dell'informazione: implicazioni per il consumatore
Le ricerche recenti rivelano un aspetto fondamentale dell'uso delle tecnologie AI generative, in particolare quelle basate su modelli linguistici di grandi dimensioni (LLM). Questi sistemi tendono a rafforzare e consolidare le credenze preesistenti degli utenti, invece di sfidarle o ampliarle. L'influenza esercitata da questi strumenti sulla percezione e sugli atteggiamenti degli utenti è così potente che solleva importanti questioni etiche riguardo al loro utilizzo responsabile. In particolare, quando consideriamo l’impatto delle IA generative, ci troviamo di fronte a una sfida significativa in termini di libertà di scelta e autonomia del consumatore.
Questa forma di "ipersuasione" solleva preoccupazioni legali di grande portata. La manipolazione dei consumatori avviene a un livello tale che essi potrebbero non essere consapevoli di come la loro volontà venga influenzata. Le implicazioni di questo fenomeno vanno oltre la semplice persuasione: si parla di un'influenza sistematica che potrebbe cambiare opinioni politiche, orientamenti di consumo e addirittura comportamenti sociali su scala globale. In particolare, l'utilizzo di sistemi di AI generativa richiede l'accesso a una grande quantità di dati, compresi quelli personali, per modellare i contenuti in base alle preferenze individuali. Ciò solleva serie preoccupazioni relative alla privacy dei consumatori, poiché il rischio di abuso o accesso non autorizzato ai dati è concreto. Molti consumatori non sono pienamente consapevoli di come i loro dati vengano utilizzati, portando a potenziali violazioni delle normative sulla protezione dei dati.
Un altro rischio legale associato all'uso di IA generativa riguarda la possibilità di diffondere informazioni false o ingannevoli. Gli strumenti di AI sono in grado di generare contenuti, inclusi testi e immagini, che potrebbero presentare informazioni errate riguardo a prodotti o servizi. Questo rappresenta un pericolo significativo per i consumatori, che potrebbero prendere decisioni di acquisto basate su premesse sbagliate, soffrendo quindi perdite finanziarie o insoddisfazione nei confronti dei beni acquistati. Inoltre, l'uso di tecniche manipolative o emotive legate alla creazione di contenuti da parte dell'AI potrebbe violare le normative sulla protezione dei consumatori. L'IA generativa potrebbe spingere i consumatori a prendere decisioni che normalmente non avrebbero preso, o potrebbe sfruttare individui vulnerabili, generando implicazioni legali sia per i consumatori che per le aziende coinvolte.
Alla luce di tali problematiche, diventa imperativo una riconsiderazione approfondita dell'efficacia dei quadri giuridici esistenti nell'Unione Europea, specialmente riguardo alla protezione dei diritti degli utenti e alla mitigazione dei rischi emergenti, in particolare quelli legati all'ipersuasione. Ci sono dubbi considerevoli sulla capacità di questi sistemi giuridici di prevenire o salvaguardare i consumatori da tali influenze. È necessario, quindi, un esame delle normative europee, in particolare sulla questione del consenso informato, che appare sempre più inadeguato di fronte alla complessità delle IA moderne.
Questa evoluzione delle tecnologie AI sta cambiando radicalmente la nozione di "consumatore" nell'ambito della legge europea. Il consumatore tradizionale, che fino a ieri era visto come un destinatario passivo di beni e informazioni, sta cedendo il passo all'emergere del "consumatore algoritmico", un individuo che interagisce attivamente con l'intelligenza artificiale per personalizzare la propria esperienza di consumo. L'IA, infatti, non si limita più a rispondere a domande generiche, ma diventa un assistente intelligente in grado di comprendere e rispondere a richieste complesse, fornendo consigli su misura e facilitando decisioni informate su una vasta gamma di temi, dal marketing alla pianificazione finanziaria.
Questo scenario modifica profondamente anche il modo in cui i consumatori possono co-creare la loro esperienza. Grazie agli assistenti AI, i consumatori non solo pongono domande, ma possono anche interagire con l'IA per creare contenuti su misura: dall’elaborazione di testi personalizzati alla generazione di analisi creative. Inoltre, l'IA offre accesso a una vasta gamma di dati e prospettive diverse, arricchendo la comprensione dei consumatori e permettendo loro di esplorare temi o prodotti da angolazioni diverse, sfidando le loro convinzioni e ampliando i loro orizzonti.
Tuttavia, l'approccio tradizionale alla protezione del consumatore, basato sulla trasparenza delle informazioni e sul consenso informato, non è più sufficiente. Le tecnologie di IA generativa, con la loro complessità e capacità di operare su grandi quantità di dati, complicano ulteriormente questo modello. La mancanza di trasparenza dei processi algoritmici rende difficile per i consumatori comprendere appieno come i loro dati vengano utilizzati. La consapevolezza dei consumatori è inadeguata, non solo riguardo all'uso dei dati, ma anche alla natura stessa dell'influenza esercitata dagli algoritmi.
Un altro aspetto importante riguarda la complessità delle interazioni tra i consumatori e le AI. Queste tecnologie, pur promettendo di migliorare l'esperienza del consumatore, possono portare a una crescente asimmetria dell'informazione, dove i consumatori sono poco informati su come le loro preferenze vengano raccolte e modellate. In questo contesto, il consenso informato diventa un concetto sfumato, che deve essere riconsiderato alla luce delle nuove dinamiche tecnologiche.
Qual è l'equilibrio tra la protezione del consumatore e le pratiche commerciali nell'Unione Europea?
La legislazione europea ha preso in considerazione la possibilità che esista uno squilibrio tra l'azienda e il consumatore, riconoscendo la necessità di tutelare quest'ultimo contro il rischio di essere sfruttato a causa dei suoi bias cognitivi. In tale contesto, l'Unione Europea ha imposto alle aziende l’obbligo di fornire informazioni riguardo ai prodotti e alle transazioni, poiché in alcune circostanze si potrebbe ritenere che il consenso del consumatore sia stato formato in modo inadeguato e che sia necessario un livello maggiore di informazioni per permettere una decisione consapevole. Tuttavia, è stato anche riconosciuto che, in certe situazioni, tali informazioni potrebbero non essere sufficienti a garantire una protezione completa.
Inoltre, l'Unione Europea ha evidenziato che il consenso potrebbe essere il risultato di tecniche commerciali aggressive, mirate a eludere la volontà esplicita del consumatore. Ad esempio, la Direttiva sulle pratiche commerciali sleali (UCPD), negli articoli 5, 6, 7, 8 e 9, stabilisce che le aziende devono astenersi da pratiche commerciali sleali, incluse azioni ingannevoli o omissioni, nonché pratiche commerciali aggressive. Un altro aspetto importante riconosciuto dalla legislazione europea è che, in alcune circostanze, i consumatori necessitano di un periodo di riflessione per analizzare correttamente i contratti e comprenderne appieno il contenuto. Di conseguenza, l'Articolo 6 della Direttiva sui Contratti a distanza (CRD) stabilisce che il consumatore ha il diritto di recedere da un contratto concluso a distanza o fuori dai locali commerciali senza fornire alcuna motivazione, entro un termine di quattordici giorni.
L'Unione Europea ha anche cercato di adattarsi alle nuove pratiche commerciali, modificando costantemente la propria legislazione. Dopo la Comunicazione ‘Un nuovo patto per i consumatori’, è stata pubblicata la Direttiva (UE) 2019/2161, che modifica la Direttiva sulle condizioni contrattuali sleali, la Direttiva sull’indicazione dei prezzi, la UCPD e la CRD. Quest'ultima Direttiva si occupa espressamente di tecniche identificabili come "dark patterns", ossia pratiche come la pubblicazione di recensioni e approvazioni false, come "like" sui social media, con l’obiettivo di manipolare i consumatori. La legislazione europea ha quindi preso in considerazione l’interferenza nei processi decisionali degli individui, facendo affidamento su un consenso che si fonda su informazioni adeguate, consapevolezza e comprensione. L'UE, infatti, ha lo scopo di adattare la propria normativa alle pratiche emergenti, come dimostra la Direttiva (UE) 2019/2161, così come le linee guida sull'applicazione della UCPD, che verranno trattate successivamente.
Tuttavia, nonostante questi progressi, l’obiettivo non è stato completamente raggiunto, e la protezione contro la manipolazione computazionale continua a presentare delle lacune. La Commissione Europea, nel 2021, ha pubblicato delle linee guida sull'interpretazione e l’applicazione della UCPD, che prendono in considerazione le pratiche basate sui dati e i "dark patterns", riconoscendo esplicitamente la manipolazione dei consumatori. Sebbene persuadere i consumatori sia sempre stato un elemento fondamentale delle pratiche commerciali, l’ambiente digitale ha modificato profondamente la prospettiva, conferendo un nuovo potere grazie ai Big Data, all'Intelligenza Artificiale e alla possibilità di modificare dinamicamente le offerte in tempo reale. La Commissione definisce tale conoscenza come superiore, basata su dati aggregati sui comportamenti e le preferenze dei consumatori, e sulla capacità di adattare le pratiche in tempo reale, testando continuamente gli effetti di tali pratiche sui consumatori per apprendere meglio i loro comportamenti.
Le pratiche manipolative, che spesso avvengono senza che il consumatore ne sia pienamente consapevole, sono distinte dalle tecniche pubblicitarie o di vendita persuasive, che non si configurano come manipolative. La Commissione ha sottolineato la necessità di proteggere i consumatori vulnerabili, in particolare quelli che potrebbero essere più suscettibili a influenze indebite, come stabilito negli articoli 8 e 9 della UCPD. Tra gli esempi di manipolazione presenti nelle linee guida troviamo il caso di un adolescente che, in uno stato emotivo fragile, viene bersagliato da pubblicità emotive, o quello di un consumatore che, a causa di difficoltà finanziarie, viene targettizzato con offerte che sfruttano la sua situazione. In quest'ottica, la Commissione ha posto l’accento sulla possibilità di utilizzare non solo la UCPD, ma anche altri strumenti giuridici europei, come il GDPR, per contrastare le pratiche manipolative.
In definitiva, mentre la legislazione dell’Unione Europea ha fatto significativi passi avanti nel tentativo di proteggere i consumatori dalle pratiche commerciali sleali, restano delle aree vulnerabili, in particolare nel campo della manipolazione computazionale e dei "dark patterns", che richiedono un continuo adattamento normativo e una vigilanza costante per garantire un equilibrio equo tra il mercato e i diritti dei consumatori.
Qual è l'approccio normativo dell'AI Act verso i modelli di IA generativa e le responsabilità legali?
L’AI Act, nella sua articolazione, stabilisce un sistema di classificazione del rischio per i modelli di intelligenza artificiale (IA) a scopo generale, suddividendoli in tre categorie: modelli standard, modelli rilasciati sotto licenza libera e open-source, e modelli che pongono rischi sistemici. Questo approccio dimostra un chiaro tentativo di regolare i rischi derivanti dall’uso di IA generativa in modo differenziato, basandosi sulla loro capacità di impatto e sui rischi che comportano per la società. La categorizzazione stabilisce anche obblighi specifici per i modelli che presentano rischi sistemici, tra cui l’obbligo di fornire una documentazione tecnica dettagliata, le informazioni necessarie per garantire la conformità e un sistema di classificazione basato sulle capacità di alta impatto dei modelli.
I rischi sistemici sono definiti come quei rischi legati alle capacità avanzate dei modelli generativi di IA che, a causa della loro portata e degli effetti negativi previsti sulla salute pubblica, la sicurezza, i diritti fondamentali o la società nel suo complesso, potrebbero propagarsi rapidamente lungo tutta la catena del valore. In tal modo, i modelli generativi ad alta capacità devono affrontare misure normative più severe, che comprendono obblighi di trasparenza e un sistema di monitoraggio costante. La Commissione Europea ha la facoltà di decidere autonomamente o a seguito di un allarme qualificato l’inclusione di un modello generativo all’interno di questa categoria di rischio sistemico.
Un altro punto chiave nell’approccio dell’AI Act è la trasparenza. I fornitori di modelli generativi di IA sono tenuti a rivelare le fonti e i contenuti utilizzati per il training, inclusi i lavori protetti da diritti d’autore, come requisito fondamentale per la gestione delle preoccupazioni legate alle violazioni di copyright e alla privacy. In questo modo, si cerca di garantire che i modelli non vengano addestrati su dati non autorizzati, proteggendo i diritti degli autori e delle persone i cui dati sono coinvolti nei processi di training.
Questa trasparenza si estende anche alla creazione di contenuti generativi, come testo, audio, immagini e video. L’AI Act impone ai fornitori di sistemi IA generativi di rendere identificabili i contenuti artificialmente generati attraverso tecniche di marcatura in formato leggibile dalle macchine. Questo obbligo è pensato per ridurre gli effetti dannosi derivanti da contenuti manipolati o generati artificialmente, migliorando la percezione pubblica dei contenuti e riducendo il rischio di inganni, malintesi e falsificazioni.
Tuttavia, l’impegno alla trasparenza non elimina completamente i rischi legali e le complicazioni relative alla determinazione della responsabilità. L’eventuale mancanza di marcatura o l’utilizzo di soluzioni tecniche inadeguate per identificare contenuti manipolati potrebbe aggravare le conseguenze negative di un determinato output generato da un modello IA. È necessario, pertanto, un ulteriore approfondimento sui criteri di responsabilità e sulle sanzioni che potrebbero derivare da tali omissioni.
Inoltre, l’AI Act si distingue per la sua distinzione tra “modelli di IA a scopo generale” e altre categorie di sistemi IA, e introduce regole specifiche per questi ultimi. Ciò implica che, mentre i modelli IA generativi sono una parte del panorama tecnologico in evoluzione, il loro trattamento giuridico è distintivo rispetto ad altre forme di intelligenza artificiale. I fornitori di tali modelli, in base alla definizione di "modelli IA a scopo generale", sono obbligati a rispettare requisiti di trasparenza e responsabilità, sia per quanto riguarda l’utilizzo dei dati sia per la gestione dei rischi sistemici che possono derivare dal loro impiego su larga scala.
È fondamentale che i lettori comprendano che la regolamentazione non si limita a una semplice catalogazione dei rischi, ma implica anche un approfondito esame delle capacità specifiche dei modelli IA e dei loro potenziali effetti a lungo termine. La responsabilità legale, infatti, non è circoscritta ai danni immediati o evidenti, ma si estende alla valutazione degli effetti a cascata che l'uso indiscriminato o non regolamentato di modelli di IA generativa potrebbe avere sulla società, sull’economia e sui diritti fondamentali degli individui. La trasparenza e la tracciabilità, se ben implementate, possono fungere da strumenti cruciali per garantire che gli sviluppi tecnologici non compromettano la fiducia del pubblico, ma anche per mitigare i rischi legali e reputazionali per i fornitori di IA.
Come si Sta Evolvendo la Governance Globale dell'Intelligenza Artificiale Generativa?
Il campo dell'intelligenza artificiale (IA) ha vissuto negli ultimi anni una rapida accelerazione, portando a progressi straordinari che hanno trasformato non solo la tecnologia stessa, ma anche le dinamiche economiche e sociali. Tra queste innovazioni, l'intelligenza artificiale generativa (GenAI) si è affermata come una forza dirompente, permettendo alle macchine di creare testi, immagini, musica e codice con una raffinatezza che fino a poco tempo fa sembrava inimmaginabile. L'espansione di queste capacità ha generato nuove opportunità in vari settori, stimolando la creatività e la risoluzione di problemi in ambiti diversificati, dalle imprese alla cultura. Tuttavia, ha anche sollevato interrogativi importanti riguardo la responsabilità e la regolamentazione della tecnologia.
Uno degli sviluppi più significativi in questo contesto è rappresentato dall’evoluzione della governance dell'IA generativa a livello internazionale. Nel dicembre 2023, il Gruppo dei Sette (G7) ha approvato il "Comprehensive Policy Framework" nell'ambito del processo di Hiroshima sull'IA, un pacchetto normativo che segna il primo passo concreto da parte dei leader democratici verso la creazione di principi comuni per salvaguardare i diritti individuali e promuovere la fiducia nei sistemi IA. Questo processo, lanciato nel maggio 2024 con la creazione del "Hiroshima AI Process Friends Group", ha come obiettivo quello di favorire la cooperazione internazionale per garantire che l'intelligenza artificiale generativa sia sicura, accessibile e affidabile su scala globale.
Il quadro normativo proposto non è solo una risposta alle preoccupazioni tecniche legate alla GenAI, ma anche una riflessione su come questa nuova tecnologia possa essere integrata in modo etico e sostenibile nel tessuto sociale. L'inclusione dei principi di diritto, diritti umani, giustizia, e diversità nella regolamentazione globale è fondamentale per prevenire eventuali distorsioni e abusi che potrebbero emergere in un contesto tecnologico così potente e diffuso. È proprio in questo senso che il processo di Hiroshima rappresenta un punto di partenza per una maggiore collaborazione tra i paesi, mirando a ridurre i rischi potenziali e ad amplificare i benefici derivanti dall'uso della GenAI.
Il punto cruciale della governance internazionale dell'IA generativa è la creazione di linee guida comuni che possano essere applicate a livello globale. Alcuni dei documenti principali in questo ambito sono la "Bletchley Declaration" (2023), la Convenzione Quadro del Consiglio d'Europa sull'IA e i Diritti Umani, e il rapporto finale dell'Advisory Body delle Nazioni Unite sull'IA (2024), che offrono una base per la regolamentazione e la cooperazione internazionale. Questi documenti non solo tracciano una direzione per la gestione della GenAI, ma anche per la sua evoluzione futura in un contesto di rispetto delle leggi internazionali e dei diritti fondamentali dell'individuo.
Il panorama globale dell'IA generativa è complesso e richiede una gestione condivisa che possa tenere conto delle peculiarità locali senza compromettere l'interesse globale. L'accesso universale a queste tecnologie e la loro adozione in vari settori comportano sfide significative. È quindi essenziale che la governance dell'IA non si limiti a regolare la tecnologia, ma includa anche un sistema di monitoraggio continuo per prevenire sviluppi indesiderati o pericolosi. L’adozione di politiche che promuovano l'educazione e la formazione in IA a livello globale risulta altrettanto cruciale per garantire che i benefici siano distribuiti in modo equo e che le capacità siano utilizzate responsabilmente.
Infine, va sottolineato che la governance dell'IA generativa non deve essere vista come un processo che appartiene esclusivamente ai governi o alle grandi aziende tecnologiche. La partecipazione di una vasta gamma di attori, tra cui organizzazioni non governative, università, e comunità di sviluppatori, è fondamentale per garantire che i principi di eticità e inclusività siano rispettati in tutte le fasi dello sviluppo e dell'implementazione dell'IA. La trasparenza nei processi decisionali e la responsabilità per le scelte tecnologiche sono gli strumenti che permetteranno di costruire un futuro in cui l'IA generativa non rappresenta una minaccia, ma una risorsa positiva per l'umanità.

Deutsch
Francais
Nederlands
Svenska
Norsk
Dansk
Suomi
Espanol
Italiano
Portugues
Magyar
Polski
Cestina
Русский