I sistemi di intelligenza artificiale generativa sono addestrati su enormi quantità di dati, che spesso comprendono miliardi di punti di dati individuali provenienti da una vasta gamma di formati, domini e fonti. Un esempio significativo è il modello linguistico GPT-4 di OpenAI, che è stato addestrato su un corpus di oltre 45 terabyte di dati testuali, che includono libri, articoli e siti web. Sebbene una parte di questi dati siano materiali pubblici, come immagini stock, gran parte di essi include informazioni personali come nomi, indirizzi e immagini di individui, spesso pubblicate online con aspettative di privacy molto diverse tra loro. La raccolta e l'elaborazione di tali informazioni personali e contenuti sensibili avvengono senza preavviso, consenso o restrizione.
Le leggi attuali consentono e, talvolta, sanciscono esplicitamente la raccolta e l'uso di informazioni pubblicamente disponibili. Tuttavia, la portata senza precedenti della raccolta e dell'analisi dei dati da parte dei sistemi di intelligenza artificiale generativa mina le assunzioni di autonomia individuale che stanno alla base degli attuali quadri normativi sulla privacy. Spesso, infatti, gli individui non sono nemmeno a conoscenza del fatto che i loro dati vengono utilizzati per addestrare questi sistemi, e non hanno alcun controllo sull'uso successivo delle loro informazioni.
Un esempio emblematico di questa problematica è il caso di Clearview AI, un'azienda di riconoscimento facciale che ha estratto miliardi di immagini dai social media per addestrare i suoi algoritmi, senza il consenso né la consapevolezza degli individui ritratti. Questo tipo di estrazione dei dati solleva interrogativi sulla capacità delle persone di mantenere il controllo sulle proprie informazioni personali in un mondo in cui l'intelligenza artificiale sta diventando sempre più intrusiva e potente.
Un altro rischio significativo per la privacy riguarda la possibile perdita di dati e la reidentificazione degli individui a partire dai dataset di addestramento. Poiché questi modelli catturano schemi ad un livello di dettaglio molto granulare, possono riprodurre, nei risultati generati, frammenti di dati sensibili che potrebbero essere utilizzati per identificare persone in modo diretto. Ad esempio, un modello linguistico addestrato su un corpus di email potrebbe restituire, durante la generazione di testo, veri e propri nomi, indirizzi o numeri di telefono, mentre un modello di sintesi di immagini, addestrato su foto provenienti dai social media, potrebbe produrre immagini che ritraggono individui riconoscibili o luoghi noti. Questo fenomeno di “memorizzazione” dei dati, purtroppo, non è limitato a casi casuali e può essere sfruttato anche da attori malintenzionati che manipolano i prompt per estrarre informazioni sensibili specifiche.
L'inferenza di profili attraverso l'analisi di grandi dataset è un'altra delle principali problematiche legate alla privacy nell'era dell'intelligenza artificiale generativa. I sistemi di AI sono in grado di individuare correlazioni nei dati su larga scala, effettuando inferenze probabilistiche riguardo a demografia, preferenze, comportamenti e convinzioni degli individui, anche quando queste informazioni non sono esplicitamente dichiarate. Ad esempio, un modello linguistico addestrato su post di social media potrebbe imparare ad associare determinati stili linguistici o argomenti a gruppi demografici specifici, permettendo al sistema di fare inferenze sul sesso, l'età, l’etnia, o lo stato socioeconomico di un individuo sulla base del suo stile di scrittura. Allo stesso modo, un modello di visione artificiale addestrato su immagini caricate dagli utenti potrebbe, o almeno potrebbe essere ritenuto capace, di inferire attributi sensibili come condizioni di salute, inclinazioni politiche o orientamento sessuale, sulla base di indizi visivi e segnali contestuali presenti nelle immagini.
Questa capacità inferenziale dei sistemi di intelligenza artificiale indebolisce le protezioni che si fondano sulla raccolta esplicita di informazioni personali, ampliando la sfera di ciò che può essere inferito o dedotto senza il consenso dell’individuo. Le leggi esistenti, che si concentrano principalmente sulla raccolta diretta di dati identificabili, non sono sufficienti a proteggere adeguatamente gli individui in un contesto in cui le inferenze sugli utenti, basate su modelli di apprendimento automatico, sono ormai all’ordine del giorno.
Gli sviluppi futuri della regolamentazione sulla privacy dovranno affrontare questi nuovi rischi in modo più incisivo. Le attuali normative, purtroppo, non sono in grado di rispondere adeguatamente alla velocità con cui la tecnologia evolve. L'intelligenza artificiale generativa, nella sua capacità di modellare e riprodurre comportamenti, può facilmente compromettere la privacy in modi che non erano previsti quando furono sviluppati gli attuali sistemi legali. È fondamentale che gli individui siano resi consapevoli di questi rischi, in modo che possano esercitare un controllo consapevole sulla propria privacy e comprendere le implicazioni del trattamento dei loro dati. Anche la trasparenza nell’utilizzo dei dati per l'addestramento dei modelli di AI diventa un aspetto centrale, così come il diritto di ogni persona di poter accedere, modificare o eliminare i propri dati da questi sistemi.
Come l'intelligenza artificiale può trasformare l'analisi dei contratti e delle politiche sulla privacy
Negli ultimi anni, l'avvento dei modelli di linguaggio di grandi dimensioni (LLM) ha portato significativi cambiamenti nell'approccio all'analisi dei contratti e delle politiche sulla privacy, in particolare in un contesto legato alla protezione dei dati personali e alla conformità al GDPR. Questi strumenti non solo offrono una comprensione approfondita dei documenti complessi, ma sono anche in grado di rispondere a domande specifiche, migliorando l'accessibilità e la comprensione delle informazioni da parte dei consumatori.
Un primo campo di applicazione degli LLM riguarda il recupero delle informazioni dai documenti legali. Tradizionalmente, i contratti di consumo e le politiche sulla privacy sono stati difficili da analizzare per i consumatori, non solo a causa della loro lunghezza, ma anche per la complessità e la vaghezza con cui vengono redatti. Molti studi empirici legali hanno dimostrato che i consumatori raramente leggono le politiche sulla privacy, e quando lo fanno, sono incapaci di ottenere informazioni rilevanti. Questo è in parte dovuto alla mancanza di chiarezza e alla lunghezza eccessiva dei documenti, che non riescono a trasmettere le informazioni in modo comprensibile.
L'introduzione di LLM, come i modelli ChatGPT, rappresenta una svolta in questo ambito. Questi modelli sono in grado di "digerire" informazioni contenute in documenti complessi e rispondere a domande formulando risposte precise e comprensibili. Nel contesto del progetto CLAUDETTE, è stato testato l'utilizzo di ChatGPT per rispondere alle domande dei consumatori riguardanti il contenuto di politiche sulla privacy. È stato progettato un esperimento che mirava a verificare fino a che punto una versione di ChatGPT (3.5 e 4) potesse rispondere correttamente a domande specifiche relative alle politiche sulla privacy di una società ipotetica di consegna cibo.
Gli esperimenti hanno rivelato che l'intelligenza artificiale ha il potenziale per risolvere un problema cruciale: la difficoltà per i consumatori di ottenere risposte precise dalle politiche sulla privacy. Con l'ausilio di un modello di linguaggio di grandi dimensioni, è possibile estrarre informazioni rilevanti da politiche complesse in un formato facilmente comprensibile, eliminando il tradizionale compromesso tra completezza e comprensibilità. Non è più necessario sacrificare la chiarezza per la completezza, poiché l'IA può restituire risposte esaurienti basate su documenti completi senza rischiare di semplificare o omettere informazioni fondamentali.
Oltre al recupero delle informazioni, un altro aspetto fondamentale è l'assessment legale delle clausole contenute nei contratti di servizio e nelle politiche sulla privacy. L'applicazione di LLM a questo compito consente una valutazione automatica delle clausole, identificando quelle potenzialmente illegali o ingannevoli. Questo processo si svolge in tre fasi principali: (i) il fine-tuning del modello, che implica l'adattamento del modello di linguaggio alle specificità dei contratti e delle politiche; (ii) la definizione dei criteri per identificare clausole legali o illegali, stabilendo in modo chiaro cosa costituisce una clausola "legale" o "illegale" in relazione a diverse categorie; e (iii) l'attivazione del modello tramite prompt appositamente progettati per identificare e classificare le clausole in modo accurato.
L'approccio descritto è promettente, ma presenta ancora delle sfide. In particolare, la robustezza dei modelli deve essere ulteriormente testata in contesti diversi, considerando le possibili variabili legate ai vari prompt e alle domande poste. Inoltre, la questione delle "allucinazioni" – ovvero risposte non giustificate dai dati contenuti nel documento – resta un problema rilevante. La capacità di un LLM di rispondere correttamente senza introdurre informazioni non contenute nel testo originale è cruciale per garantire l'affidabilità dell'analisi legale automatica.
Nel corso delle esperimentazioni future, è previsto l'ampliamento dei set di dati e l'esplorazione di altre soluzioni, come l'uso di LLM open-source e l'integrazione con API per migliorare le prestazioni. Tuttavia, è fondamentale comprendere che la semplice presenza di tecnologie avanzate non risolve automaticamente tutte le difficoltà legate alla protezione dei dati personali e alla trasparenza nelle politiche aziendali. L'utilizzo di LLMs per analizzare e migliorare i contratti e le politiche sulla privacy rappresenta un passo significativo verso una maggiore consapevolezza e tutela dei diritti dei consumatori. Tuttavia, resta essenziale sviluppare soluzioni robuste per evitare distorsioni nell'interpretazione dei dati e garantire che le risposte fornite siano veramente rappresentative del contenuto dei documenti originali.
Perché l'Intelligenza Artificiale Generativa Non È Come Cyrano de Bergerac?
L'intelligenza artificiale (IA) potrebbe, un giorno, essere in grado di creare l'ambiente persuasivo perfetto. Immaginate un IA che, come Cyrano de Bergerac, prenda le sembianze di qualcun altro, agendo nell'ombra per trovare le parole giuste al momento giusto, per catturare il cuore di qualcuno. Cyrano, nel capolavoro di Rostand, era motivato da una nobiltà d'animo, mentre un'IA manipolatrice non ha simili buone intenzioni. Questa IA, come un Cyrano oscuro, sarebbe in grado di raccogliere informazioni su un individuo senza che questi ne sia consapevole, modellando la realtà che la persona percepisce per influenzare le sue decisioni.
Le potenzialità di manipolazione dell'intelligenza artificiale generativa (LGAIM) sono impressionanti. Un LGAIM può, infatti, creare contenuti perfetti—testi, immagini, video—su misura per un singolo individuo, influenzandone atteggiamenti e comportamenti. Immaginate, ad esempio, una IA che personalizza ogni aspetto di ciò che vediamo e sentiamo su Internet, convogliando informazioni per orientare le nostre scelte in direzioni predeterminate. L'intelligenza artificiale, attraverso l'analisi e l'elaborazione di enormi quantità di dati (Big Data), può essere utilizzata per profilare un individuo con una precisione tale da influenzare la sua psiche e condizionare il suo comportamento senza che essa ne sia consapevole.
Questa realtà non è più un ipotetico scenario da romanzo, ma una minaccia concreta riconosciuta da numerosi enti internazionali, regionali e nazionali. La manipolazione computazionale (CM), in effetti, sta rapidamente guadagnando terreno, portando a un rischio significativo per i diritti fondamentali delle persone. In risposta a questo fenomeno, l'Unione Europea ha compiuto i primi passi per proteggere gli individui dai pericoli derivanti da tali tecnologie, ma la protezione rimane ancora incompleta. Il panorama giuridico attuale non affronta pienamente le implicazioni di un'intelligenza artificiale che manipola e persuasiva tramite l'uso di LGAIM, lasciando scoperti molti ambiti cruciali.
La manipolazione computazionale è un fenomeno che va oltre la semplice raccolta di dati. Le tecnologie persuasive, che utilizzano IA, si infiltrano nelle nostre vite quotidiane attraverso strumenti invisibili come smartphone, social media e motori di ricerca. Questi strumenti possono raccogliere informazioni in tempo reale, spesso senza che l'utente se ne accorga. La manipolazione tecnologica può essere definita come una tecnica che applica l'IA per influenzare attivamente le attitudini e i comportamenti degli utenti, a volte agendo contro i loro interessi o, più subdolamente, rendendo tali influenze invisibili.
Un altro aspetto cruciale della manipolazione è la relazione tra persuasione e inganno. Sebbene la persuasione possa sembrare un processo positivo o neutro, in molti casi può divenire un inganno quando si sfruttano vulnerabilità cognitive o emozionali. Ad esempio, quando un'IA sfrutta bias cognitivi come il "bias di autorità" o la "prova sociale" per indirizzare le decisioni di un individuo senza che questi ne sia consapevole, si entra nell'ambito della manipolazione. Più precisamente, la manipolazione può essere divisa in due categorie: una più superficiale, che sfrutta la mancanza di informazioni (Manipolazione 1), e una più sottile e pericolosa, che si inserisce nelle profondità delle vulnerabilità decisionali, manipolando i sistemi di decisione rapidi e automatici (Manipolazione 2).
Secondo Daniel Kahneman, gli individui operano secondo due sistemi decisionali: il Sistema 1, che è più primitivo e istintivo, e il Sistema 2, che è più razionale e riflessivo. La manipolazione sfrutta soprattutto il Sistema 1, che è più vulnerabile e incline agli errori. Le tecnologie persuasive possono identificare i bias cognitivi di un individuo e utilizzarli per indirizzarlo verso scelte predefinite, spesso senza che l'individuo stesso se ne accorga. L'uso di nudging, ovvero l'indirizzamento di una persona verso determinate scelte senza che essa ne sia consapevole, è una delle tecniche più subdole che un'intelligenza artificiale può mettere in atto.
Il punto fondamentale, tuttavia, è che queste forme di manipolazione non si limitano a influenzare il comportamento, ma sono in grado di cambiare in modo profondo e irreversibile le percezioni e le opinioni degli individui, distorcendo la loro capacità di fare scelte consapevoli. Il fatto che un'IA possa profilare e analizzare un individuo con una precisione senza precedenti la rende un potente strumento di manipolazione. L'utilizzo di IA generative in contesti commerciali, politici o sociali potrebbe, quindi, portare a una distorsione pericolosa delle dinamiche di scelta individuale, minando la libertà e l'autonomia di pensiero.
Per contrastare queste minacce, è necessaria una comprensione profonda non solo delle capacità tecnologiche di queste intelligenze artificiali, ma anche della natura delle manipolazioni che esse sono in grado di attuare. È fondamentale un approccio normativo che non si limiti a regolare le tecnologie in modo superficiale, ma che affronti in modo sistematico la complessità della manipolazione computazionale e la protezione delle libertà individuali. Se le normative attuali non riusciranno a evolversi, rischiamo di trovarci in un futuro in cui la manipolazione digitale diventa un fenomeno tanto pervasivo quanto invisibile, influenzando le nostre decisioni in modo che nemmeno siamo in grado di percepire.
La crisi interna dell'Istituto TIFR: L'autonomia perduta e il declino accademico
Come si comportano immagini e controimmagini rispetto a unione, intersezione e iniezioni nelle funzioni
Come decorare torte miniatura con fondente e ghiaccia reale per un effetto sorprendente
Quali sono le complicanze più pericolose della pancreatite acuta e come trattarle?
Come le rappresentazioni della sessualità nera riflettono e influenzano la politica e la cultura

Deutsch
Francais
Nederlands
Svenska
Norsk
Dansk
Suomi
Espanol
Italiano
Portugues
Magyar
Polski
Cestina
Русский