L'intelligenza artificiale generativa ha portato una rivoluzione nel modo in cui generiamo, interagiamo e percepiamo il contenuto digitale. Questi sistemi, che comprendono modelli linguistici come ChatGPT, strumenti di generazione di immagini come DALL-E e Stable Diffusion, e motori di sintesi audio come WaveNet, sono in grado di creare contenuti nuovi e realistici: testi, immagini, audio, video e codice. Ciò che rende unici questi strumenti non è solo la loro capacità di replicare l'umano, ma la loro abilità di produrre contenuti che spesso sono indistinguibili da quelli creati da esseri umani.

Se in passato l'intelligenza artificiale era principalmente focalizzata su compiti ben definiti, come la classificazione di immagini o il riconoscimento vocale, oggi i sistemi generativi spingono la tecnologia verso territori mai esplorati prima. La possibilità di creare contenuti che sembrano provenire da un autore umano pone nuove sfide, non solo per la creatività e l'innovazione, ma soprattutto per la privacy. Le capacità di questi strumenti amplificano i rischi esistenti e sollevano problematiche nuove, le quali mettono in discussione i fondamenti delle attuali normative sulla privacy.

Uno dei rischi principali legati all'intelligenza artificiale generativa è l'estrazione di dati su larga scala senza il consenso degli individui, un fenomeno che può avvenire in modo non consapevole da parte degli utenti. La raccolta di grandi quantità di dati, necessari per addestrare questi modelli, comporta una violazione del diritto all'autodeterminazione informativa degli utenti, con il conseguente rischio di una perdita di controllo sulle informazioni personali. Anche quando i dati raccolti non vengono utilizzati direttamente per l'addestramento, c'è il rischio di "fughe di dati" che permettono la ri-identificazione di informazioni precedentemente anonime.

Un altro problema legato a questi sistemi è il cosiddetto "inferential profiling", un processo che può derivare dall'analisi dei dati per identificare tendenze, comportamenti o preferenze individuali, senza il consenso esplicito dell'individuo. Ad esempio, un modello generativo potrebbe essere in grado di creare profili psicologici o comportamentali altamente dettagliati, sfruttando dati che sembrano innocui in sé, ma che, se combinati, possono svelare informazioni private e sensibili.

Un ulteriore pericolo associato a questi sistemi è la generazione di media sintetici, che pur essendo totalmente creati da un algoritmo, appaiono così realistici da essere difficili da distinguere dalla realtà. Le cosiddette "deepfake", immagini e video manipolati digitalmente, possono essere prodotte con una facilità mai vista prima. Questo non solo apre la porta alla disinformazione e alla manipolazione, ma solleva anche gravi preoccupazioni legate alla protezione dell'identità e della reputazione delle persone. Le vittime di questi attacchi potrebbero subire danni irreparabili alla loro vita personale e professionale.

Inoltre, l'uso di algoritmi in questi modelli generativi rischia di esacerbare i problemi di bias algoritmico. Gli algoritmi, che apprendono da enormi quantità di dati, riflettono inevitabilmente le preesistenti disuguaglianze e stereotipi presenti nei dati di addestramento. Questo fenomeno non solo rischia di perpetuare discriminazioni esistenti, ma potrebbe anche amplificarle, portando a risultati ingiusti e dannosi per determinati gruppi sociali o etnici.

Nonostante queste sfide siano riconosciute, il panorama normativo esistente, in particolare negli Stati Uniti, si dimostra insufficiente. La legislazione sulla privacy, pur essendo un tema di discussione da decenni, non è ancora in grado di affrontare adeguatamente i rischi emergenti posti dall'intelligenza artificiale generativa. La frammentazione delle normative, l'ossessione per il consenso informato e l'incapacità di garantire trasparenza e responsabilità nei confronti degli algoritmi contribuiscono a un quadro normativo inadeguato. Inoltre, il modello giuridico attuale non offre adeguate misure di protezione per i diritti individuali, rendendo difficile per gli utenti ottenere giustizia in caso di violazioni.

La necessità di un nuovo paradigma per la governance della privacy in relazione all'intelligenza artificiale generativa diventa quindi urgente. In questo contesto, la privacy non dovrebbe essere vista solo come una responsabilità individuale, ma come un bene collettivo che deve essere tutelato a livello sociale e pubblico. Una regolamentazione efficace dovrebbe includere misure preventive che vanno al di là delle semplici notifiche e del consenso esplicito. La trasparenza e la responsabilità degli sviluppatori, così come l'implementazione di sistemi di protezione dei dati a livello sistemico, sono aspetti cruciali per un approccio che protegga realmente la privacy degli utenti.

Infine, il cambiamento del quadro normativo si scontra con ostacoli politici, legali e culturali, in particolare negli Stati Uniti. La polarizzazione politica, che ostacola l'adozione di leggi federali sulla privacy, e l'approccio "permissionless" all'innovazione tecnologica, che enfatizza la libertà di sviluppo senza troppi vincoli, rappresentano sfide difficili da superare. Nonostante ciò, è ormai chiaro che la regolamentazione dell'intelligenza artificiale non è più un'opzione, ma una necessità urgente.

Come la manipolazione dei comportamenti tramite l'Intelligenza Artificiale sta cambiando la nostra autonomia

Il concetto di manipolazione comportamentale, in particolare quella attuata attraverso l'intelligenza artificiale (AI), sta suscitando un crescente dibattito riguardo alla protezione dei diritti individuali e alla tutela della libertà di scelta. L’Articolo 5, comma 1, della proposta di regolamento sull’Intelligenza Artificiale, recentemente modificato, prevede che l’uso dell’AI possa essere vietato quando causa danni significativi, distorcendo il comportamento di una persona. Tuttavia, l’interpretazione di cosa costituisca "danno significativo" e come determinare la presenza di tale danno ex ante, cioè prima che l’AI venga effettivamente utilizzata, rimane incerta e problematica.

Il cuore della questione risiede nel fatto che la manipolazione comportamentale tramite AI non sempre si traduce in danni economici immediati o misurabili. Ad esempio, l’uso di tecnologie come le sigarette elettroniche potrebbe non avere impatti economici rilevanti, ma il loro utilizzo può compromettere l’autonomia mentale e il diritto all'autodeterminazione delle persone, creando una forma di dipendenza o influenzando la loro scelta in modo subdolo e invisibile. Anche se il danno non è immediatamente tangibile, l’alterazione dei comportamenti quotidiani di un individuo potrebbe essere altrettanto dannosa, se non più insidiosa, rispetto a un danno economico diretto.

La proposta di regolamento dell’UE suggerisce che un sistema AI che sfrutta vulnerabilità specifiche, come l’età, la disabilità o una condizione socio-economica particolare, potrebbe essere vietato se tale sistema è in grado di distorcere il comportamento di un individuo, creando danni significativi. Qui emerge una complicazione: come definire esattamente queste vulnerabilità? L’articolo non chiarisce se queste vulnerabilità debbano essere legate esclusivamente a fattori esterni o se possano includere anche tratti psicologici e cognitivi, come i bias cognitivi, che influenzano il processo decisionale dell’individuo.

Le tecnologie manipolative possono agire su “scorciatoie” cognitive che bypassano il sistema decisionale razionale (System 2) e agiscono direttamente sul sistema più istintivo e rapido (System 1). Le vulnerabilità come la paura, il desiderio di appartenenza o la tendenza a seguire la massa possono essere sfruttate in modo da influenzare le decisioni senza che l’individuo ne sia pienamente consapevole. Questo tipo di manipolazione psicologica diventa particolarmente pericoloso quando è implementato da un’AI che può analizzare e interpretare i comportamenti individuali con una precisione superiore a quella umana.

La difficoltà principale risiede nel fatto che, come sottolineato dalla normativa, la manipolazione viene rilevata solo ex post, ovvero dopo che il danno è già stato causato. Questo approccio potrebbe essere inefficace, poiché non impedisce l'uso di tecnologie manipolative prima che esse causino danni concreti. Un confronto interessante potrebbe essere fatto con il divieto di possesso di armi da fuoco: se il divieto viene applicato solo dopo che l'arma è stata utilizzata, si rischia di creare danni irreversibili. La regolamentazione dovrebbe, pertanto, focalizzarsi su un divieto preventivo che impedisca lo sviluppo e l'uso di sistemi AI manipolatori prima che vengano messi in pratica.

Un’altra area di preoccupazione riguarda l’uso di sistemi biometrici. L'Articolo 5 (1)(g) della proposta di regolamento suggerisce che l’uso di AI che categorizza gli individui in base ai loro dati biometrici – come l’aspetto fisico o il comportamento – potrebbe essere vietato. Tuttavia, sebbene l’articolo menzioni la proibizione di sistemi che inferiscano caratteristiche sensibili, come razza o orientamento sessuale, non fa alcun riferimento alla possibilità di categorizzare le persone in base ai loro tratti cognitivi o psicologici. Questo potrebbe aprire la strada all’utilizzo di AI che studiano il comportamento di un individuo e ne inferiscono tratti psicologici o bias cognitivi per manipolare le sue scelte, senza che ciò venga tecnicamente classificato come manipolazione.

In definitiva, la legge, sebbene intenda proteggere l’individuo da tecnologie che distorcono il suo comportamento, presenta delle lacune importanti. La regolamentazione dovrebbe essere più chiara riguardo alle vulnerabilità cognitive che possono essere sfruttate, e dovrebbe garantire che l’uso di AI manipolativo venga monitorato e limitato prima che i danni siano evidenti. Solo un approccio preventivo e olistico potrà assicurare che l’Intelligenza Artificiale non venga utilizzata per compromettere l’autonomia decisionale degli individui, mettendo a rischio la loro libertà psicologica e il loro diritto alla scelta informata.