Il regolamento europeo sull'intelligenza artificiale (AI Act) impone una serie di obblighi di trasparenza specifici per i fornitori di sistemi AI, in particolare per quelli destinati a interagire con le persone, come i chatbot legali o le applicazioni di domande e risposte. In particolare, l'articolo 50(1) dell'AI Act stabilisce che i fornitori di sistemi AI progettati per l'interazione diretta con gli individui devono garantire che gli utenti siano informati del fatto che stanno interagendo con un sistema AI, a meno che ciò non sia evidentemente chiaro per una persona sufficientemente informata e consapevole, considerando il contesto d'uso.

I fornitori di modelli di linguaggio generativo (GPAI), come OpenAI con ChatGPT, o aziende che sviluppano modelli LLM ottimizzati per il settore legale, come Harvey, sono obbligati a rispettare tali disposizioni. Questi obblighi si applicano ai fornitori, ma non agli utilizzatori, come gli studi legali, che sono semplicemente "implementatori" di tali sistemi, come stabilito dall'articolo 3(3) dell'AI Act. Pertanto, gli studi legali non sono obbligati a rispettare direttamente gli obblighi di trasparenza previsti dall'articolo 50(1), sebbene le normative professionali possano comunque obbligarli a dichiarare l'uso di LLM ai propri clienti.

L'articolo 50(2) dell'AI Act prevede anche obblighi di trasparenza per i fornitori di sistemi di AI generativa, come i LLM, che generano contenuti sintetici (ad esempio, testo). I fornitori devono assicurarsi che l'output del sistema sia marcato in un formato leggibile da macchina, affinché sia possibile rilevare che il contenuto è stato generato o manipolato artificialmente. Tecniche come filigrane, identificazioni nei metadati o metodi crittografici per provare la provenienza e l'autenticità del contenuto sono alcune delle modalità previste dall'atto. Tuttavia, questi obblighi non si applicano se i sistemi AI svolgono semplicemente una funzione assistiva nella modifica del contenuto senza alterare sostanzialmente i dati forniti. In questo contesto, gli studi legali, come "implementatori" di sistemi AI generativi, sono obbligati a rispettare una serie di disposizioni limitate, ad esempio quando il contenuto generato o manipolato è destinato a informare il pubblico su questioni di interesse pubblico, come nelle informazioni legali pubblicate sui loro siti web o nelle newsletter. Tuttavia, non sono obbligati a rivelare che il contenuto è stato generato artificialmente, qualora il contenuto sia stato sottoposto a una revisione umana o a un controllo editoriale.

Il rapporto tra l'AI Act e le normative nazionali sui "Unauthorized Practice of Law" (UPL) e le regole di condotta professionale è un altro aspetto fondamentale. Sebbene l'AI Act abbia un'applicabilità diretta su tutti gli Stati membri dell'UE, le normative nazionali in materia di UPL e condotta professionale non sono automaticamente sostituite. Questo significa che l'uso di un sistema AI conforme all'AI Act non può essere vietato dalle normative nazionali, sebbene una violazione degli obblighi di trasparenza previsti dall'AI Act possa comportare una violazione dei doveri di condurre la professione legale in modo diligente.

Infine, l'entrata in vigore dell'AI Act, prevista per il 2 agosto 2026, non avrà probabilmente un impatto significativo sul mercato dei servizi legali, ma pone comunque interrogativi cruciali per gli studi legali che utilizzano LLMs per fornire servizi legali. Gli studi legali devono quindi prendere in considerazione le implicazioni normative relative all'uso di queste tecnologie e comprendere appieno le specifiche obbligazioni di trasparenza cui sono soggetti, nonché il contesto più ampio in cui si inseriscono tali tecnologie nel settore legale.

Inoltre, pur essendo un passo importante verso la regolamentazione dell'AI, l'AI Act lascia alcune questioni cruciali non completamente risolte. Per esempio, la definizione di "interesse pubblico" in relazione ai contenuti generati da AI e la distinzione tra contenuti che richiedono una dichiarazione di trasparenza e quelli che non la necessitano, restano ambigue. Per gli studi legali, è fondamentale rimanere aggiornati riguardo alle interpretazioni giuridiche di queste normative e come queste si relazionano alle altre regolazioni professionali esistenti. L’adozione di sistemi AI nel settore legale solleva, quindi, nuove sfide etiche e professionali che richiedono attenzione e preparazione continua.

Come i Pattern Oscuri e la Manipolazione Cognitiva Influiscono sulle Decisioni dei Consumatori: Riflessioni sulle Limitazioni della Direttiva UCPD

Nel contesto delle pratiche commerciali digitali, l'uso di manipolazioni psicologiche e tecniche di design ingannevoli sta diventando sempre più prevalente. La Commissione Europea, nel delineare la direttiva UCPD, ha cercato di affrontare queste problematiche, identificando e vietando vari schemi ingannevoli, noti come "pattern oscuri", che alterano il comportamento dei consumatori. Tuttavia, mentre queste misure mirano a proteggere i diritti dei consumatori, esse non coprono tutte le sfumature delle manipolazioni psicologiche moderne che si avvalgono della tecnologia e dei dati.

Un esempio di pattern oscuro che genera confusione è il comportamento ingannevole in un processo di acquisto online. Durante l'interazione con una piattaforma, al consumatore vengono poste domande con risposte "sì" e "no", ma con l'intenzione di disorientarlo: ad esempio, nel caso in cui la sequenza di clic venga modificata senza preavviso, e il consumatore, dopo aver cliccato "no" più volte, si ritrovi a iscriversi accidentalmente a una newsletter, cliccando "sì". Questi piccoli ma significativi cambiamenti nell'interfaccia utente possono influire sulla decisione del consumatore, spingendolo a prendere una scelta che altrimenti non avrebbe fatto.

Inoltre, la Commissione ha posto l'accento su altre pratiche simili, come l'impostazione predefinita di caselle già selezionate, che possono comportare l'accettazione di servizi a pagamento non richiesti. Questo comportamento non è solo ingannevole, ma anche una violazione dei diritti dei consumatori, in quanto manipola le loro scelte in modo subdolo. Tali pratiche sono già esplicitamente vietate dalla normativa UCPD, come delineato nell'Allegato I, che include la "Bait and Switch" (5 e 6 Allegato I), le "False Countdowns" (7 Allegato I), e le "False Free Products" (20 Allegato I), solo per citarne alcune.

Un'altra forma di manipolazione mentale, che si avvicina a una forma più complessa e meno immediatamente visibile, è quella che sfrutta il cosiddetto "confirmshaming" (l'uso di messaggi emotivi per indurre il consumatore a cambiare decisione), o la "visual interference" (l'uso di immagini prominenti che disincentivano la cancellazione di un servizio). Queste pratiche sono difficili da contrastare, poiché non si basano su informazioni errate, ma piuttosto su tecniche che manipolano la psicologia umana, approfittando delle emozioni e delle inclinazioni cognitive del consumatore.

Tuttavia, nonostante l'importanza di questi interventi normativi, la direttiva UCPD, purtroppo, presenta delle limitazioni significative. Per prima cosa, la UCPD è una direttiva e non un regolamento, il che significa che i singoli stati membri dell'UE possono scegliere come implementarla nelle proprie leggi nazionali. In Italia, ad esempio, la direttiva è stata trasposta nel Codice del Consumo, ma la formulazione degli articoli non sempre coincide con quella europea, introducendo divergenze interpretative che rischiano di compromettere l'efficacia della protezione del consumatore.

Inoltre, la direttiva UCPD si applica solo ai consumatori, cioè alle persone che agiscono al di fuori del contesto commerciale. Di conseguenza, le pratiche manipolative utilizzate tra aziende o tra professionisti non sono coperte da questa normativa. Questo limita enormemente l'efficacia della protezione, in particolare in un contesto in cui il marketing digitale e le manipolazioni cognitive diventano sempre più sofisticate e personalizzate.

Un altro aspetto problematico della UCPD è la sua incapacità di affrontare le manipolazioni cognitive più moderne, quelle che operano a livello inconscio, come nel caso di manipolazioni personalizzate basate sull'intelligenza artificiale (AI). Pratiche come il targeting di un consumatore sulla base delle sue vulnerabilità psicologiche o emozionali, come l'influenza delle sue esperienze familiari o delle sue preferenze sociali, non sono catturate dalla direttiva. Queste manipolazioni, che non si fondano su false informazioni o coercizione, ma su un uso avanzato dei big data e del machine learning, rientrano in una categoria che la normativa attuale non considera.

L'esempio di una situazione in cui un'azienda che vende sigarette elettroniche raccoglie informazioni da un fumatore tramite un dispositivo indossabile, analizzando i suoi dati fisiologici e psicologici, è un caso che illustra chiaramente la difficoltà nel regolamentare pratiche come la manipolazione cognitiva personalizzata. Utilizzando l'intelligenza artificiale, l'azienda è in grado di profilare il consumatore e indirizzargli messaggi e contenuti mirati che sfruttano le sue predisposizioni cognitive, come la fiducia nell'autorità o la tendenza a seguire le azioni degli altri, senza alcuna evidenza di coercizione o inganno evidente.

In definitiva, la protezione offerta dalla UCPD è ancora insufficiente rispetto alle nuove sfide che emergono nell'era digitale. La normativa si concentra principalmente su pratiche di inganno esplicito o di coercizione, mentre le manipolazioni più sottili e complesse, che si servono della tecnologia avanzata e dei dati personali, rimangono al di fuori della sua portata. È fondamentale che l'evoluzione delle leggi europee segua il passo rapido dei cambiamenti tecnologici, al fine di garantire che i consumatori non siano esposti a forme di manipolazione che possono incidere profondamente sulle loro decisioni senza che ne siano consapevoli.

Come la regolamentazione e la standardizzazione si integrano per gestire l'IA Generativa: Il caso dell'Unione Europea

La rapida evoluzione delle tecnologie, in particolare dell'IA generativa, rende difficile per le normative tenere il passo. Questo fenomeno è alimentato, da un lato, dalla mancanza di expertise tecnica tra i legislatori e, dall'altro, dai tempi lunghi necessari per la creazione, la proposta e la negoziazione di normative che inevitabilmente arrivano in ritardo rispetto ai progressi tecnologici. L'IA generativa rappresenta un esempio lampante di questa difficoltà, ma non è certo l'unico. Tuttavia, mentre la regolamentazione si muove con lentezza, la standardizzazione tecnica a livello globale, attraverso organismi come l'Organizzazione Internazionale per la Standardizzazione (ISO) e la Commissione Elettrotecnica Internazionale (IEC), non soffre della stessa carenza di expertise specializzata. Spesso, inoltre, questi organismi sono in grado di lavorare su tempi più brevi rispetto alla legislazione.

Questa discrepanza ha spinto molte giurisdizioni a sviluppare approcci sinergici che combinano i punti di forza della regolamentazione e della standardizzazione, facendo sì che le due modalità si completino a vicenda. Un esempio prominente di tale approccio è quello dell'Unione Europea, dove la sinergia tra regolamentazione e standardizzazione è in atto da lungo tempo con il "Nuovo Quadro Legislativo", un sistema che risale al 2008, ma che ha radici più profonde, risalenti agli anni '80. Tale quadro si applica anche all'AI Act dell'Unione Europea, una normativa che cerca di governare l'IA in modo coerente, ma al contempo flessibile, integrando gli sviluppi tecnici e le necessità sociali.

Il "Nuovo Quadro Legislativo" dell'UE è unico tra gli approcci sovranazionali perché è stato codificato in maniera approfondita. Esso combina vari strumenti e documenti, che sono stati riassunti nella "Guida Blu" sull'attuazione delle normative europee sui prodotti. Un aspetto fondamentale di questa guida è la regolamentazione chiara e dettagliata dei rischi derivanti dall'uso dell'IA, in particolare per i sistemi ad alto rischio, che richiedono un approccio normativo rigoroso in grado di evitare danni e abusi.

Tuttavia, non basta una normativa rigorosa. La trasparenza e la sicurezza sono aspetti cruciali nel contesto dell'IA generativa. I sistemi ad alta capacità generativa, come i modelli di linguaggio, devono essere soggetti a rigidi controlli di qualità e gestione dei dati. La protezione dei dati, la gestione della qualità dei contenuti generati e la prevenzione di possibili abusi sono essenziali per garantire la fiducia del pubblico e la sicurezza degli utenti. In questo contesto, la collaborazione internazionale per stabilire linee guida comuni è fondamentale per evitare frammentazioni normative che potrebbero ostacolare l'innovazione e, allo stesso tempo, non proteggere adeguatamente la società dai rischi emergenti.

Inoltre, l'adozione di standard internazionali per l'IA potrebbe ridurre significativamente la possibilità di conflitti tra legislazioni di diverse giurisdizioni, creando una rete di norme più coesa e compatibile. La standardizzazione, come la proposta per i sistemi di IA ad alto rischio, consente di stabilire dei criteri di sicurezza globali, ma anche di monitorare l’efficacia della regolamentazione attraverso il controllo e la valutazione continua. È qui che emerge la necessità di un dialogo continuo tra i legislatori, i ricercatori e gli sviluppatori di IA, affinché le normative possano essere aggiornate tempestivamente e in modo adeguato agli sviluppi tecnologici.

Un altro aspetto di grande importanza riguarda l'etica e le implicazioni sociali dei sistemi di IA generativa. La prevenzione dei bias, la protezione dei diritti fondamentali e la gestione dei rischi per la privacy devono essere integrate direttamente nei processi di sviluppo. Le normative devono prevedere non solo il rispetto delle leggi vigenti, ma anche la promozione di un uso etico e responsabile della tecnologia, incentivando le pratiche che favoriscono l'inclusività e l'equità.

Infine, la responsabilità sociale dei fornitori di IA è un tema centrale. La regolamentazione e la standardizzazione devono incentivare l'adozione di comportamenti trasparenti, inclusivi e responsabili da parte delle aziende che sviluppano e distribuiscono sistemi di IA, in modo che possano agire con maggiore consapevolezza riguardo agli effetti sociali ed economici delle loro tecnologie. Le politiche di rendicontazione e la trasparenza nell'informazione, insieme alla responsabilità etica, sono fattori che rafforzano la fiducia pubblica e contribuiscono a una diffusione più equilibrata della tecnologia.