Le fusioni tra imprese possono avere un impatto sostanziale sulla concorrenza in un mercato, specialmente in settori altamente concentrati o in rapida evoluzione, come quello dell'intelligenza artificiale (AI). In tale contesto, l'analisi delle fusioni non si limita alla valutazione dell'aumento della concentrazione del mercato, ma si estende anche a considerazioni su come tali fusioni possano ridurre la competizione, limitare l'accesso a prodotti e servizi essenziali, favorire il coordinamento tacito e rinforzare posizioni dominanti. Le linee guida emesse dalle autorità antitrust, come la Federal Trade Commission (FTC) negli Stati Uniti, offrono indicazioni precise su come valutare questi aspetti.

In particolare, la prima linea guida suggerisce che le fusioni che portano a un aumento significativo della concentrazione in un mercato già altamente concentrato sono considerate illegali, a meno che non vi siano prove che possano giustificare il contrario. Un aumento significativo della concentrazione di mercato può comportare la riduzione delle opzioni per i consumatori e la limitazione dell'innovazione, creando barriere di ingresso per i nuovi attori del mercato.

La seconda linea guida si concentra sulle fusioni che eliminano la concorrenza diretta tra aziende. Nel contesto dell'intelligenza artificiale, ciò riguarda fusioni tra aziende che sono concorrenti dirette nello sviluppo, nella ricerca e nell'implementazione dell'AI. La combinazione di risorse, competenze e know-how tra questi soggetti può comportare una riduzione della varietà di soluzioni e approcci disponibili sul mercato, limitando la spinta all'innovazione.

La terza linea guida solleva il tema del rischio di coordinamento tra le aziende coinvolte. L'uso di algoritmi avanzati può agevolare la collusione tacita, un fenomeno in cui le imprese, pur senza accordarsi esplicitamente, agiscono in modo tale da ridurre la concorrenza. In un settore come quello dell'AI, che fa ampio uso di algoritmi complessi, l'adozione di pratiche che favoriscono il coordinamento tacito può avere un impatto negativo sulla concorrenza, riducendo l'incertezza e limitando le opportunità per i consumatori di beneficiare di prezzi più competitivi e di innovazioni.

Un altro aspetto centrale riguarda la quarta linea guida, che affronta il tema della limitazione dell'accesso a prodotti o servizi essenziali. Le fusioni che comportano il controllo di risorse chiave, come i dati, le risorse computazionali o gli algoritmi proprietari, possono consentire a una singola impresa di ostacolare l'accesso di un concorrente a questi elementi fondamentali per il suo funzionamento. Nell'AI, ad esempio, il controllo di grandi database o algoritmi avanzati può diventare un fattore determinante per mantenere o ampliare la posizione dominante di un attore nel mercato, limitando le opportunità per altri sviluppatori di AI.

La quinta linea guida mette in evidenza come le fusioni possano rafforzare la posizione dominante di un'impresa già leader nel mercato. In particolare, le aziende dominanti potrebbero cercare di acquisire imprese emergenti per consolidare ulteriormente la loro influenza, riducendo così la competizione e le possibilità per i nuovi entranti di sfidare il loro potere di mercato. Questo fenomeno è particolarmente rilevante nel settore dell'intelligenza artificiale, dove le start-up innovative possono essere acquisite da grandi player prima di poter competere pienamente, impedendo così lo sviluppo di alternative più diversificate.

Un aspetto particolarmente delicato riguarda le piattaforme multi-sided, un tema trattato dalla sesta linea guida. Le fusioni che coinvolgono piattaforme digitali possono ridurre la competizione tra i partecipanti o, peggio ancora, consentire a un operatore di escludere i concorrenti dall'accesso ai partecipanti o alle risorse vitali. Le piattaforme digitali, che connettono diverse categorie di utenti (ad esempio, fornitori e consumatori), possono acquisire altre piattaforme o partecipanti chiave, creando una situazione di monopolio che impedisce alle alternative di prosperare.

L'introduzione di nuove normative, come il Digital Markets, Competition and Consumer Act (DMCC) del Regno Unito, ha l'obiettivo di proteggere la concorrenza nel settore digitale, specialmente in relazione alle aziende con "Strategic Market Status" (SMS). Tali normative ampliano l'ambito della legislazione antitrust, includendo attività digitali che influenzano il commercio del Regno Unito, anche se realizzate al di fuori del paese. La legge conferisce al Competition and Markets Authority (CMA) l'autorità di monitorare e regolamentare le fusioni in questo settore, per garantire che non compromettano la concorrenza o limitino le scelte disponibili per i consumatori.

Le imprese designate come SMS sono soggette a requisiti di condotta che promuovono la concorrenza leale e la trasparenza, inclusi obblighi di trattare i consumatori in modo equo e di evitare pratiche come l'autoservizio o l'uso improprio dei dati. Le piattaforme digitali, come quelle dei social media o dei motori di ricerca, potrebbero essere obbligate a garantire l'interoperabilità con i concorrenti o a ridurre le barriere all'ingresso per nuovi partecipanti.

Infine, è fondamentale comprendere che le fusioni nel settore dell'intelligenza artificiale e delle piattaforme digitali non solo influenzano la concorrenza immediata, ma possono avere anche effetti a lungo termine sull'innovazione, la diversità del mercato e il benessere dei consumatori. Le regolamentazioni, pertanto, non dovrebbero solo affrontare le problematiche concorrenziali attuali, ma anche prevenire il consolidamento del potere di mercato da parte di pochi attori dominanti, proteggendo così il dinamismo e la pluralità del mercato nel futuro.

Quali sono i rischi dell'intelligenza artificiale nella pratica legale e come affrontarli?

Molti avvocati (87%) sono concordi nel ritenere che l'implementazione dell'IA semplificherà le attività ripetitive e aumenterà la produttività. Inoltre, più della metà dei rispondenti (56%) afferma che l'IA offre un'opportunità di ridurre gli errori umani. Tuttavia, la crescente diffusione dell'IA generativa nel settore legale non è priva di sfide e rischi che necessitano di un'attenta riflessione. Se da un lato il potenziale trasformativo dell'IA potrebbe portare a sviluppi positivi, dall'altro le sue applicazioni devono essere trattate con cautela per evitare che compromettano l'integrità del processo legale.

Innanzitutto, è importante comprendere che, sebbene i modelli linguistici di grandi dimensioni (LLM) siano in grado di generare testo, non sono in grado di comprendere il significato di ciò che scrivono. La loro funzione si limita alla previsione di parole, non alla comprensione del contenuto. E poiché la maggior parte dei compiti svolti da un avvocato richiede comprensione, senso comune, conoscenze giuridiche e pensiero critico, questa lacuna nella capacità di comprensione può portare a gravi conseguenze.

I LLM spesso "allucinano", cioè producono output nonsensicali o fattualmente errati. Un esempio famoso è il caso Mata v. Avianca, dove il modello ha prodotto risposte imprecise. Poiché l'IA non comprende il contenuto, non è in grado di distinguere ciò che è possibile da ciò che è impossibile. Uno studio recentemente pubblicato dal RegLab di Stanford e dall'Istituto per l'Intelligenza Artificiale Centrata sull'Uomo (HAI) ha esaminato le risposte a oltre 200.000 query legali e ha rilevato tassi di allucinazione che vanno dal 69% all'88% nei modelli linguistici all'avanguardia. I risultati sono stati allarmanti, specialmente quando le domande richiedevano una comprensione complessa o un'interpretazione critica dei testi legali.

Inoltre, è emerso che i LLM tendono a fare errori più frequenti quando si trattano sentenze di tribunali di grado inferiore, come i tribunali distrettuali, rispetto a quelle di tribunali superiori come la Corte Suprema. Tra i modelli esaminati, ChatGPT 3.5 ha generalmente performato meglio rispetto ad altri, ma presentava alcune inclinazioni specifiche, come il favorire giudici noti o determinati tipi di casi. Ad esempio, tendeva a indicare erroneamente che il giudice Joseph Story avesse scritto molte più opinioni di quanto non fosse in realtà.

Un altro problema rilevato riguarda il cosiddetto "bias controfattuale", ovvero la tendenza del modello ad assumere che una premessa fattuale sia vera, anche quando è palesemente falsa. Questo fenomeno è evidente in modelli come ChatGPT 3.5, che spesso forniscono risposte convincenti basate su premesse errate. Ad esempio, se si chiede perché un determinato giudice abbia espresso un'opinione dissenziente in un caso, il modello potrebbe non verificare se il giudice abbia effettivamente dissentito, ma rispondere come se la premessa fosse vera.

Un ulteriore studio, che ha esaminato i software di intelligenza artificiale di Thomas Reuters e LexisNexis, ha rilevato che il sistema Lexis+ AI fornisce risposte corrette nel 65% dei casi, mentre il sistema Ask Practical Law AI ha risposte accurate solo nel 18% delle volte, rifiutando di rispondere nel 62% dei casi. Questo solleva interrogativi importanti sul significato di "accuratezza" e sulla fiducia che i professionisti legali possano riporre in questi strumenti.

Oltre a questi problemi di accuratezza, un'altra preoccupazione significativa riguarda i bias, la discriminazione e il discorso d'odio. Poiché i LLM sono alimentati da enormi quantità di dati, molti dei quali non supervisionati, è possibile che vengano utilizzati testi contenenti valutazioni razziste, antisemite, islamofobe o discriminatorie. Questo può portare a risposte che escludono determinate comunità o che riflettono sistemi che favoriscono alcuni gruppi sociali rispetto ad altri.

Le questioni legate alla trasparenza e alla protezione dei dati sono altrettanto cruciali. Per una corretta valutazione dei contenuti generati dall'IA, gli avvocati devono comprendere come il sistema arrivi a produrre un determinato output in base all'input ricevuto. Tuttavia, questo è particolarmente difficile a causa dell'opacità intrinseca delle reti neurali profonde alla base dei LLM. Per affrontare questo problema, sono stati sviluppati metodi di "intelligenza artificiale spiegabile" (XAI), che cercano di identificare l'importanza delle variabili nei dataset su cui un modello si basa, ma rimane ancora da verificare se queste tecniche siano applicabili nel contesto legale.

La protezione dei dati e la sicurezza informatica sono altre problematiche da tenere in considerazione. I sistemi di intelligenza artificiale devono essere progettati per garantire che le informazioni sensibili, come quelle legate ai casi legali, siano trattate in modo sicuro, senza correre il rischio di violazioni o abusi. In un contesto come quello legale, dove la riservatezza è fondamentale, l'adozione di AI deve essere accompagnata da rigorose misure di protezione dei dati.

Inoltre, la crescente capacità dei LLM di generare contenuti complessi pone interrogativi sul loro utilizzo in ambito giuridico. I legali devono essere consapevoli non solo delle potenzialità dell'IA, ma anche dei rischi associati all'uso di tali tecnologie, poiché le risposte fornite dagli strumenti di AI non sono sempre verificate e possono influenzare erroneamente le decisioni legali.

La regolamentazione dell'IA nelle pratiche legali dovrà evolversi parallelamente alla tecnologia. Con il rapido sviluppo di questi strumenti, è imperativo che i professionisti legali siano dotati di adeguate conoscenze in materia di IA, affinché possano integrare efficacemente queste tecnologie nel loro lavoro senza compromettere la qualità e l'affidabilità dei loro servizi. La formazione continua, l'adozione di strumenti di verifica e il monitoraggio delle performance degli LLM saranno essenziali per garantire un utilizzo sicuro e responsabile dell'intelligenza artificiale nel settore legale.