L'evoluzione delle tecnologie di intelligenza artificiale (AI) sta cambiando radicalmente il panorama della governance aziendale e della compliance. In particolare, l'adozione dell'AI da parte degli investitori istituzionali, come il Fondo Norvegese, sta diventando un elemento centrale per la gestione responsabile delle aziende. Con l'incremento delle aspettative nei confronti dell'adozione dell'AI, la sua implementazione pratica nelle principali imprese mondiali richiede una sorveglianza attenta, affinché le aziende possano non solo integrare l'AI nei loro processi, ma farlo in modo che sia in linea con le normative e gli obiettivi di sostenibilità.
L'approccio del Fondo Norvegese (Norges Bank Investment Management) è esemplificativo di questa tendenza. La sua attenzione alla responsabilità nell'uso dell'intelligenza artificiale non si limita alla propria gestione, ma si estende alle aziende in cui investe. Questo tipo di attenzione da parte degli investitori implica una revisione complessa delle pratiche aziendali, con particolare riferimento alla trasparenza e alla sostenibilità dell'AI. I principali investitori istituzionali stanno infatti cominciando a utilizzare l'AI non solo per decidere su dove allocare i loro fondi, ma anche per monitorare l'uso dell'AI nelle aziende, assicurandosi che sia in linea con i principi di responsabilità sociale, etica e di buona governance.
Il processo di valutazione dei rischi e delle opportunità legate all'AI implica una collaborazione multilaterale tra diverse figure: dai membri dei consigli di amministrazione e degli executive team, agli investitori istituzionali e alle autorità regolatorie. Enti come l'Unione Europea, la Commissione per i Titoli e le Borse (SEC) degli Stati Uniti, ma anche organizzazioni internazionali come l'OCSE e l'ONU, stanno giocando un ruolo crescente nel definire le linee guida per l'uso etico dell'AI. La sfida è quella di trovare un equilibrio tra innovazione tecnologica e conformità alle normative, creando un ambiente di governance che possa rispondere alle crescenti preoccupazioni di tutti i portatori di interesse, tra cui dipendenti, consumatori, investitori e regolatori.
Un altro aspetto critico che emerge riguarda la compliance legale e l'approccio etico da parte delle aziende. Con l'avvento dell'AI generativa, i consigli di amministrazione e i team esecutivi dovranno ripensare i loro programmi di compliance e etica, adattandoli alle nuove sfide imposte dall'intelligenza artificiale. La creazione di un programma di compliance "a 360 gradi", che tenga conto dei rischi legati all'AI, sarà essenziale per proteggere le aziende dalle implicazioni legali, reputazionali ed etiche. Gli investitori, a loro volta, eserciteranno una pressione crescente affinché le aziende adottino misure rigorose e responsabili nell'uso dell'AI.
In questo contesto, l'AI sta trovando applicazione anche nel settore della due diligence legale, in particolare in ambiti come i diritti umani, la schiavitù moderna e la sostenibilità delle catene di approvvigionamento. Le aziende multinazionali, infatti, stanno sempre più utilizzando l'AI per gestire la compliance alle normative globali riguardanti i diritti umani e le pratiche di approvvigionamento responsabile, come la legge britannica sulla schiavitù moderna (Modern Slavery Act 2015) o la direttiva europea sulla due diligence delle catene di approvvigionamento. L'uso dell'AI in questi ambiti permette alle aziende di monitorare più efficacemente i rischi e di garantire che le loro pratiche siano conformi alle leggi in continua evoluzione.
Nel frattempo, le aziende che operano in settori ad alta regolamentazione, come quelli della sostenibilità e dell'ESG (Environmental, Social, and Governance), stanno vedendo una crescita nell'uso dell'AI per migliorare le proprie credenziali etiche. Gli investitori, in particolare quelli istituzionali, stanno richiedendo sempre più che le aziende non solo integrino l'AI nella loro strategia, ma che la facciano in modo trasparente e responsabile, allineandosi con gli standard globali di sostenibilità. L'adozione dell'AI per monitorare la governance aziendale e garantire la conformità alle normative è diventata un aspetto essenziale per migliorare la posizione competitiva delle imprese e proteggere i loro investimenti.
Oltre agli aspetti di governance e compliance, le normative internazionali, come quelle imposte dall'UE e dai singoli Stati, stanno rapidamente adattando le proprie leggi per affrontare le sfide poste dall'AI. La crescente pressione normativa porterà inevitabilmente a un cambiamento significativo nel modo in cui le aziende affrontano l'adozione dell'AI, tanto nelle operazioni quotidiane quanto nella gestione delle relazioni con i vari stakeholders. Le aziende che non riusciranno ad adattarsi a queste nuove aspettative potrebbero affrontare rischi reputazionali, legali ed economici significativi.
È evidente che l'AI generativa avrà un impatto duraturo sulla governance aziendale, e le aziende che riusciranno a integrare correttamente l'AI nel loro sistema di governance e compliance saranno quelle che meglio si adatteranno ai cambiamenti imminenti. L'intelligenza artificiale non è più solo uno strumento tecnologico, ma un fattore cruciale per il successo aziendale, che richiede un impegno etico e una supervisione continua da parte di tutte le parti coinvolte, dai dirigenti aziendali agli investitori, fino alle autorità regolatorie globali.
Generative AI: Danni, Discriminazione e Impatti Sociali
L'intelligenza artificiale generativa (AI generativa) ha il potenziale di trasformare numerosi settori, dall'arte alla medicina, passando per la giustizia. Tuttavia, il suo impatto non è privo di rischi. Le implicazioni etiche e sociali derivanti dall'uso di tali tecnologie stanno attirando sempre più l'attenzione dei ricercatori e dei legislatori. In particolare, i danni che possono derivare dall'uso di AI generativa sono molteplici e non sempre facili da misurare, ma la loro portata potrebbe rivelarsi devastante, non solo per gli individui direttamente coinvolti, ma anche per l'intero tessuto sociale.
Uno dei principali rischi riguarda la discriminazione, un danno che può manifestarsi in molteplici forme: dalla discriminazione diretta alle opportunità negate, passando per la stigmatizzazione sociale. Poiché i modelli di AI generativa si basano sull'elaborazione di enormi quantità di dati, è evidente che l'AI potrebbe perpetuare pregiudizi già esistenti nella società, amplificando le disuguaglianze e rafforzando le vulnerabilità. L'uso di dati personali, che spesso provengono da fonti non sempre verificate o accurate, rischia di creare rappresentazioni distorte delle categorie vulnerabili, ingabbiandole in modelli che non si evolvono né migliorano nel tempo.
Tuttavia, non è solo la discriminazione che rappresenta un pericolo. Un altro aspetto problematico legato all'AI generativa è la sua opacità. L'assenza di trasparenza nell'uso degli algoritmi, combinata con la mancanza di condivisione dei codici sorgente da parte dei ricercatori, contribuisce ad alimentare una cultura della segretezza che mina la fiducia del pubblico e la capacità di monitorare e correggere eventuali errori o abusi. Secondo alcune ricerche, meno del 10% dei ricercatori condivide i propri codici, un dato che evidenzia le difficoltà nel garantire una vera collaborazione nel campo della ricerca AI.
Il rischio di un dominio centralizzato del potere economico e tecnologico è altrettanto rilevante. Le grandi aziende tecnologiche che controllano lo sviluppo dell'AI potrebbero trarre vantaggio dall'accumulo di enormi quantità di dati e risorse, escludendo le piccole imprese e limitando l'accesso alle innovazioni per una parte significativa della popolazione mondiale. Questa concentrazione di potere potrebbe anche portare alla creazione di una "AI capitalista", che privilegia l'efficienza e i profitti a scapito della protezione dei diritti individuali e collettivi.
A questi problemi si aggiungono i rischi legati alla scarsa attenzione etica nell'applicazione dell'AI, specialmente in contesti delicati come la giustizia penale e la psichiatria forense. L'uso di AI per la valutazione dei rischi e la raccomandazione delle sentenze rischia di riprodurre e amplificare i pregiudizi, discriminando in modo sproporzionato le persone provenienti da gruppi storicamente emarginati. In queste situazioni, l'intelligenza artificiale non solo non risolve il problema della discriminazione, ma rischia di esacerbarlo, alimentando ulteriormente lo stigma sociale che queste persone già affrontano.
Inoltre, il cosiddetto "tecnosoluzionismo", un approccio che vede nella tecnologia una risposta a tutti i problemi, rischia di escludere la dimensione umana e sociale delle sfide. La visione di un futuro scientifico totalmente automatizzato, come suggerito da alcune dichiarazioni, non tiene conto della complessità epistemologica della scienza stessa. La conoscenza non è solo una questione di correlazioni o verità numeriche, ma richiede comprensione e spiegazioni che vanno al di là di ciò che un algoritmo è in grado di offrire.
La presenza di pregiudizi nei dati non è solo una questione di equità; è una questione di verità e di fiducia. In molti settori, tra cui quello della salute, della giustizia e dell'educazione, la fiducia è essenziale per garantire che le decisioni prese da sistemi AI siano giuste e basate su una comprensione completa della situazione. La mancanza di fiducia nelle tecnologie emergenti potrebbe, quindi, minare la stessa utilità dell'AI, se non addirittura danneggiare la società nel suo insieme.
La diffusione di politiche aziendali che consentono l'uso dei dati personali per allenare i modelli di AI senza un consenso esplicito e informato da parte degli utenti è un altro punto cruciale. Le modifiche retroattive alle politiche sulla privacy, che rendono opaco l'uso dei dati da parte delle imprese, potrebbero essere considerate ingannevoli e dannose, creando un clima di sfiducia tra i consumatori. Le agenzie di protezione dei consumatori, come la Federal Trade Commission negli Stati Uniti, hanno già messo in guardia contro queste pratiche, sottolineando il rischio di ingannare i consumatori e di violare i loro diritti fondamentali.
In sintesi, l'AI generativa offre opportunità straordinarie, ma anche pericoli significativi. È essenziale comprendere che, mentre la tecnologia può sembrare una panacea per i problemi complessi, essa porta con sé una serie di problematiche che necessitano di un attento monitoraggio, regolazione e consapevolezza sociale. La sfida è quella di bilanciare il progresso tecnologico con la protezione dei diritti umani, promuovendo un uso etico e trasparente dell'AI che tenga conto delle diversità culturali, sociali e individuali, evitando che la tecnologia diventi uno strumento di esclusione o di abuso.
Perché il Mercato dell'Arte È Afflitto dal Problema dei "Limoni"
Nel mercato delle auto usate, i venditori sanno se il veicolo che stanno vendendo è un "limone" (un prodotto difettoso) o meno, mentre gli acquirenti no. Questa asimmetria informativa spinge i venditori disonesti a vendere un limone al prezzo di una "pesca" (un prodotto di qualità). Gli acquirenti, a loro volta, valutano l'auto in base alla probabilità media che sia una pesca, adattando la loro disponibilità a pagare di conseguenza. Di conseguenza, l'equilibrio del prezzo di mercato sarà sistematicamente inferiore al valore di una pesca, ma superiore a quello di un limone. Questo è l’esempio perfetto di inefficienza di mercato: l’asimmetria informativa costringe gli acquirenti a allocare in modo inefficace le proprie risorse, creando una disfunzione sistemica che danneggia sia il benessere degli acquirenti sia quello degli altri venditori. In un tale scenario, il comportamento razionale dei venditori di pesche sarebbe quello di lasciare il mercato o, alternativamente, abbassare volontariamente la qualità dei loro prodotti.
L’aspetto più critico, tuttavia, è che man mano che i venditori di pesche lasciano il mercato, aumenta la probabilità di vendere un limone al prezzo di una pesca, riducendo ulteriormente l’equilibrio del prezzo di mercato. Questo porta i venditori di prodotti di qualità media a ritirarsi, incrementando ulteriormente il rischio di transazioni disoneste e abbassando il prezzo di mercato, fino al punto in cui il mercato potrebbe collassare. La costante diminuzione della qualità dei prodotti e dei prezzi implica che, alla fine, l’unico prezzo di equilibrio di mercato sia nullo, e quindi che non avvenga alcuna transazione.
Il problema dei limoni non riguarda soltanto il mercato delle auto usate, ma si applica anche al mercato dell'arte. L'identificazione di "pesche" e "limoni" nell'arte è un compito complesso. L'arte è il classico esempio di un mercato dove la qualità è multidimensionale, incommensurabile e irriducibilmente soggettiva. Per questo motivo, alcune persone sono disposte a pagare cifre astronomiche per un’acquerello che sembra essere stato dipinto da Jackson Pollock, mentre opere esteticamente più gradevoli possono essere vendute a prezzi molto inferiori. In questo capitolo, si deve tracciare una linea tra il valore estetico e il valore di mercato di un'opera d'arte. Questa distinzione non è estranea al mercato dell'arte: il prezzo reagisce negativamente quando un’opera viene scoperta come falsa o contraffatta. Un esempio clamoroso è il Salvator Mundi di Leonardo da Vinci.
Negli anni '50, l'opera fu venduta come una copia, realizzata da uno degli allievi di Leonardo, per circa 60 dollari (l’equivalente di circa 755 dollari odierni). Dopo essere stata autenticata come opera genuina di Leonardo, fu venduta all'asta nel 2017 per 450 milioni di dollari (più di 550 milioni oggi). Tuttavia, gli esperti hanno sollevato dubbi in seguito, e il dipinto non è più stato esposto da allora. L’autenticazione non ha cambiato il valore estetico del Salvator Mundi, ma ha moltiplicato il suo valore di mercato di oltre 700.000 volte, prima che sparisse dalle pareti del museo. Questo è il cuore del problema: una volta che una falsificazione viene scoperta, l’opera diventa un "doppione mostruoso", ma ciò non implica una diminuzione del suo valore estetico: è solo il mercato che deprezza l’opera.
In effetti, il valore estetico non è il fattore principale del valore di mercato dell'arte; ciò che determina il valore di mercato è l’autenticazione. La ragione principale per acquistare un'opera d'arte oggi è il suo potenziale di rivendita, e l’autenticazione garantisce un ritorno adeguato sugli investimenti. Questo spiega perché il mercato dell'arte non è collassato nonostante l'asimmetria informativa. Gli acquirenti continuano a comprare arte in massa, mentre i galleristi e i collezionisti difendono strenuamente i metodi tradizionali di compravendita. Nonostante tutto, l’asimmetria informativa ha creato una distorsione sociale, che favorisce i pochi che sanno distinguere l'originale dalla copia.
Ciò che accade nel mercato dell’arte, tuttavia, ha implicazioni ancora più ampie per l’economia e la cultura. Se, da un lato, l'asimmetria informativa rende il mercato dell'arte meno trasparente, dall'altro crea un ambiente in cui le transazioni non sono sempre basate su criteri estetici, ma piuttosto sull'autenticità e sulla provenienza. Per l’acquirente, quindi, il rischio di investire in un’opera falsa è una considerazione primaria. Allo stesso modo, i venditori consapevoli della falsità di un’opera o quelli che non possono garantire la sua provenienza si trovano a dover ridurre il prezzo per attirare acquirenti, mentre gli acquirenti, dal canto loro, sono costretti a trattare su un mercato dove non possono essere certi della qualità dell'opera che stanno acquistando.
Per quanto questa asimmetria possa sembrare un problema isolato per il mercato dell'arte, è fondamentale comprendere che questa distorsione non è limitata solo a questo campo. Le dinamiche simili si verificano in altre aree dove la qualità di un prodotto è difficile da verificare, o dove la trasparenza delle informazioni non è garantita. Nel caso delle opere d'arte, tuttavia, l’asimmetria informativa assume una forma ancora più complessa, in quanto si intreccia con aspetti legati alla cultura, alla percezione del valore e all’influenza dei media.
Quali sono le malattie dermatologiche più comuni nei disturbi cutanei legati a mutazioni genetiche e infezioni?
Come è scomparsa Arietta? Un mistero nelle caverne di Pike's Peak
Computazione degli Autovalori per Sistemi a Grandi Dimensioni con Ritardi Temporali

Deutsch
Francais
Nederlands
Svenska
Norsk
Dansk
Suomi
Espanol
Italiano
Portugues
Magyar
Polski
Cestina
Русский