Nel contesto della governance aziendale, uno degli aspetti fondamentali da considerare è come i consigli di amministrazione affrontano i rischi emergenti, inclusi quelli legati all'intelligenza artificiale (IA). Un esempio significativo di questo approccio è rappresentato dal Codice di Governance Aziendale del Regno Unito del 2024, che stabilisce il principio che il consiglio di amministrazione deve «stabilire e mantenere un sistema di gestione dei rischi e di controllo interno efficace, determinando la natura e l'entità dei rischi principali che l'azienda è disposta ad assumersi per raggiungere i suoi obiettivi strategici a lungo termine». È inoltre previsto che il consiglio esegua una valutazione approfondita dei rischi emergenti, confermando, nel rapporto annuale, che tale valutazione sia stata completata, descrivendo i principali rischi e spiegando come questi siano gestiti o mitigati.
Queste indicazioni si intrecciano significativamente con l'adozione e l'applicazione dell'AI Act dell'Unione Europea, in particolare con i requisiti relativi ai sistemi di gestione della qualità per i fornitori di AI ad alto rischio. Tali requisiti comprendono la necessità di documentare sistematicamente e in modo ordinato tutte le fasi del processo, comprese le politiche scritte, le procedure, le istruzioni, nonché i test e gli audit sull'uso dell'IA. Questo panorama normativo, in evoluzione, avrà un impatto diretto sulla strutturazione e la gestione quotidiana delle imprese, imponendo un monitoraggio più rigoroso e focalizzato sull'intelligenza artificiale e altre tecnologie avanzate.
Tuttavia, la gestione dei rischi aziendali legati all'IA non si limita all'adozione di nuove normative, ma richiede anche un approccio più ampio e multilivello, che si estenda al piano internazionale. In questa prospettiva, potrebbero essere utili trattati internazionali di alto livello, come quelli per la lotta contro la corruzione, al fine di creare un ecosistema di governance robusto, in grado di far fronte alle sfide poste dall'IA. A livello nazionale, potrebbero essere necessari nuovi strumenti legislativi specifici per regolare l'attenzione e la responsabilità della direzione aziendale nei confronti dei rischi legati all'uso dell'IA, garantendo che le procedure siano in linea con le migliori pratiche internazionali, ma anche con le esigenze specifiche dell'industria.
Un ulteriore punto critico riguarda l’adozione di leggi nazionali che contemplino una responsabilità aziendale per «fallimento nel prevenire» l'abuso dell'IA, simile a quanto previsto dalla Legge britannica sulla Corruzione del 2010. Tale approccio può incentivare le imprese a implementare politiche rigorose, evitando rischi legati all'intelligenza artificiale che potrebbero danneggiare la loro reputazione o comprometterne la stabilità operativa. Una difesa valida, in questo caso, sarebbe quella di adottare «procedure adeguate», in linea con le pratiche di governance aziendale riconosciute a livello globale.
In ambito statunitense, il diritto societario del Delaware e i cosiddetti casi "Caremark" giocano un ruolo cruciale nella gestione dei rischi. Secondo la giurisprudenza del Delaware, i direttori di un'azienda sono considerati inadempienti rispetto al loro dovere fiduciario se non implementano adeguati sistemi di controllo o non monitorano correttamente le operazioni aziendali. I casi più recenti, come quello di Boeing del 2021, dove il fallimento della supervisione sui rischi legati ai velivoli MAX 737 ha portato a gravi incidenti, dimostrano l'importanza di una governance solida, soprattutto quando si tratta di rischi critici per l'azienda. Questo stesso principio potrebbe essere applicato alle problematiche derivanti dall'uso irresponsabile dell'IA nelle operazioni aziendali.
Infine, è importante considerare che l’evoluzione della normativa e della governance aziendale in relazione all’IA non riguarda solo le grandi multinazionali, ma anche le piccole e medie imprese, che devono essere pronte a implementare strategie di gestione dei rischi e compliance. L’adozione di buone pratiche di governance e la creazione di politiche di prevenzione adeguate, in accordo con le normative locali e internazionali, sono essenziali per evitare che le imprese siano esposte a rischi non gestiti e per proteggere i propri stakeholder.
Come Gestire la Responsabilità e la Regolamentazione dei Modelli AI Generativi nell'Unione Europea
Il rapido sviluppo dell'intelligenza artificiale generativa ha profondamente influenzato il processo normativo dell'Unione Europea, mettendo in luce la necessità di adattare concetti giuridici e regolatori esistenti. La creazione e l'implementazione di leggi come il "AI Act", il "draft AILD" e il "revPLD" sono state inizialmente concepite per affrontare le caratteristiche peculiari dei sistemi di AI, ma l'emergere dei modelli generativi ha introdotto nuove sfide. Questi modelli, caratterizzati da un elevato grado di versatilità e dalla capacità di eseguire compiti non previsti, pongono interrogativi sulle modalità di regolamentazione della responsabilità in contesti legali complessi.
Nonostante il "AI Act" non ignori né trascuri completamente l'AI generativa, le sue caratteristiche funzionali differenziali hanno fatto emergere alcune incongruenze rispetto agli assunti normativi previsti. Il legislatore ha cercato di affrontare la questione dividendo i modelli AI in due categorie: "AI systems" e "general-purpose AI models". Questa separazione comporta un cambiamento significativo nelle regole di responsabilità applicabili, con un inquadramento giuridico differenziato che, pur cercando di rispondere alle specifiche necessità dei sistemi generativi, può portare a nuove problematiche interpretative.
La biforcazione tra "AI systems" e "general-purpose AI models" non è solo una questione terminologica ma una vera e propria decisione politica che influenza direttamente il regime giuridico applicabile e le regole di responsabilità. Mentre i "general-purpose AI models" sono considerati modelli fondamentali per la catena di fornitura dell'AI, la loro versatilità comporta anche un aumento esponenziale dei rischi legali associati. Da un lato, queste piattaforme offrono potenzialità straordinarie; dall'altro, amplificano la possibilità di errori e violazioni lungo l'intera catena di distribuzione dell'AI. L'affermazione che tali modelli possano rappresentare simultaneamente "punti di rinforzo" e "punti di fallimento" è emblematica della loro capacità di influire, in modo sia positivo che negativo, su una vasta gamma di applicazioni.
L'espansione dell'Intelligenza Artificiale Generativa e la sua Governance: Tra Potenziale e Rischi
L'adozione dell'Intelligenza Artificiale Generativa (GenAI) ha segnato una delle trasformazioni tecnologiche più significative degli ultimi anni. Tra il 2020 e la metà del 2023, gli investimenti in venture capital nel settore GenAI sono aumentati vertiginosamente del 425%, un chiaro segno della fiducia del mercato nel potenziale trasformativo di questa tecnologia. GenAI ha già iniziato a integrarsi rapidamente in settori diversi come la medicina, la finanza e il trasporto, ma la sua applicazione globale e i confini della sua completa integrazione restano ancora incerti.
Questa democratizzazione dei benefici della GenAI ha portato con sé nuove sfide. L’accessibilità che ha permesso a tanti di sfruttare le potenzialità della tecnologia ha allo stesso tempo ampliato il pubblico a cui sono legati i rischi. Tra questi, si evidenziano le preoccupazioni legate alla privacy dei dati, la possibilità di risultati distorti derivanti da tendenze discriminatorie nei dati di addestramento, la violazione dei diritti di proprietà intellettuale, e l'uso improprio della tecnologia sia da parte di attori privati che pubblici. Inoltre, l’emergere di contenuti manipolati solleva preoccupazioni etiche e democratiche che potrebbero compromettere la fiducia nella tecnologia stessa.
La rapida diffusione e l’impatto di GenAI in vari settori sollevano questioni urgenti sulla regolamentazione, che richiedono un coinvolgimento attivo di molteplici parti interessate: legislatori, leader industriali e la società civile. La necessità di un quadro normativo chiaro è diventata imperativa, e la governance dell'AI si trova ora al centro di un dibattito globale, che cerca di trovare un equilibrio tra l'innovazione tecnologica e la protezione dei valori fondamentali.
La governance dell’Intelligenza Artificiale ha avuto un'evoluzione interessante sin dai primi successi del deep learning nel corso degli anni 2010. La rapida adozione dell'AI in vari settori ha evidenziato i rischi associati: dagli incidenti mortali causati dai veicoli autonomi fino a pratiche discriminatorie nelle assunzioni, la crescente consapevolezza dei rischi ha portato a un'accelerazione delle iniziative politiche e delle pubblicazioni sui principi dell’AI. In questo periodo, i governi nazionali, le organizzazioni internazionali, le aziende tecnologiche e le organizzazioni non governative hanno preso posizione con pubblicazioni fondamentali per guidare lo sviluppo responsabile dell'AI. Tra gli esempi più rilevanti troviamo le "Ethics Guidelines for Trustworthy AI" pubblicate dall'Unione Europea nel 2019, le raccomandazioni sull'intelligenza artificiale dell'OECD e la "Recommendation on the Ethics of Artificial Intelligence" dell’UNESCO nel 2021. Questi documenti pongono l'accento sull'importanza di allineare lo sviluppo dell'AI ai valori fondamentali come i diritti umani, la democrazia e la sostenibilità, ma la vera sfida sta nel tradurre questi principi astratti in standard concreti per i sistemi di intelligenza artificiale.
Nonostante l’importanza di questi principi, la loro applicazione pratica rimane una questione aperta. Le linee guida e le raccomandazioni a livello globale non sono giuridicamente vincolanti e, pertanto, si configurano come esempi di “soft law”. Sebbene l'adesione a tali principi possa aiutare le aziende a sviluppare strategie di gestione del rischio e misure di responsabilità, la loro mancanza di obbligatorietà non garantisce che vengano rispettati in modo uniforme. In questo contesto, per fare progressi significativi verso una governance più solida dell'AI, è necessario compiere passi concreti per affrontare i rischi associati ai sistemi di AI che comportano alti rischi. L’impegno di vari organismi internazionali e non governativi, come l’ISO con lo standard per il sistema di gestione dell’AI pubblicato nel 2023, nonché l’approccio del Turing Institute con l’HUDERAF, mira a colmare questo vuoto normativo.
Un aspetto cruciale, che emerge da queste iniziative, è che non tutte le applicazioni di GenAI sono ugualmente rischiose. Sebbene alcuni ambiti, come la medicina o la sicurezza pubblica, possano trarre enormi benefici da questa tecnologia, altri settori, come la manipolazione dei mercati finanziari o la diffusione di disinformazione, sollevano preoccupazioni morali e legali. La regolamentazione deve quindi essere capace di differenziare tra i vari tipi di applicazione, e questa distinzione richiede un monitoraggio costante e l'adattamento delle normative in base all'evoluzione della tecnologia stessa.
Infine, la governance dell'AI richiede una cooperazione globale. I rischi e i benefici di questa tecnologia non conoscono confini nazionali, e la sua influenza è tale da richiedere una risposta unificata. Ciò implica che ogni governo, azienda, e cittadino abbia un ruolo da giocare nella creazione di un ecosistema di intelligenza artificiale che non solo promuova l'innovazione, ma tuteli anche i diritti e la sicurezza collettiva. Questo processo richiederà tempo, ma è essenziale se si vuole che l'AI sia una forza positiva per il progresso e non un elemento di destabilizzazione.

Deutsch
Francais
Nederlands
Svenska
Norsk
Dansk
Suomi
Espanol
Italiano
Portugues
Magyar
Polski
Cestina
Русский