L'intelligenza artificiale (IA) rappresenta un'enorme opportunità, ma anche una crescente fonte di rischio per le aziende che la integrano nelle proprie operazioni. Con l'espansione dell'uso di sistemi autonomi e generativi, cresce anche la possibilità che questi sistemi possano causare danni significativi, fisici, finanziari, morali o reputazionali, sia a livello aziendale che verso terzi. Tali danni possono derivare da malfunzionamenti, difetti nel design o comportamenti imprevisti da parte di IA autonome. L'eventualità che un sistema IA possa compiere azioni illegali, inappropriati o dannose in modo indipendente, senza il controllo umano, è un rischio concreto e crescente, soprattutto man mano che ci avviciniamo al concetto di intelligenza artificiale generale (AGI).

Le aziende, a seconda del settore in cui operano, devono affrontare una vasta gamma di rischi legali e reputazionali. Questi rischi non si limitano solo ai difetti nella progettazione dei sistemi, ma includono anche la possibilità che l'IA venga utilizzata in modo malevolo o per commettere attività illegali come attacchi informatici, diffusione di disinformazione o spionaggio industriale. La capacità di previsione e gestione di questi rischi è cruciale, non solo per proteggere la reputazione dell'azienda, ma anche per evitare gravose sanzioni legali e danni a lungo termine. In questo contesto, l'integrazione di sistemi di IA richiede un'attenta valutazione dei rischi e l'adozione di misure preventive.

Le implicazioni legali di tali danni possono variare significativamente a seconda delle giurisdizioni. In paesi come gli Stati Uniti, la legislazione in materia di responsabilità aziendale è particolarmente severa. Ad esempio, il principio della "respondeat superior" implica che le aziende possano essere ritenute responsabili per le azioni dei loro dipendenti o agenti, inclusi i danni causati da IA. In Europa, le normative stanno evolvendo rapidamente per affrontare questi nuovi rischi. La proposta di una direttiva sulla responsabilità civile non contrattuale legata all'IA, che mira a semplificare e modernizzare le regole di responsabilità, potrebbe avere un impatto significativo sulle aziende che utilizzano IA. La presunzione di causalità per i danni causati da IA e la possibilità per i tribunali di ordinare la divulgazione di prove sono solo alcune delle misure che potrebbero modificare il panorama legale per le imprese.

Le responsabilità non si limitano solo alle aziende, ma anche ai singoli membri del top management, che potrebbero essere chiamati a rispondere per danni causati da sistemi IA mal progettati o gestiti in modo negligente. In paesi come il Regno Unito, ad esempio, la legge sulla "Corporate Manslaughter" potrebbe essere utilizzata contro le aziende per danni causati da IA, come nel caso di morti o gravi infortuni. La responsabilità penale dei dirigenti aziendali, quindi, non può essere ignorata, e l'adozione di politiche di governance solide diventa essenziale.

In risposta a questi rischi, le assicurazioni aziendali stanno assumendo un ruolo sempre più centrale. Le compagnie di assicurazione potrebbero essere determinanti nel gestire i rischi associati all'IA, offrendo soluzioni che permettano alle aziende di coprire potenziali danni derivanti da eventi imprevisti o catastrofici. Tuttavia, è essenziale che le polizze siano adeguate a coprire danni su larga scala causati da eventi legati all'IA, come incidenti massivi o danni reputazionali estesi. Gli assicuratori, infatti, potrebbero anche fungere da strumento di controllo, influenzando le politiche aziendali per garantire che le aziende non solo rispettino le normative, ma integrino l'IA in modo sicuro e sostenibile.

A fronte di questi sviluppi, le aziende devono sviluppare sistemi di governance che affrontino i rischi legati all'intelligenza artificiale in maniera olistica. La prevenzione dei danni, attraverso il miglioramento continuo dei sistemi IA e l'adozione di tecniche di monitoraggio avanzato, diventa un aspetto cruciale. Ma anche la gestione ex post, ossia la capacità di rispondere adeguatamente ai danni causati, è altrettanto importante. I quadri normativi in evoluzione, le nuove direttive europee e le crescenti aspettative legali mettono in evidenza come la governance dell'IA debba essere affrontata come una questione strategica centrale per ogni azienda.

L'approccio alla gestione dei rischi legati all'IA, quindi, deve essere preventivo e proattivo. Non basta rispondere agli incidenti; bisogna anticiparli, comprendendo appieno le implicazioni legali, reputazionali e finanziarie derivanti dall'uso di queste tecnologie. L'integrazione dell'IA nelle operazioni aziendali non può essere vista come un processo senza rischi. Ogni azienda deve essere consapevole del fatto che, se non vengono adottate misure adeguate, le conseguenze potrebbero essere devastanti, non solo per la propria operatività, ma anche per l'intero settore in cui opera.

Qual è il ruolo dell'IA generativa nell'amministrazione pubblica e le sue implicazioni legali?

L'uso dell'intelligenza artificiale generativa all'interno delle amministrazioni pubbliche sta rapidamente evolvendo, trasformando le modalità di esecuzione di molteplici compiti amministrativi. Questi strumenti tecnologici, pur non essendo vincolanti nei confronti di soggetti esterni all'amministrazione, svolgono un ruolo fondamentale nell'ottimizzazione delle attività che vanno dalla pianificazione e formulazione di politiche, alla preparazione di documenti ufficiali e risposte a richieste da parte dei cittadini. Tuttavia, la diffusione di tali tecnologie solleva interrogativi cruciali riguardo alla legittimità e alle implicazioni etiche e legali del loro impiego.

Gli atti amministrativi che vengono influenzati dall'intelligenza artificiale generativa sono principalmente di natura non vincolante, come ad esempio le informazioni fornite ai cittadini, le linee guida, le politiche interne o i piani strategici. Sebbene queste azioni non abbiano un effetto diretto sui diritti di terzi, e quindi non siano soggette a revisione giuridica, il loro impatto interno può essere significativo, regolando il funzionamento degli uffici pubblici e la gestione delle risorse umane. Il sistema giuridico amministrativo non ha ancora delineato una risposta definitiva su come trattare questi strumenti quando entrano in gioco diritti umani o vengono adottati per scopi che richiedono una base legale più solida.

Per esempio, l'uso di IA generativa nelle amministrazioni pubbliche ha già portato alla creazione di strumenti innovativi destinati sia al supporto interno che al servizio dei cittadini. Stati come la California hanno avviato progetti in cui l'IA è chiamata a risolvere problematiche legate al traffico e alla sicurezza stradale, mentre altre nazioni, come la Spagna e la Danimarca, stanno esplorando il suo utilizzo per promuovere e preservare lingue regionali minoritarie. L'Unione Europea, dal canto suo, ha sviluppato soluzioni come "etranslation", uno strumento volto a migliorare la traduzione automatica di documenti, e sta anche sperimentando l'uso di IA per ottimizzare la gestione dei reclami e la preparazione di documenti legali.

L’impiego dell’intelligenza artificiale generativa nelle amministrazioni non si limita solo ad attività interne. Infatti, progetti come eSummary e eBriefing, sviluppati dalla Direzione Generale Traduzione della Commissione Europea, mostrano come l'IA possa essere utilizzata per supportare la redazione di riassunti e briefing in maniera automatizzata. Questi strumenti non solo riducono il carico di lavoro manuale, ma accelerano anche i tempi di risposta e migliorano la qualità delle informazioni fornite. Altri esempi, come i chatbot Albert in Francia e Sigma in Portogallo, evidenziano come l'IA generativa possa anche servire come punto di contatto tra amministrazioni e cittadini, fornendo risposte rapide a domande frequenti o gestendo richieste di informazioni.

Tuttavia, mentre questi sviluppi promettono significativi vantaggi in termini di efficienza e modernizzazione, sorgono anche delle preoccupazioni. Il primo scenario prevede l’utilizzo di sistemi di IA pubblici, accessibili a chiunque, come nel caso di ChatGPT o Bard. Questi strumenti sono generalmente privi di personalizzazione, il che li rende meno adatti a compiti altamente specializzati. Il secondo scenario riguarda l'acquisto di soluzioni IA personalizzate da fornitori privati, come nel caso del Dipartimento della Difesa degli Stati Uniti, che ha testato un sistema IA per accelerare la scrittura di contratti pubblici. Infine, il terzo scenario, quello più ambizioso, prevede lo sviluppo di sistemi IA completamente interni, come nel caso delle soluzioni sviluppate dalla Commissione Europea, che richiede investimenti significativi in risorse umane, economiche e tecniche.

L'adozione di IA generativa nelle amministrazioni implica quindi anche una riflessione sul bilanciamento tra il contributo dell'esperto umano e l'efficienza tecnologica. L'uso di queste tecnologie deve essere attentamente monitorato per evitare che la loro applicazione non diventi un meccanismo di decisione automatica che riduce la responsabilità e la trasparenza. L'integrazione di IA nei processi amministrativi potrebbe infatti minare i principi fondamentali del diritto amministrativo, che si fondano sulla legittimità, l'imparzialità e il rispetto dei diritti dei cittadini. In ogni caso, quando l'intelligenza artificiale entra in gioco in ambiti che coinvolgono diritti umani o limitano libertà individuali, è necessario che esista una solida base giuridica che legittimi tale utilizzo, così da garantire che l’uso della tecnologia non violi principi fondamentali del diritto amministrativo.

La dimensione etica dell'IA generativa nelle amministrazioni pubbliche non può essere sottovalutata. La trasparenza nei processi decisionali, la responsabilità e la protezione dei diritti fondamentali devono essere sempre al centro di ogni progetto di digitalizzazione. Le decisioni che riguardano l'uso della tecnologia devono essere guidate da una visione che considera le implicazioni legali ed etiche, così come le necessità pratiche di efficientamento dei servizi pubblici.

Come Singapore Sta Sviluppando un Approccio alla Governance dell'Intelligenza Artificiale: Un Modello Quasi-Regolatorio

La regolamentazione dell'Intelligenza Artificiale (IA) è una sfida complessa e multidimensionale. Come osservato da Jerrold Soh e dai suoi colleghi, la regolamentazione dell'IA può assumere diverse forme, e le categorie non sono rigidamente definite, ma mostrano una certa ibridazione nei modelli adottati a livello internazionale. Sebbene non esista una definizione univoca dell'IA, il dibattito si concentra sulla necessità di una regolamentazione che possa affrontare tanto le sfide tecnologiche quanto quelle etiche in un contesto in rapida evoluzione.

Singapore ha scelto di adottare un approccio "quasi-regolatorio" nell'ambito della governance dell'IA, caratterizzato da un mix di regolazione informale, chiamato soft law, e politiche di supporto all'innovazione. Questo approccio si distingue per l'uso di linee guida volontarie e strumenti di autocontrollo piuttosto che normative obbligatorie. Il termine soft law descrive le disposizioni che, pur non essendo legalmente vincolanti, cercano di influenzare il comportamento delle aziende. Queste disposizioni possono assumere la forma di linee guida, manuali operativi, direttive o codici di condotta, e sono destinate a indirizzare le organizzazioni verso pratiche responsabili nella progettazione e nell'uso dell'IA.

Un esempio di tale approccio è il Model Framework sviluppato dal Infocomm Media Development Authority (IMDA), che fornisce un set di principi etici e linee guida pratiche per le organizzazioni che implementano l'IA. Lanciato nel 2019 e aggiornato nel 2020, questo framework si è distinto per essere uno dei primi in Asia a fornire orientamenti pratici per affrontare le sfide etiche e di governance legate all'IA. La sua natura volontaria riflette la volontà di Singapore di stimolare l'innovazione senza soffocarla con una regolamentazione eccessivamente rigida.

Il Model Framework si basa su due principi etici fondamentali: l'IA utilizzata nei processi decisionali deve essere trasparente, spiegabile e giusta, mentre le soluzioni di IA devono dare priorità ai valori "umanocentrici". Questi principi sono poi tradotti in passaggi concreti che permettono alle organizzazioni di affrontare la sfida di implementare concetti astratti come la giustizia e la trasparenza in un contesto tecnologico. La natura evolutiva di questo framework, descritta come un "documento vivente", consente di adattarsi ai rapidi cambiamenti del panorama tecnologico, incorporando feedback dell'industria e modifiche per migliorare l'operatività e la rilevanza del documento.

Singapore non sta cercando di creare una regolamentazione severa o immediata sull'IA. Al contrario, si concentra sull'apprendimento dalle esperienze industriali per determinare eventuali regolamentazioni future. Questo approccio collaborativo implica una stretta collaborazione tra il governo, le aziende, le università e altre organizzazioni, creando una rete che consente di anticipare i potenziali rischi dell'IA e di sviluppare soluzioni congiunte. La strategia di governance riflette un equilibrio tra la spinta all'innovazione e la protezione degli interessi dei consumatori, con un approccio più "leggero" alla regolazione, che evita di ostacolare il progresso tecnologico.

Il governo di Singapore ha anche investito significativamente in tecnologia, sostenendo l'innovazione e la ricerca tramite le università e altre istituzioni accademiche. Questo tipo di investimento pubblico si affianca alla promozione di una regolamentazione che supporti lo sviluppo del settore tecnologico, evitando al contempo di gravare le aziende con normative troppo stringenti. In questo contesto, la governance dell'IA a Singapore si distingue per un equilibrio tra il supporto all'industria e la gestione dei rischi, con l'obiettivo di garantire un futuro tecnologico più sicuro e responsabile.

Il Model Framework rappresenta un tentativo di fornire una guida pratica per le organizzazioni, ma non è l'unico strumento sviluppato dal governo di Singapore. Il governo ha collaborato con altre agenzie e organizzazioni internazionali per raccogliere informazioni, monitorare i casi d'uso dell'IA e comprendere le sfide emergenti. A differenza di approcci più rigorosi, Singapore ha scelto di rimanere aperto e ricettivo alle evoluzioni rapide dell'IA, cercando soluzioni regolamentari più agili e meno intrusive.

Tuttavia, oltre alla necessità di adattare la regolamentazione alle innovazioni rapide, è fondamentale che le aziende considerino non solo gli aspetti tecnologici, ma anche quelli etici e sociali. La regolamentazione quasi-formale come quella del Model Framework solleva importanti questioni sulla responsabilità e sull'integrità dell'uso dell'IA. Le aziende devono essere consapevoli che, sebbene non siano obbligate a seguire scrupolosamente le linee guida, una mancata adozione di pratiche etiche può compromettere la fiducia pubblica e, di conseguenza, la sostenibilità a lungo termine delle loro operazioni.

Inoltre, le questioni legate alla privacy, alla sicurezza dei dati e all'inclusività devono essere affrontate in maniera preventiva, non solo come risposta alle normative future. L'approccio di Singapore, con il suo equilibrio tra innovazione e gestione dei rischi, sta cercando di evitare che la regolamentazione dell'IA diventi un ostacolo all'evoluzione tecnologica, mantenendo al contempo una visione chiara su come l'IA possa essere utilizzata responsabilmente.