La rapida evoluzione dell'intelligenza artificiale (IA) ha iniziato a influenzare profondamente il panorama giuridico, in particolare nell'ambito della proprietà intellettuale. La sfida principale risiede nel fatto che l'IA non si limita a supportare l'essere umano in attività creative, ma può anche generare in modo autonomo contenuti, quali opere artistiche o invenzioni. Questa nuova dinamica solleva interrogativi legati ai diritti d'autore e alla brevettabilità delle creazioni generate da macchine intelligenti.

Nel contesto del diritto d'autore, l'uso dell'IA pone questioni complesse su chi debba essere considerato "autore" di un'opera creata in parte o completamente da un'intelligenza artificiale. Secondo la legge statunitense, infatti, l'autore di un'opera deve essere un "individuo", ossia un essere umano. Le attuali normative, perciò, non consentono di attribuire la paternità di un'opera a una macchina, nonostante l'IA possa generare contenuti artisticamente validi, come nel caso di musica, arte visiva, o testi letterari. Tuttavia, l'autore umano che interagisce con l'IA potrebbe essere considerato come coautore, a meno che la sua partecipazione non superi un certo limite di originalità e creatività. Il dibattito in corso coinvolge non solo la definizione di "autore", ma anche la possibilità di registrare opere generate da IA, sollevando interrogativi su come riconoscere e proteggere i diritti di chi utilizza questi strumenti tecnologici.

Per quanto riguarda i brevetti, il contesto cambia in modo significativo. Sebbene l'IA non possa essere legalmente considerata un "inventore", come stabilito dalla Corte d'Appello degli Stati Uniti per il Circuito Federale, le invenzioni prodotte con l'ausilio dell'intelligenza artificiale sollevano questioni sulla loro brevettabilità. Il sistema brevettuale statunitense richiede che l'inventore sia una persona naturale. Tuttavia, l'uso dell'IA da parte di un inventore umano non compromette la validità di un brevetto, a condizione che il contributo umano nell'invenzione sia significativo. La difficoltà emerge quando si cerca di determinare se un'invenzione generata dall'IA, senza un intervento diretto dell'uomo, possa essere considerata nuova e innovativa ai fini di un brevetto.

Un altro aspetto cruciale riguarda l'espansione della "prior art" (arte anteriore). L'uso diffuso di strumenti IA porta a un rapido aumento di invenzioni e idee registrate, creando una barriera più alta per chi cerca di brevettare soluzioni innovative. L'intelligenza artificiale, infatti, può generare una quantità massiccia di contenuti e invenzioni, estendendo l'ambito delle conoscenze già esistenti in un determinato campo e complicando il processo di verifica della novità.

Va anche considerato che la brevettabilità delle tecnologie IA stesse potrebbe rappresentare una sfida, in quanto i principi giuridici attuali non sono facilmente adattabili a queste nuove forme di invenzioni. La difficoltà non risiede solo nell'implementazione pratica delle invenzioni, ma anche nel determinare come proteggere le tecnologie che sono alla base dell'IA. Inoltre, le difficoltà nel processo di esame e enforcement dei brevetti potrebbero aumentare con l'introduzione di tecnologie che producono risultati difficili da attribuire in modo tradizionale a un singolo inventore o a una singola azienda.

In questo scenario, il sistema legale si trova davanti a una vera e propria "rivoluzione" delle norme sulla proprietà intellettuale. L'introduzione dell'IA nella creazione e innovazione tecnologica impone ai legislatori e agli operatori del settore di rivedere concetti fondamentali come quelli di "autore" e "inventore". In particolare, l'evoluzione tecnologica potrebbe richiedere l'introduzione di nuove normative che consentano una gestione più fluida delle opere e delle invenzioni create con l'assistenza o l'autonomia dell'intelligenza artificiale.

È cruciale comprendere che, mentre l'IA sta creando nuove opportunità nel campo della ricerca e dell'innovazione, il sistema giuridico tradizionale non è ancora completamente equipaggiato per affrontare le sue implicazioni legali in modo completo. Sarà necessario sviluppare una normativa ad hoc che possa conciliare i progressi tecnologici con la protezione dei diritti degli autori e degli inventori, senza compromettere l'equilibrio tra incentivi all'innovazione e il diritto pubblico alla conoscenza.

Come la Generativa Intelligenza Artificiale e la Responsabilità Penale Possano Coinvolgere la Società

Nel contesto delle sfide che l'intelligenza artificiale (IA) presenta in relazione alla responsabilità penale, un'attenzione particolare è stata dedicata alle problematiche che emergono nell'ambito della robotica. Esistono già numerosi studi che cercano di analizzare come l'IA potrebbe influenzare la colpevolezza in casi di danno, con focus principalmente sui veicoli autonomi e sull'automazione dei processi decisionali. L'uso di tecnologie generative, in particolare, solleva domande su come l'intelligenza artificiale, che non è "umana", possa essere responsabile di atti dannosi. I dibattiti più rilevanti si concentrano sul grado di autonomia che tali sistemi acquisiscono e sulle implicazioni legali derivanti dal loro operato.

Un aspetto centrale del problema riguarda l'impiego del diritto penale per contrastare forme nuove di omissione, come l'omissione intenzionale o negligente nel rispetto delle misure di sicurezza. Le leggi esistenti, infatti, potrebbero non essere sufficienti per affrontare adeguatamente le situazioni che scaturiscono da interazioni pericolose tra esseri umani e intelligenza artificiale. Le normative relative agli obblighi di trasparenza e di informazione, ad esempio, potrebbero non essere abbastanza specifiche per regolamentare correttamente gli sviluppi delle tecnologie generative, rendendo il processo di autogestione delle pratiche di sicurezza troppo rischioso.

L'impiego di misure penali preventive potrebbe, inoltre, avere effetti collaterali indesiderati, disincentivando l'innovazione e gli investimenti da parte degli operatori del settore. Un'eccessiva regolamentazione penale rischierebbe di frenare il progresso tecnologico, dato che le aziende potrebbero ridurre le loro attività per timore di sanzioni severe. In ogni caso, sarebbe necessario coordinare le normative penali con le sanzioni amministrative già previste dall'Unione Europea per violazioni di leggi relative alla generazione di contenuti da parte di modelli di intelligenza artificiale.

Al momento, non esistono standard definiti in merito al "dovere di diligenza" nel campo dell'IA generativa, e la sua definizione dipenderà dalle pratiche di sicurezza imposte dall'industria. L'autoregolamentazione potrebbe non essere sufficiente, poiché affidare completamente la gestione delle politiche di prevenzione del danno al settore privato solleverebbe preoccupazioni legate alla certezza del diritto. Alcune misure, come l'etichettatura di contenuti illeciti, potrebbero essere più efficaci se basate su una collaborazione attiva con le autorità pubbliche, il che potrebbe garantire maggiore trasparenza e maggiore fiducia nei sistemi generativi.

Un altro aspetto critico riguarda la possibilità che l'uso dell'IA generativa possa portare a danni diffusi e a una facilitazione di attività criminali. Sebbene sia prematuro affermare con certezza che l'IA generativa porterà a violazioni penali, è fondamentale esaminare le evoluzioni del settore, con un approccio normativo aperto, in grado di rispondere ai rischi legati alle interazioni pericolose con tali tecnologie. Escludere completamente il diritto penale dal set di politiche destinate a gestire le interazioni pericolose potrebbe risultare insufficiente a lungo termine, in quanto il diritto penale non si limita alla mera mitigazione del danno, ma mira anche a proteggere i valori sociali e a garantire l'ordine normativo.

In questa prospettiva, l'intelligenza artificiale generativa non è solo una questione di danni immediati e diretti, ma anche di potenziali danni futuri, spesso imprevedibili. Questi danni possono assumere la forma di conflitti sociali, che si traducono in reati sostanziali. Il rischio è che la tecnologia porti a una sistematica creazione di contenuti nocivi, pericolosi o manipolatori, mettendo a repentaglio non solo la sicurezza individuale, ma anche quella collettiva. Per tali motivi, è importante non considerare la responsabilità penale come un aspetto accessorio o una misura estrema, ma come un elemento cruciale nella regolamentazione di tecnologie che interagiscono con la società.

A lungo termine, se non affrontato correttamente, il mancato intervento penale potrebbe non solo escludere la giustizia, ma anche indebolire la capacità delle istituzioni di proteggere i cittadini da danni diffusi e potenzialmente irreversibili. La questione dell’attribuzione della responsabilità in un contesto che coinvolge IA generativa non riguarda tanto una "lacuna" da colmare, ma un cambiamento nei paradigmi stessi della responsabilità legale e sociale. Mentre la tecnologia avanza, è fondamentale sviluppare un sistema normativo che non solo risponda alle esigenze di protezione immediata, ma che riconosca la complessità crescente delle interazioni tra uomini e macchine.

Come la legge può affrontare la sfida dell'Intelligenza Artificiale Generativa?

Il rapido sviluppo dell'intelligenza artificiale generativa (GenAI) sta sollevando domande fondamentali per il diritto. Le sue applicazioni, che spaziano dalla creazione di contenuti digitali alla generazione automatica di testo, immagini e persino opere artistiche, hanno il potenziale di trasformare non solo il nostro modo di lavorare, ma anche i principi stessi alla base della legislazione contemporanea. Mentre la tecnologia continua a evolversi, emerge la necessità di adattare i sistemi giuridici esistenti per far fronte a sfide completamente nuove in ambito di proprietà intellettuale, responsabilità legale, e protezione dei dati.

L'intelligenza artificiale generativa può produrre contenuti che imitano perfettamente le capacità umane, ma la questione cruciale è capire a chi appartiene la proprietà di questi contenuti. Se un modello AI crea un'opera, a chi appartiene il copyright? Chi è responsabile per eventuali danni causati da contenuti generati da una macchina? Questi interrogativi sfidano i tradizionali concetti legali di paternità e responsabilità, in quanto la GenAI non è un autore umano e, quindi, la nozione stessa di "autore" diventa sfocata.

Le leggi sul copyright, come quelle previste negli Stati Uniti, in Europa, Giappone e Cina, non sono ancora state aggiornate in modo adeguato per affrontare i problemi posti dalla GenAI. Tradizionalmente, il copyright è stato concepito per proteggere le opere originali create da esseri umani. Ma cosa succede quando un'intelligenza artificiale è responsabile della creazione di contenuti originali? Se un'opera generata da AI viola i diritti di un altro autore o contiene informazioni riservate, chi deve rispondere legalmente? In molti casi, la risposta non è ancora chiara.

L'intelligenza artificiale generativa ha anche un impatto significativo sul diritto della privacy e sulla protezione dei dati. L'uso di AI per generare contenuti comporta il trattamento di enormi quantità di dati, che potrebbero includere informazioni sensibili. La domanda di come le normative sulla privacy possano adattarsi per proteggere gli individui in un contesto in cui le macchine sono in grado di processare e "creare" dati su larga scala è diventata una questione centrale. In Europa, ad esempio, il Regolamento Generale sulla Protezione dei Dati (GDPR) fornisce alcune risposte, ma la rapida evoluzione della tecnologia AI pone ancora una serie di dilemmi in termini di applicazione e adattamento delle leggi esistenti.

Un altro aspetto che solleva preoccupazioni riguarda l'automazione dei compiti legali. Le AI generative, come i modelli di linguaggio di grandi dimensioni (LLM), sono già in grado di automatizzare la creazione di documenti legali, la gestione di contratti e la ricerca giuridica. Mentre ciò può migliorare l'efficienza, solleva interrogativi circa la responsabilità legale degli errori commessi da questi sistemi automatizzati. Se un errore legale commesso da una AI causa danni a una parte, chi è responsabile? E come possono gli avvocati e i giudici garantire che i risultati generati dalle AI siano accurati e conformi alle leggi in vigore?

L'integrazione dell'AI nei settori pubblici e privati crea, inoltre, nuove sfide per la governance e la conformità alle leggi. Le aziende, ad esempio, devono affrontare problematiche relative alla regolamentazione dell'uso delle AI generative nei loro processi, ma anche alla responsabilità legale derivante dall'uso di queste tecnologie. Non è solo un problema per i fornitori di software o i produttori di AI: le imprese che utilizzano AI per migliorare i loro servizi o prodotti devono comprendere e adattare le proprie pratiche alle nuove normative. In questo senso, il sistema giuridico è chiamato a evolversi per prevenire abusi e garantire un controllo adeguato.

Un altro tema che sta emergendo riguarda la questione della "ipersuasion" – la capacità dell'AI di influenzare, manipolare o persuadere gli utenti in modo subliminale o manipolativo. La GenAI ha la capacità di generare contenuti mirati in grado di influenzare opinioni, decisioni di acquisto e comportamenti, creando nuove sfide etiche e giuridiche riguardo all'abuso del potere persuasivo delle macchine. Le leggi sul comportamento commerciale e sulle pratiche ingannevoli sono ancora in fase di adattamento per rispondere a questa nuova realtà.

Infine, il tema della criminalità e della colpevolezza nell'era dell'AI è uno dei più complessi. Un sistema di intelligenza artificiale potrebbe essere impiegato in situazioni in cui l'intenzione di causare danno non è presente, ma i risultati generati comunque violano la legge. In tali casi, come viene trattato il concetto di colpevolezza, soprattutto quando l'azione non è direttamente imputabile a un individuo, ma a un sistema automatizzato? Le implicazioni legali di tale scenario sono ancora oggetto di studio e discussione in molte giurisdizioni.

Al di là delle sfide specifiche legate alla proprietà, alla responsabilità e alla protezione dei dati, è essenziale che i legislatori e i giuristi non perdano di vista il quadro più ampio. La crescente pervasività delle intelligenze artificiali generative nella vita quotidiana implica che le leggi non solo debbano essere aggiornate, ma anche che vengano concepiti nuovi principi giuridici per un mondo in cui l'intelligenza artificiale gioca un ruolo centrale. La sfida più grande non è tanto nell'adattare le leggi esistenti quanto nel creare un sistema giuridico che possa gestire efficacemente le nuove realtà tecniche, sociali ed etiche in modo equo e giusto.

Come la Generative AI Sta Trasformando la Governance Legale: Un’Analisi Multidisciplinare

Nel contesto della rapida evoluzione della Generative AI, la governance legale sta affrontando sfide senza precedenti. Il concetto tradizionale di privacy, ad esempio, si trova di fronte a nuove problematiche che richiedono una riorientamento radicale. Come osservato da Elana Zeide, uno dei maggiori esperti in materia, le attuali normative sulla privacy negli Stati Uniti non sono più sufficienti per gestire le sfide sollevate dalle tecnologie emergenti come la Generative AI. La proposta di un cambio di paradigma verso una governance proattiva, che sposti l'attenzione dal controllo individuale a concezioni collettive della privacy, si rivela fondamentale. Questo approccio, che incoraggia l'innovazione responsabile, è particolarmente rilevante nell'era dell'Intelligenza Artificiale generativa, dove la rapidità del progresso tecnologico è senza precedenti.

Bruce Boyden, nel suo capitolo sull'impatto della Generative AI sulle leggi sulla proprietà intellettuale negli Stati Uniti, solleva interrogativi fondamentali sulla natura della creatività e della paternità nel mondo digitale. La questione centrale riguarda se le creazioni generate dall'AI dovrebbero essere trattate legalmente in modo simile o differente rispetto alle opere umane. Boyden si interroga sul fatto che i sistemi di AI "imparino" veramente o semplicemente riproducano contenuti, e su come le dottrine legali esistenti debbano essere applicate o adattate. La riflessione invita a un atteggiamento di apertura rispetto alle potenziali difficoltà dottrinali che potrebbero sorgere.

Il capitolo di Christopher Rademacher e Wanru Cai, che confronta la legislazione sul diritto d'autore in Giappone e in Cina in relazione alla Generative AI, offre uno spunto interessante su come diverse giurisdizioni stiano affrontando le sfide legate alla protezione dei diritti d'autore e alla politica nazionale per promuovere l'avanzamento tecnologico. Il focus sui dati di addestramento e sulla proprietà del copyright nelle opere generate dall’AI ci spinge a riflettere su un problema globale che va oltre i confini nazionali.

Anche in ambito di diritto della concorrenza, la Generative AI solleva preoccupazioni significative. Sylvia Papadopoulos esplora l'impatto di queste tecnologie sulle strutture di mercato, mettendo in evidenza i potenziali rischi per la competitività e la giustizia dei mercati. L'autrice evidenzia la necessità di un bilanciamento tra innovazione e equità nel contesto del diritto antitrust, sottolineando come la rapidità dell'adozione dell'AI possa alterare gli equilibri economici e giuridici.

Il concetto di "ipersuasion" nelle interazioni algoritmiche con i consumatori, discusso da Christina Poncibò, fa emergere una delle principali preoccupazioni dell'Unione Europea: la protezione dei consumatori di fronte all'uso sempre più invasivo di algoritmi che modellano le scelte di acquisto. La Poncibò argomenta che gli strumenti giuridici attuali non sono sufficienti per governare adeguatamente i cambiamenti nei rapporti di potere tra consumatore e intelligenza artificiale, evidenziando una lacuna critica nella protezione dei consumatori.

Con l'avanzare della tecnologia, le implicazioni per la governance aziendale diventano anch'esse evidenti. Patrick O’Malley, nel suo capitolo, esplora come l'AI influenzi la gestione aziendale, indicando la necessità di un adattamento alle nuove sfide legali, etiche e tecnologiche. La responsabilità di dirigenti e amministratori nell'assicurare l'uso sicuro ed etico degli strumenti di AI diventa centrale, sollevando interrogativi su come distribuire la responsabilità e l'affidabilità in un contesto dove le decisioni automatizzate potrebbero sovrapporsi al giudizio umano.

Anche il diritto penale deve fare i conti con l'impatto dell'AI. Beatrice Panattoni esplora l’intersezione tra AI generativa e diritto penale, sollevando interrogativi fondamentali su responsabilità e colpa quando le azioni vengono delegati a un sistema artificiale. Il concetto di "colpa" in un mondo in cui le decisioni vengono sempre più delegati alle macchine pone sfide enormi per i sistemi giuridici che devono preservare la nozione di responsabilità morale e legale.

Le applicazioni pratiche della Generative AI nel settore legale e nella pubblica amministrazione, discusse da autori come Rūta Liepiņa e Francesco Lagioia, mostrano il potenziale di questa tecnologia per rivoluzionare il modo in cui vengono svolte attività legali quotidiane. L'automazione di compiti legali come la generazione di documenti o addirittura la scrittura di decisioni giudiziarie rappresenta un cambiamento epocale. Tuttavia, queste trasformazioni comportano anche complessi problemi etici e regolatori che necessitano di una riflessione approfondita.

La crescente integrazione dell'AI nel sistema giuridico solleva anche questioni cruciali sul diritto a un processo equo. Ellen Lefley e Mimi Zou esplorano l'influenza della Generative AI sulle procedure legali, argomentando che la crescente automazione potrebbe compromettere i diritti fondamentali degli individui, come il diritto a un processo equo sancito dalla Convenzione Europea dei Diritti Umani. Questo solleva interrogativi sul valore intrinseco del giudizio umano e sulla necessità di mantenere una componente umana nelle decisioni giuridiche.

Sophie Weerts, infine, offre un’analisi comparativa tra gli approcci normativi adottati negli Stati Uniti e nell'Unione Europea, concentrandosi sull'integrazione dell'AI nelle strutture governative. La sua analisi fornisce preziose informazioni su come diversi ordinamenti giuridici stanno cercando di gestire l’introduzione di tecnologie AI nelle amministrazioni pubbliche, riflettendo sulle implicazioni giuridiche, etiche e politiche di tali cambiamenti.

La questione centrale che emerge da tutte queste riflessioni è il bisogno di una governance legale proattiva e adattiva che possa rispondere alle sfide poste dall'AI generativa. In un contesto globale e in continua evoluzione, la protezione dei diritti individuali, la salvaguardia della giustizia economica e sociale, e l'equilibrio tra innovazione e etica sono temi che devono essere affrontati con urgenza. È chiaro che, senza un adeguato adattamento delle normative esistenti, i rischi legati all’adozione incontrollata dell'AI potrebbero avere impatti devastanti sulla società.

Le misure sulla regolamentazione dell'IA generativa in Cina e la ricerca di coerenza globale

Le nuove misure adottate dalla Cina per regolamentare l'Intelligenza Artificiale generativa non introducono sostanziali meccanismi istituzionali innovativi, ma si concentrano su due aspetti principali. Innanzitutto, le misure impongono ai fornitori di servizi di IA generativa le stesse responsabilità dei produttori di contenuti, ampliando in modo significativo gli obblighi di responsabilità per i fornitori. In secondo luogo, vengono introdotti requisiti specifici riguardo ai dati di addestramento utilizzati nei modelli di IA generativa. Molte delle disposizioni contenute nelle misure non rappresentano novità assolute, ma piuttosto un perfezionamento delle normative già esistenti, come quelle relative alla generazione di informazioni false, all'etichettatura dei dati, alla prevenzione della discriminazione nel design algoritmico, alla trasparenza degli algoritmi, alla protezione delle informazioni personali e ai meccanismi di reclamo degli utenti, tra le altre.

Le nuove obbligazioni che riguardano i produttori di contenuti sono in gran parte un riflesso delle norme già presenti nelle disposizioni sul governo dell'ecosistema dei contenuti informativi online. Inoltre, le misure incorporano disposizioni già esistenti. Per esempio, gli obblighi relativi all'archiviazione degli algoritmi e alla valutazione della sicurezza, previsti dall'Articolo 17, sono direttamente connessi alle disposizioni sulla gestione delle raccomandazioni algoritmiche nei servizi informativi su internet. Allo stesso modo, i requisiti per l'etichettatura dei contenuti generati dall'IA, contenuti nell'Articolo 12, si riflettono nelle normative sulla sintesi profonda.

Si può argomentare che le misure abbiano un design deliberatamente conservativo. Esse rappresentano una risposta rapida delle autorità politiche cinesi ai rischi e alle sfide posti dall'evoluzione rapida delle tecnologie dell'IA, ma al contempo puntano a garantire coerenza tra le diverse normative sull'intelligenza artificiale. Gli sviluppatori di politiche cinesi stanno cercando di evitare una frammentazione normativa, riconoscendo i costi e i rischi che questa potrebbe comportare. In effetti, la Cina sta cercando di stabilire una legislazione generale sull'IA, che potrebbe seguire un approccio più unificato e complesso, simile a quello dell'Unione Europea con l'AI Act. Questo approccio potrebbe integrare leggi già esistenti come la Legge sulla Cybersecurity, la Legge sulla Sicurezza dei Dati e la Legge sulla Protezione delle Informazioni Personali, che forniscono una base per l’introduzione di strumenti normativi legati, per esempio, alla valutazione degli algoritmi e alla prevenzione delle manipolazioni digitali.

Se la Cina seguirà questa direzione, è fondamentale che due aspetti del design normativo vengano considerati attentamente. In primo luogo, l’obiettivo principale di una legge generale sull'IA dovrebbe essere quello di integrare approcci normativi differenti, uniformando le regole esistenti e colmando le lacune normative. Ad esempio, sebbene sia stato introdotto un sistema di registrazione degli algoritmi, le disposizioni sulla gestione delle raccomandazioni algoritmiche non chiariscono se tale registrazione sia una condizione necessaria per la responsabilità pre-esistente o post-esistente. Questa distinzione è cruciale per determinare come viene percepito il processo di registrazione e quali effetti avrà sui soggetti coinvolti. Una legge generale sull'IA deve affrontare lacune come questa, almeno ponendo le basi per future risoluzioni. In secondo luogo, è essenziale che la legislazione generale sull'IA definisca chiaramente la responsabilità degli attori regolamentati, tenendo conto della complessità, dell'autonomia e dell’opacità dei sistemi di IA e delle loro applicazioni. Disposizioni specifiche che coprano questioni come la determinazione dei danni e l'onere della prova sono fondamentali. Definire chiaramente le modalità di rimedio, che vanno da azioni amministrative a cause civili, potrebbe ridurre i rischi tecnologici, abbassando i costi di conformità per le imprese e semplificando la gestione delle sfide regolatorie per le agenzie governative.

A livello globale, la competizione sull'IA è passata da una sfida tecnologica a una disputa normativo-regolatoria. Le misure adottate dalla Cina non solo rispondono a esigenze interne di governance, ma riflettono anche il desiderio della Cina di partecipare sempre più attivamente alla definizione delle regole globali per l'IA. Paesi come l'Unione Europea, infatti, sono i principali attori nella formulazione di standard internazionali attraverso l’introduzione dell’AI Act. La Cina, d'altra parte, spera che le sue misure mostrino un approccio pionieristico e agile nella governance dell’IA. Formulare standard e norme per l'IA è sempre stato un aspetto cruciale dei piani di sviluppo della Cina, ma resta da vedere se le normative contenute nelle misure verranno adottate o adattate anche in altre giurisdizioni.

La regolamentazione globale dell'IA si basa su principi fondamentali condivisi da molte nazioni, tra cui l'equità degli algoritmi, la trasparenza, la protezione dei dati e la privacy. Attualmente, la governance dell’IA è entrata in una fase in cui questi principi vengono tradotti in sistemi normativi concreti. I rischi legati all'IA non sono circoscritti a singoli paesi, ma sono di portata internazionale, il che richiede azioni coordinate a livello globale. Tuttavia, le dinamiche geopolitiche e la competizione tecnologica tra le principali potenze pongono numerosi ostacoli alla cooperazione internazionale. In tale contesto, promuovere lo sviluppo domestico dell’IA sotto il concetto di sovranità digitale potrebbe avere effetti collaterali negativi sul mercato globale dell’IA, mentre una “gara al ribasso” per regole più permissive potrebbe aumentare i rischi legati all’uso delle tecnologie emergenti. La Cina, come principale attore nel panorama globale dell’IA, deve trovare modi per collaborare con gli altri protagonisti mondiali nella governance internazionale dell'IA.