Nel 2023, l'Ufficio del Copyright degli Stati Uniti ha ribadito un principio fondamentale per la protezione delle opere: l'autorialità deve essere umana. In una serie di decisioni a partire dal 2022, l'Ufficio ha respinto la registrazione di opere che considerava generate dall'intelligenza artificiale senza una chiara dichiarazione che le escludesse come frutto di un'autorialità umana. Questa posizione, sebbene criticata da alcuni, trova una sua difesa nel concetto centrale del copyright: la protezione legale è riservata a opere che esprimono l'intenzione creativa di un autore umano, un principio che distingue il copyright da altre forme di proprietà intellettuale. In altre parole, il copyright si fonda sulla capacità di un individuo di infondere un’opera di una propria concezione mentale, mentre altre forme di protezione, come i brevetti, si basano sulla struttura e sulla funzionalità.

Il problema sorge quando le opere generate dall'IA non sono strettamente distinguibili dalle creazioni umane, ma mancano di una connessione con un pensiero umano originario. Opere create da processi automatizzati, simili agli oggetti trovati in natura, non comunicano un'espressione umana e pertanto non giustificherebbero la protezione del copyright, nemmeno se indistingibili dalle creazioni artistiche umane. La difficoltà principale, quindi, risiede nel tracciare un confine chiaro tra ciò che può essere considerato una creazione umana e ciò che è il risultato di un processo automatico, soprattutto in un contesto dove gli strumenti generativi dell'IA sono sempre più sofisticati.

Tuttavia, l'approccio dell'Ufficio del Copyright non è privo di complessità. Un caso emblematico riguarda un utente che inserisce una richiesta generica in un sistema di IA, come ad esempio "scrivi una storia su un pinguino cowboy". Qui l'utente ha contribuito ben poco, se non una semplice idea. D'altro canto, se l'utente fornisce un prompt molto dettagliato, o una serie di prompt successivi, questi potrebbero essere considerati più che semplici idee: potrebbero configurarsi come istruzioni specifiche che, in alcuni casi, potrebbero essere sufficienti a costituire un'opera protetta da copyright.

In effetti, è possibile che anche modifiche e aggiustamenti successivi da parte dell'utente su un'opera prodotta dall'IA possano essere visti come espressioni sufficientemente originali da meritare la protezione del copyright. Se gli strumenti generativi dell'IA sono utilizzati esclusivamente come strumenti a supporto della creatività umana, il risultato finale potrebbe essere considerato coperto da copyright, proprio come avveniva per le riproduzioni fotografiche create da Napoleon Sarony nel XIX secolo, dove la macchina serviva da mezzo per realizzare l'intento creativo dell'artista.

Tuttavia, il confine tra uno strumento controllato dall'umano e un motore di creazione basato su prompt dell'umano è estremamente sfumato. L'Ufficio del Copyright, in effetti, ha emesso delle linee guida che affermano che sarà necessario determinare se gli elementi espressivi dell'opera siano stati decisi dall'IA o se siano frutto della "concezione mentale originale dell'autore". Ma questa valutazione è intrinsecamente complessa, tanto da richiedere un esame caso per caso che risulta faticoso e potenzialmente arbitrario, visto che spesso la distinzione tra idea ed espressione, pur se necessaria, è difficile da tracciare con precisione.

Il problema si complica ulteriormente quando si considerano le ripercussioni legali legate alla registrazione e alla possibile controversia su opere che coinvolgono l'uso di IA. Sebbene l'Ufficio del Copyright abbia cercato di ridurre il carico di lavoro, attribuendo la responsabilità al registrante di dichiarare correttamente il contributo umano e di spiegare il ruolo dell'IA nel processo creativo, il numero di contestazioni, sia in fase di registrazione che in contenziosi legali, sembra destinato ad aumentare notevolmente.

Nel lungo periodo, per quanto riguarda le opere generate da IA, molte questioni legali rimangono ancora aperte. Una di queste riguarda la creazione di copie sostanzialmente simili ad opere già esistenti, come parte dei dati di addestramento per gli algoritmi dell'IA. Sebbene i fornitori di IA dovrebbero essere incentivati a ridurre tali copie, non si dovrebbe arrivare ad un livello di responsabilità che metta in pericolo la stessa esistenza delle tecnologie generative o che imponga barriere insormontabili al loro utilizzo. Un'altra questione critica riguarda la presunzione di copyright che accompagna la maggior parte delle opere minimamente creative. Nel caso di opere facilmente e a basso costo prodotte da sistemi di IA, i benefici derivanti dai diritti esclusivi potrebbero diminuire drasticamente, lasciando spazio solo ai costi.

In ultima analisi, sarà necessario trovare un equilibrio tra il riconoscimento della creatività umana e l'uso dell'IA come strumento creativo, evitando che la legge diventi troppo obsoleta rispetto alla rapida evoluzione tecnologica. Il futuro delle leggi sul copyright potrebbe richiedere innovazioni legali significative per adattarsi a queste nuove realtà, dove le linee tra creazione umana e automazione sono sempre più indistinte.

Come la Concorrenza e la Regolamentazione Digitali Influenzano l'Economia dei Dati: Un'Analisi Sostenibile del Ruolo della Legge sulla Concorrenza nell'Economia Digitale

Le leggi sulla concorrenza, specialmente nell'ambito dei mercati digitali, hanno assunto una nuova dimensione con l'emergere di giganti tecnologici come Amazon, Google, e altri attori chiave che influenzano non solo le dinamiche di mercato ma anche la protezione dei consumatori e la sostenibilità economica globale. La crescente centralizzazione del potere da parte di poche aziende tecnologiche sta mettendo in evidenza i rischi di abuso di posizione dominante, tanto che enti regolatori e autorità competenti a livello internazionale stanno adottando misure più severe per contrastare pratiche anti-competitive.

L'Unione Europea, in particolare, ha mostrato una volontà decisiva di intervenire a favore di una maggiore equità nei mercati digitali. Le normative come l'Artificial Intelligence Act, insieme ad altri strumenti legislativi, mirano a garantire un approccio regolatorio più rigoroso, promuovendo la trasparenza e la protezione del consumatore. Le recenti indagini su Amazon e su altri big tech, che riguardano la gestione dei dati, sono emblematiche di un cambiamento nella percezione della legge sulla concorrenza: non si tratta più solo di prevenire danni ai consumatori in termini di prezzo, ma di evitare la distorsione dell'intero ecosistema economico.

Un esempio lampante di tale evoluzione legislativa è il caso AdSense (AT.40411), in cui Google è stata multata con una cifra considerevole per aver limitato la concorrenza nel mercato delle pubblicità. Tale intervento rappresenta un tentativo diretto di contrastare le pratiche di mercato che rischiano di soffocare i competitor più piccoli e di distorcere la libera concorrenza.

In parallelo, negli Stati Uniti, sebbene il dibattito sulla regolamentazione dei giganti tecnologici sia meno avanzato rispetto all'Europa, si sta diffondendo una crescente attenzione alle pratiche anti-concorrenziali. La Federal Trade Commission (FTC) sta investigando sull'uso che Amazon fa dei dati dei venditori terzi per sviluppare i propri prodotti, una pratica che potrebbe danneggiare le imprese indipendenti. Sebbene l'approccio statunitense continui a focalizzarsi maggiormente sugli effetti di mercato per il consumatore, molti critici suggeriscono che sia necessario un intervento più drastico per evitare che le dimensioni gigantesche delle aziende tecnologiche impediscano l'innovazione e la concorrenza.

La questione diventa ancora più complessa quando si parla di modelli fondanti, ovvero modelli linguistici che, grazie all'intelligenza artificiale, possono generare contenuti variabili come testi, immagini, musica o video. Questi modelli utilizzano enormi quantità di dati per produrre risultati che sono essenziali per applicazioni di elaborazione del linguaggio naturale (NLP). Questi modelli si basano su tre risorse fondamentali: modelli linguistici, dati e risorse di calcolo. L'accesso a tali risorse, e la capacità di gestirle, diventa un vantaggio competitivo decisivo per le aziende che dominano questo settore.

La regolamentazione dei modelli fondanti, purtroppo, non è ancora ben definita e rimane un campo di indagine aperto, soprattutto quando si tratta di evitare la concentrazione di potere nelle mani di pochi attori che potrebbero manipolare i risultati per i propri interessi, mettendo a rischio non solo la concorrenza, ma anche la privacy dei dati degli utenti.

Le leggi europee, come l’Atto per l’Intelligenza Artificiale e la Direttiva sui Diritti dei Consumatori, sono strumenti cruciali per bilanciare il progresso tecnologico con la protezione dei diritti individuali e l’integrità dei mercati. Nonostante le difficoltà nel fare applicare queste normative, l’Unione Europea si sta affermando come un leader globale nell’adozione di politiche digitali che promuovano un mercato equo e competitivo, incentivando l'innovazione senza compromettere l'integrità delle pratiche economiche.

Inoltre, l’attenzione rivolta alla protezione del consumatore, sancita dal Trattato sul Funzionamento dell'Unione Europea (TFEU), stabilisce che la protezione dei consumatori e la promozione della concorrenza sana sono pilastri fondamentali della legislazione europea. L’adozione di misure più severe contro la concentrazione del potere di mercato da parte dei big tech potrebbe costituire un punto di svolta per garantire che l'economia digitale rimanga un ambiente dinamico, in grado di favorire l'accesso a nuovi attori e di prevenire le distorsioni legate all’abuso della posizione dominante.

L'importanza della regolamentazione in questo contesto non può essere sottovalutata. È fondamentale che i legislatori, in particolare in Europa, continuino a monitorare da vicino le pratiche di mercato, adoperandosi per introdurre misure più precise ed efficaci per evitare che la crescente concentrazione dei dati e del potere di calcolo nelle mani di pochi attori minacci l'equità del mercato e la libertà di innovazione.

Come la regolamentazione dell'Intelligenza Artificiale può evolversi per affrontare i cambiamenti tecnologici?

La regolamentazione dell'Intelligenza Artificiale (IA) ha dovuto affrontare sfide considerevoli nel tentativo di rimanere al passo con l'evoluzione rapida delle tecnologie. Una delle principali difficoltà consiste nel cercare di redigere leggi che siano sufficientemente generali e flessibili da rimanere applicabili anche di fronte a innovazioni tecnologiche future. L'adozione di un approccio orizzontale, come quello proposto dalla Commissione Europea nel 2021, rappresenta una risposta a questa esigenza di "future-proofing" della legge, cioè la capacità di un quadro normativo di restare pertinente e applicabile in un contesto tecnologico in continua evoluzione.

Il principio fondamentale di questa regolamentazione è la neutralità tecnologica, che implica che le leggi debbano essere formulate in modo tale da non favorire né penalizzare tecnologie specifiche, ma piuttosto regolamentare gli usi dell'intelligenza artificiale indipendentemente dal suo funzionamento interno o dalle sue specifiche tecniche. Tale neutralità è essenziale per evitare che la legge diventi obsoleta troppo rapidamente a causa dei rapidi cambiamenti tecnologici. La legge, infatti, deve rimanere applicabile in modo ampio e non essere aggiornata costantemente per tener conto delle innovazioni.

Il sistema normativo che si è cercato di implementare si scontra, tuttavia, con la realtà che la legge non è l'unico sistema regolatore in gioco. Accanto alla legge, esistono altre forze regolatorie come l'etica, il mercato, i costumi sociali e, in modo significativo, la tecnologia stessa come sistema di autoregolamentazione. Questi sistemi possono entrare in conflitto tra loro, e a volte le soluzioni tecnologiche adottate dal mercato o da pratiche sociali possono rendere inefficace la regolamentazione legale. Un esempio di questa dinamica si è visto con la direttiva europea sull'e-money del 2000, che, pur cercando di regolamentare i pagamenti online, divenne rapidamente obsoleta con l'emergere di nuovi sistemi come PayPal, richiedendo l'adozione di nuove normative nel 2009.

Il rischio di obsolescenza normativa si presenta frequentemente con l'evolversi della tecnologia, in particolar modo in settori complessi come quello dei droni. La regolamentazione iniziale dell'Unione Europea, stabilita dal regolamento (UE) 2008/216, si è rivelata insufficiente a causa della decentralizzazione delle competenze tra Stati membri, causando la frammentazione delle normative. Solo con l'introduzione del regolamento (UE) 2018/1139 è stato possibile creare una regolamentazione comune e centralizzata.

Per evitare il fallimento della regolamentazione tecnologica, è necessario utilizzare tecniche legali che possano mantenere la legge pertinente e funzionale nonostante il rapido cambiamento tecnologico. Tecniche come l'indifferenza tecnologica, la neutralità nella sua implementazione e la neutralità potenziale della legge sono strumenti cruciali. La neutralità tecnologica, ad esempio, assicura che le leggi siano applicabili indipendentemente dalla tecnologia utilizzata. Il GDPR, con il suo principio di applicazione universale, è un esempio perfetto di questa tecnica. La neutralità nella sua implementazione implica che le leggi si applicano senza preferire una particolare forma di tecnologia, mentre la neutralità potenziale si occupa di garantire che le leggi possano essere modificate per includere anche tecnologie che inizialmente non erano compliant.

Nel contesto dell'Intelligenza Artificiale, il principio di neutralità tecnologica è stato adottato nella proposta di legge sull'IA del 2021, che ha cercato di definire l'IA in modo sufficientemente ampio da essere applicabile a tutti i tipi di tecnologia, indipendentemente dal suo metodo operativo. L'AI Act si fonda su un approccio basato sul rischio, cercando di classificare i sistemi di IA in base ai livelli di rischio che comportano, e applicare misure di governance proporzionate a tali rischi. La legge non si prefigge di regolamentare la tecnologia in sé, ma i suoi usi, classificando le applicazioni in base al rischio che comportano per la società.

Il rischio di un sistema di IA può essere suddiviso in quattro categorie principali: rischi inaccettabili, ai quali sono associate banche e divieti; rischi elevati, che richiedono certificazioni e adempimenti amministrativi per i sviluppatori; rischi bassi, che non comportano obblighi rilevanti; e infine un livello intermedio di trasparenza per determinati usi della tecnologia. Con il regolamento del 2024, è stato introdotto un nuovo rischio, quello sistemico, che riguarda l’impatto significativo di un modello di IA, sia in termini di capacità tecniche, come il numero di operazioni in virgola mobile (FLOPs), sia in relazione all'impatto sul mercato interno e sulla sua diffusione.

Un aspetto chiave del regolamento europeo sull'IA è proprio la creazione di un quadro normativo uniforme che offra certezza legale, a differenza degli approcci settoriali che caratterizzano altri ordinamenti giuridici, come quello statunitense. La certezza giuridica è essenziale per evitare l'incertezza che potrebbe frenare l'innovazione e l'adozione di tecnologie. Inoltre, un altro obiettivo è garantire che la legge sia abbastanza flessibile da adattarsi alle innovazioni future, evitando di entrare in conflitto con i rapidi sviluppi della tecnologia.

Inoltre, uno degli strumenti introdotti per garantire una regolamentazione più dinamica è la creazione di "sandbox" normative, ovvero ambienti di sperimentazione che consentono alle nuove tecnologie di essere testate in condizioni controllate, senza rischiare di compromettere la sicurezza pubblica o la stabilità del mercato.

La regolamentazione dell'Intelligenza Artificiale, quindi, si sta progressivamente adattando per affrontare una realtà tecnologica in rapido cambiamento. Il bilanciamento tra innovazione e sicurezza, tra regole chiare e flessibilità normativa, rappresenta la sfida principale per le istituzioni europee, che mirano a garantire che l’IA possa essere sviluppata e utilizzata in modo responsabile e sicuro per la società.

Qual è il futuro della responsabilità giuridica per l'Intelligenza Artificiale generativa nell'Unione Europea?

L'adozione delle normative sull'Intelligenza Artificiale (IA) da parte dell'Unione Europea ha segnato una tappa fondamentale nel processo di regolamentazione dei sistemi tecnologici avanzati. La proposta della Commissione Europea, approvata dal Parlamento Europeo il 12 marzo 2024 e successivamente adottata il 23 ottobre 2024, ha reso evidente l’intenzione di costruire un quadro normativo solido per l'IA. Tuttavia, mentre la proposta dell'AI Act (Legge sull'Intelligenza Artificiale) avanza in modo significativo, la questione della responsabilità legale per l’uso dell'IA generativa continua a sollevare interrogativi, rendendo necessaria una riflessione più approfondita.

Una delle principali sfide in questo ambito riguarda la capacità della legislazione europea di adattarsi alle caratteristiche distintive dell'IA generativa. Sebbene l'AI Act si concentri principalmente su sistemi di IA definiti come "sistemi ad alta e bassa criticità", e quindi su modelli di IA generali, vi è un'importante differenza tra i modelli generativi e i sistemi tradizionali, che richiede un trattamento specifico in termini di responsabilità legale. La creazione di contenuti (come testi, immagini o musica) da parte di un’IA non si limita a una semplice esecuzione di comandi, ma solleva complesse questioni legate alla proprietà, alla tracciabilità delle decisioni, e alla previsibilità dei risultati, rendendo difficile applicare le norme esistenti in modo adeguato.

In termini pratici, ciò che risulta problematico è la definizione del "campo di applicazione" delle normative esistenti. La direttiva PLD (Product Liability Directive) in fase di revisione potrebbe essere estesa per includere anche i sistemi di IA, ma tale estensione richiede un ampio adattamento concettuale. In primo luogo, la nozione di "prodotto" deve essere aggiornata per includere anche le IA, che per loro natura non sono semplici oggetti fisici ma sistemi dinamici in grado di apprendere e adattarsi autonomamente. Ciò implica un ampliamento del concetto di responsabilità e una riflessione su come applicare il regime di responsabilità del prodotto a qualcosa che, in molti casi, non ha una forma fissa e immutabile, ma è in grado di evolversi.

Anche se la revisione della PLD rappresenta una via promettente per adattare le normative europee all'era digitale, rimangono dubbi sul fatto che questa modalità sia sufficiente. L'introduzione di IA generativa può comportare rischi specifici, non sempre riconducibili ai classici criteri di responsabilità, come il danno diretto causato dal prodotto. In alcuni casi, infatti, l'IA potrebbe creare danni in modo indiretto o inaspettato, rendendo difficile identificare una responsabilità chiara e diretta. La responsabilità per i danni causati da questi sistemi complessi può derivare dall’uso improprio, dal malfunzionamento o anche dalle decisioni che i sistemi stessi sono in grado di prendere in modo autonomo. Questi aspetti richiedono un’analisi molto più approfondita delle normative esistenti, per evitare che vengano lasciati vuoti normativi che possano compromettere la protezione dei consumatori e delle persone coinvolte.

A livello pratico, un altro elemento che necessita di attenzione è la distribuzione delle competenze tra gli Stati membri dell'UE e la difficoltà di trovare un accordo su come affrontare la responsabilità legale nei casi di IA generativa. La proposta di un AILD (Artificial Intelligence Liability Directive) è stata ritirata nel programma di lavoro del 2025, a causa della difficoltà di trovare un punto d'incontro tra le esigenze di armonizzazione delle normative e la diversità dei sistemi giuridici nazionali. Sebbene la proposta sia stata ritirata, non è da escludere che in futuro vengano presentate nuove iniziative normative più allineate con l'AI Act.

In sintesi, la regolamentazione della responsabilità legale per l’IA generativa nell’UE è un processo complesso che implica considerazioni legali, filosofiche e pratiche. La direttiva PLD, in quanto strumento normativo consolidato, potrebbe essere estesa per includere anche l'IA, ma questo richiede un adattamento sostanziale del concetto di prodotto e una maggiore attenzione alle specificità delle tecnologie emergenti. La discussione sulla responsabilità legale per l’IA generativa è solo all’inizio e richiederà ulteriori sviluppi legislativi, con l’obiettivo di garantire una protezione adeguata per i consumatori e una regolamentazione che possa adattarsi alle continue evoluzioni del settore.

Qual è l'approccio verticale alla regolamentazione dell'IA in Cina?

L'approccio adottato dalla Cina nella regolamentazione dell'intelligenza artificiale (IA) si distingue per la sua attenzione al contenuto e alla sicurezza, rappresentando una strategia ‘verticale’ che si differenzia da quella ‘orizzontale’ perseguita dall'Unione Europea. Mentre quest'ultima si concentra su una legislazione generale e globale applicabile a tutti i settori dell'IA, la Cina ha scelto di sviluppare misure specifiche per ciascuna applicazione tecnologica, considerando i rischi intrinseci di ogni settore e implementando regole ad hoc. Questa differenza di approccio ha importanti implicazioni sulla rapidità con cui i regolamenti vengono adottati e sulla flessibilità delle normative stesse.

Dal luglio 2023, la Cina ha introdotto il "Regolamento Interinale per la Gestione dei Servizi di Intelligenza Artificiale Generativa", un documento che si concentra in modo specifico sulle tecnologie emergenti, come i modelli generativi di IA. Questi regolamenti, pur essendo definiti come ‘interinali’, svolgono una funzione cruciale: testare nuove modalità di governance prima che vengano introdotti strumenti legislativi più complessi e permanenti. Questi provvedimenti coprono una vasta gamma di tematiche legate alla sicurezza dei contenuti, tra cui il rischio di disinformazione, discriminazione, violazioni della privacy e minacce alla sicurezza nazionale.

L'approccio ‘verticale’ consente alla Cina di adottare rapidamente misure in risposta alle sfide tecnologiche che emergono, come dimostrato dal rapido processo di approvazione e implementazione delle normative in meno di tre mesi. In confronto, le leggi approvate dal Congresso Nazionale del Popolo spesso richiedono anni di discussione e sviluppo. La regolamentazione specifica di ogni tecnologia consente di affrontare con maggiore precisione i rischi relativi a ciascun campo dell'intelligenza artificiale, senza la necessità di regolamentare l’intero settore in modo uniforme.

Il sistema di regolamentazione in Cina è diviso in diverse aree, tra cui il "Progetto di regolamento per la governance dell'ecosistema dei contenuti informativi online" e i regolamenti per la gestione delle raccomandazioni algoritmiche e delle tecnologie di sintesi profonda. Ogni provvedimento si concentra sul controllo dei rischi legati alla sicurezza e alla manipolazione dei contenuti, un aspetto particolarmente critico nell’ambito dell'IA generativa. Questi regolamenti non solo proteggono l'integrità delle informazioni online, ma cercano di evitare l'abuso della tecnologia, come nel caso della diffusione di contenuti falsi o ingannevoli, o del rafforzamento di pregiudizi già esistenti.

Il vantaggio principale di questa strategia verticale risiede nella sua capacità di rispondere velocemente agli sviluppi tecnologici e alle esigenze emergenti, senza aspettare che si formino ampie leggi generali. Ad esempio, l’adozione delle "Misure Interinali" e il loro rapido aggiornamento, che include il recepimento del feedback pubblico, consentono di applicare in tempi rapidi regolamenti che rispondano alle problematiche attuali.

Tuttavia, è importante notare che queste misure hanno un carattere provvisorio. Esse sono progettate come strumenti esperimentali per sondare l’efficacia di un determinato approccio regolatorio prima che venga sviluppato un quadro normativo più completo. Infatti, dopo l'introduzione delle Misure, la Cina ha lanciato un altro set di standard tecnici, il "Basic Security Requirements for Generative AI Services", che entrerà in vigore nel 2024. Questi standard si concentrano sulla sicurezza dei modelli IA, richiedendo che i fornitori di servizi effettuino valutazioni di sicurezza e migliorino costantemente i livelli di protezione in relazione ai rischi identificati. Tale strumento normativo è funzionale al controllo e alla gestione della sicurezza, fungendo da punto di riferimento per le autorità nel monitoraggio della conformità.

Oltre agli aspetti tecnici, il principale rischio legato all’IA generativa che la Cina intende affrontare riguarda la sicurezza dell’informazione. Le problematiche legate alla diffusione di contenuti falsi, discriminatori o manipolatori sono particolarmente rilevanti in un contesto globale in cui le tecnologie di IA stanno accelerando. Questi rischi non solo riguardano la sfera individuale, ma anche quella della sicurezza nazionale e dell’ordine sociale, con implicazioni significative per la stabilità ideologica e la protezione della privacy dei cittadini.

L'introduzione di misure così mirate e specifiche può risultare vantaggiosa in quanto permette una regolazione più agile e un controllo puntuale sugli sviluppi tecnologici. Tuttavia, la sfida maggiore per la Cina risiede nel garantire che queste regolazioni non finiscano per diventare limitazioni all'innovazione, creando barriere per le nuove iniziative nel campo dell'intelligenza artificiale.

Un ulteriore elemento da considerare è che, nonostante l’efficacia di regolamenti verticali, una struttura normativa completa e omogenea potrebbe rendere più semplice il coordinamento tra le diverse applicazioni dell’IA e offrire un quadro di riferimento unificato per l’intero settore. Questo potrebbe risultare fondamentale se la Cina intende mantenere il passo con le normative internazionali, in particolare quelle europee, che già stanno cercando di stabilire linee guida generali per l’IA.