L'Intelligenza Artificiale (IA) sta rapidamente ridefinendo le dinamiche di mercato in vari settori, generando nuove sfide in termini di concorrenza e regolamentazione. La sua integrazione in ecosistemi digitali già esistenti, insieme agli effetti di rete e di feedback, sta portando a situazioni di "tipping" del mercato, in cui un piccolo numero di attori riesce a dominare l'intero settore. Questi fenomeni sono particolarmente evidenti nella catena del valore della GenAI, dove l'aumento del numero di utenti può migliorare esponenzialmente la qualità di un modello, creando un circolo virtuoso che difficilmente può essere contrastato da nuovi concorrenti.

L'effetto di rete, infatti, favorisce i primi entranti. I dati generati dagli utenti vengono utilizzati per perfezionare i modelli di IA, il che aumenta il valore di un servizio di GenAI man mano che guadagna più utenti. Sebbene la qualità del prodotto migliori con il numero di utenti, questo processo è tuttavia complesso e privo di ricerche empiriche definitive che possano dimostrare l'impatto diretto degli effetti di rete sui modelli di IA. I modelli, come ChatGPT, si perfezionano attraverso l'interazione con gli utenti, e quindi un numero maggiore di utenti può realmente migliorare la qualità del servizio. Tuttavia, è importante notare che, al momento, la ricerca empirica sul legame tra gli effetti di rete basati sui dati e la performance dei modelli è ancora limitata.

Questa concentrazione di potere nei mercati digitali ha portato a nuove preoccupazioni riguardo ai comportamenti anticoncorrenziali, soprattutto quando si parla di modelli di business integrati verticalmente. Le aziende che operano in più settori, come Amazon o Microsoft, creano sinergie che aumentano l'efficienza e migliorano l'esperienza del cliente, ma queste sinergie possono anche rappresentare una barriera insormontabile per i concorrenti. Un esempio lampante di questa tendenza è l'integrazione dell'IA nelle soluzioni di Google, che sta migliorando i suoi servizi di ricerca, browser, e suite di produttività con l'ausilio di IA avanzata. Microsoft, dal canto suo, ha sviluppato il CoPilot, integrato in Bing, Edge, Office, e Windows, creando un ecosistema che diventa difficile da sfidare.

Tuttavia, l'integrazione verticale comporta anche rischi di pratiche anticoncorrenziali, come il "tying", il "bundling" e il "self-preferencing". In altre parole, queste grandi aziende potrebbero avere l'incentivo a favorire i propri servizi a scapito di quelli di terzi. La possibilità di accedere alle risorse computazionali da parte dei concorrenti potrebbe essere limitata da queste pratiche, escludendo di fatto i rivali dalle risorse necessarie per competere efficacemente. In tal senso, la questione dell'interoperabilità e della portabilità diventa cruciale per garantire una concorrenza leale.

I modelli di business conglomerati, che combinano diversi settori e prodotti interconnessi, stanno anch'essi giocando un ruolo significativo nei mercati digitali. La crescente interconnessione tra i prodotti digitali potrebbe limitare la competitività se le aziende non permettono l'accesso a terzi o se i mercati non sono aperti alla concorrenza tra ecosistemi. Un'impresa che esercita un potere di mercato su uno degli strati superiori di un ecosistema potrebbe escludere i rivali dai mercati inferiori, sfruttando il proprio potere per escludere o svantaggiare altre aziende. Il problema della portabilità dei dati e delle applicazioni in ambienti cloud è uno degli aspetti chiave in questo contesto, poiché la gestione dei dati e l'integrazione tra i vari fornitori di servizi cloud potrebbe creare significative difficoltà per chi cerca di operare in modo indipendente da un ecosistema dominante.

L'interoperabilità tra modelli e applicazioni è una questione complessa, soprattutto quando si tratta di trasferire modelli di IA come GPT di OpenAI a Llama di Meta. La differenza nelle architetture dei modelli, nelle modalità di addestramento e nei formati dei dati rende queste operazioni difficili da realizzare senza compromettere le performance. In tal senso, le problematiche legate all'integrazione delle API, alla riconfigurazione delle librerie software e alla gestione dei dati si rivelano come sfide importanti che le aziende devono affrontare per riuscire a mantenere una competizione equa.

Infine, la pratica del leveraging nei mercati digitali è una preoccupazione crescente. Quando un'impresa utilizza la sua posizione dominante in un mercato per favorire i propri prodotti in un altro, si creano distorsioni che riducono la concorrenza. Le aziende che controllano i modelli di IA o le risorse dati possono imporre condizioni favorevoli ai propri servizi, limitando l'accesso dei concorrenti e impedendo l'ingresso di nuovi attori. Sebbene i modelli open-source possano rappresentare una via di accesso per nuovi sviluppatori, l'accesso ai sistemi chiusi e la dipendenza dalle politiche aziendali possono essere fattori limitanti che potrebbero ridurre le opportunità di competere in modo equo. La presenza di modelli open-source potrebbe aiutare a ridurre queste barriere, ma il futuro di questo settore rimane incerto e difficile da prevedere.

Come la governance dell'IA sta evolvendo a Singapore: un modello per l'innovazione responsabile

Singapore si è affermata come un leader globale nella regolamentazione dell'intelligenza artificiale (IA), sviluppando un quadro normativo che bilancia l'innovazione con la gestione dei rischi. Un esempio evidente di questo approccio è il "Model AI Governance Framework", che rappresenta un documento dinamico pensato per adattarsi alle rapide evoluzioni tecnologiche, con l'intento di promuovere un utilizzo responsabile dell'IA. La sua seconda edizione, presentata nel 2022, enfatizza l'importanza di un governo interno dell'IA, in cui ogni organizzazione deve definire ruoli chiari e responsabilità per gestire efficacemente i rischi legati all'IA.

Il modello sostiene un approccio che pone l'accento sulla formazione adeguata del personale e sull'adozione di sistemi di gestione dei rischi, garantendo che ogni decisione presa dall'IA sia esaminata e monitorata in modo continuo. Un elemento centrale della seconda versione del framework è l'integrazione della supervisione umana nelle decisioni dell'IA, che deve essere proporzionata ai potenziali danni e gravità degli impatti. Questo processo di valutazione deve essere costantemente aggiornato e adattato alle nuove situazioni.

Al cuore del framework c'è anche la gestione operativa, che si concentra sull'integrità dei dati e degli algoritmi. Prevenire i pregiudizi e assicurare risultati equi da parte dell'IA sono priorità assolute per evitare che l'uso di tecnologie emergenti rafforzi disuguaglianze esistenti. La trasparenza è un altro pilastro: le organizzazioni devono comunicare chiaramente come utilizzano l'IA per generare fiducia tra gli stakeholder. Questo approccio mira a garantire che l'uso dell'IA non solo rispetti gli standard etici, ma anche che sia percepito come tale dalla società.

Inoltre, il "Model AI Governance Framework" incoraggia l'autoregolamentazione all'interno dell'industria, piuttosto che un approccio legislativo rigido, e promuove un equilibrio tra innovazione e gestione dei rischi. I principi che il framework adotta si allineano a quelli più ampiamente accettati in contesti internazionali, come quelli previsti dal regolamento dell'UE sull'IA, e comprendono la trasparenza, l'equità, la spiegabilità, la non discriminazione e il mantenimento del controllo umano. La differenza chiave, tuttavia, sta nell'approccio pratico e proattivo che Singapore adotta nel coinvolgere le imprese, supportandole con risorse finanziarie e tecniche per applicare questi principi all'interno dei propri ambienti aziendali.

Una delle iniziative significative che ha preso piede è il programma AI Verify, lanciato nel 2022. Questo strumento consente alle aziende di testare e valutare l'uso dell'IA in modo responsabile all'interno dei loro sistemi aziendali. In pratica, si tratta di un kit di strumenti integrato che consente alle organizzazioni di fare auditing interno delle proprie soluzioni di IA, contribuendo a garantire che siano conformi agli standard di governance. AI Verify non stabilisce propriamente gli standard etici, ma si integra con vari framework internazionali di governance dell'IA, tra cui quelli sviluppati dalla Commissione Europea e dall'OCSE. La sua interoperabilità è cruciale per proteggere gli interessi di Singapore nella definizione delle regole internazionali per una IA responsabile e affidabile.

Questo strumento rappresenta un passo avanti nell'approccio di Singapore all'adozione dell'IA, dimostrando che il paese non solo riconosce l'importanza della regolamentazione, ma sta attivamente sviluppando soluzioni per applicare questa regolamentazione in modo pratico e misurabile. La creazione di una fondazione, come l'AI Verify Foundation, mira a raccogliere una comunità globale e open source che sviluppi continuamente nuovi strumenti di test per l'IA e migliori le pratiche di governance man mano che emergono nuove sfide.

Inoltre, il modello di governance dell'IA di Singapore offre un equilibrio tra il sostegno pubblico e le iniziative del settore privato, creando un ecosistema in cui la responsabilità è condivisa tra governi, industrie e consumatori. Il ruolo attivo del governo nell'incentivare il feedback da parte delle imprese e nella promozione di iniziative di autovalutazione dimostra un impegno costante verso l'innovazione responsabile.

Per il lettore, è fondamentale comprendere che l'approccio di Singapore non si limita a stabilire regole, ma promuove un cambiamento culturale verso una gestione più etica e trasparente dell'IA. Mentre il modello si adatta e evolve, le imprese devono non solo aderire agli standard normativi, ma anche dimostrare attivamente come gestiscono i rischi legati all'IA in modo che la fiducia del pubblico possa essere continuamente rafforzata. L'interazione tra governo, industria e comunità rappresenta la chiave per costruire un ecosistema digitale che sia al tempo stesso innovativo e responsabile.