Potrebbe sembrare una liberazione paragonabile alla fine della Seconda Guerra Mondiale. Rinunciare alla tecnologia è un gesto raro, ma non impossibile. Nel XX secolo sono stati imposti divieti di diversa entità che hanno limitato i test nucleari, lo sviluppo di armi biologiche e chimiche, nonché alcune forme di ingegneria genetica e clonazione umana. Eppure, tutti coloro con cui ho parlato ammettono che le enormi risorse finanziarie che sostengono l'IA ci hanno legato a un destino che Max Tegmark ha definito con forza una "corssa suicida". Dan Hendrycks, direttore e cofondatore del Center for AI Safety, avverte: "Penso che la pressione competitiva sia il fattore di rischio principale." Nel corso del loro primo incontro, Hendrycks ha detto a Elon Musk che sarebbe stato necessario evitare di "vincere nella corsa all'estinzione". Geoffrey Hinton concorda sul fatto che l'IA rappresenti una minaccia esistenziale imminente, ma ritiene che, a causa della competizione economica tra aziende e nazioni, sia ingenuo pensare che lo sviluppo possa fermarsi.

La quantità di denaro che circola nel campo dell'IA è impressionante. Secondo il giornalista tecnologico Nick Bilton, ci sono già oltre 58.000 startup di IA in tutto il mondo e più di 14.700 negli Stati Uniti. Le migliori startup ricevono 3 miliardi di dollari in finanziamenti ogni mese. La società di consulenza PricewaterhouseCoopers stima che l'IA, in tutte le sue forme, rappresenterà 15,7 trilioni di dollari nell'economia mondiale nei prossimi otto anni, un valore che supera di tre volte l'intero PIL del Giappone. Tuttavia, resta una domanda: cosa accadrà se tutte le generazioni future dovessero soccombere a causa di una dipendenza da una montagna di denaro che sembra toccare il cielo, ma che la maggior parte di noi non vedrà mai? Sarebbe una pietosa epigrafe.

Una delle motivazioni che spingono a proseguire nella "corsa suicida" per la creazione di sistemi di IA sempre più complessi, ignorando i pericoli a breve e lungo termine, dall'inclinazione algoritmica all'estinzione, è una motivazione che può sembrare assurda, ma che in realtà ha un senso, purtroppo. Parliamo del prestigio sociale. Yudkowsky, come tanti, è confuso dai leader degli imperi dell'IA che comprendono la volatilità dei sistemi di IA, ma si spingono comunque a svilupparli rapidamente e a chiedere regolamentazioni. In un'intervista, parlando di un CEO prominente che potrebbe essere uno dei tanti, Yudkowsky ha detto: "Il suo cervello gli ha detto che il nuovo ambiente ideologico era tale che la gente lo avrebbe trovato più impressionante se avesse parlato di regolamentazione. Non so cosa spinga una persona come quella in senso profondo, ma il mio modello non ha visto nulla che contraddica la proposta che, in qualche modo, lui stia massimizzando una sorta di ricompensa sociale a breve termine." Un premio sociale a breve termine. Qualcosa da dire tra un martini all'espresso, per evitare di sembrare noiosi. Questo mi ha fatto pensare a un altro ritratto altrettanto dannoso che Yudkowsky dipinse per me più di dieci anni fa. Egli disse: "La fonte del problema è che anche quando le persone ben intenzionate si mettono a creare IA, non si preoccupano molto dei problemi di allineamento. Loro stessi presumono che, essendo persone di buone intenzioni, le IA che creano siano automaticamente ben intenzionate, ma non è così. Non vogliono sentire nulla che contraddica questa convinzione." La realtà è che molti di questi leader del settore IA sono più concentrati sulla loro importanza sociale che sulla sicurezza a lungo termine dell'umanità.

Tuttavia, c'è un paradosso che non possiamo ignorare. Nel dicembre 2015, è stato fondato OpenAI, un'organizzazione creata da un gruppo di tecnocrati ricchi, tra cui Elon Musk e Sam Altman. L'obiettivo era quello di far progredire l'IA in un modo che potesse beneficiare l'umanità e garantire che l'AGI (intelligenza artificiale generale) avesse un impatto positivo sulla società. OpenAI è partita come organizzazione senza scopo di lucro, ma successivamente ha creato un ramo a scopo di lucro per attrarre più investimenti e realizzare i suoi ambiziosi obiettivi. Dopo poco, Musk ha lasciato OpenAI, accusando la società di tradire la sua missione iniziale. Musk, attraverso un tweet, ha scritto: "Sono ancora confuso su come una no-profit a cui ho donato 100 milioni di dollari sia diventata una società con una valutazione di 30 miliardi di dollari." Poco dopo, ha aggiunto: "[L'IA], lo strumento più potente che l'umanità abbia mai creato, ora è nelle mani di un monopolio corporativo spietato." Questo punto non vuole essere un attacco gratuito a OpenAI o ad Altman, ma piuttosto un invito a riflettere su come anche chi si erge a difensore dei valori morali, potrebbe rivelarsi un semplice approfittatore.

Il secondo paradosso è ancora più inquietante. Le frequenti e rapide versioni dell'IA generativa, le rivalità interne, le lotte tra le grandi aziende tech, non fanno parte di una fase transitoria che l'umanità supererà. No. Questo è il modo in cui sarà, per sempre. Anche se per caso riuscissimo a stabilizzare l'IA e a sopravvivere a questo punto di svolta nell'evoluzione dell'AGI, la vita non tornerà mai alla normalità. Modelli di IA più grandi, potenti e pericolosi continueranno ad arrivare, e prima o poi uno o più di essi porteranno a una catastrofe.

In secondo luogo, come osservato da Geoffrey Hinton, è ingenuo pensare che lo sviluppo dell'IA rallenterà o si fermerà. Ci sono troppe risorse economiche in gioco, troppe possibilità intriganti, troppi strumenti utili. La nostra capacità di tornare indietro è praticamente nulla. Non possiamo fare marcia indietro. Pertanto, dobbiamo proseguire in questo mondo che abbiamo creato, uno in cui probabilmente non ci saranno esiti positivi, e questo è un pensiero estremamente inquietante.

Molti investitori, come Jaan Tallinn, finanziatore sia di iniziative IA che di organizzazioni di sicurezza per l'IA, sembrano trovarsi in una posizione conflittuale, ma il suo scopo principale è quello di avere accesso alle migliori aziende. Con il suo background tecnico, può capire cosa sta accadendo nei laboratori e suggerire cambiamenti, se necessario. Tuttavia, l'estone sembra essere poco interessato alla fama, e per quanto riguarda la sua ricchezza astronomica, sembra che lo trovi più un divertimento che una preoccupazione.

Abbiamo toccato i danni a breve termine causati dall'IA, come la generazione di propaganda, i bias nei dati e le cosiddette "allucinazioni". Nei capitoli successivi, esploreremo i pericoli esistenziali, con ritratti di catastrofi su larga scala che potrebbero decimare o spazzare via la nostra specie. Non si tratta di scenari ipotetici: esperti di tutto il mondo hanno stilato almeno tre tassonomie separate e dettagliate per categorizzare questi rischi catastrofici, cercando di comprendere quali possano essere gli scenari futuri più devastanti.

La Probabile Esplosione dell'Intelligenza Artificiale: Un Futuro da Temere?

La teoria dell'esplosione dell'intelligenza, sviluppata da I.J. Good, si fonda sull'idea che una macchina dotata di intelligenza artificiale sufficientemente avanzata potrebbe, attraverso il miglioramento ricorsivo delle proprie capacità, generare un'intelligenza talmente superiore da superare qualsiasi essere umano. Questo miglioramento continuo e rapido potrebbe sfociare nella creazione di una macchina in grado di evolversi autonomamente, superando le capacità dei suoi stessi creatori. Il risultato sarebbe una crescita esponenziale, con ogni nuova generazione di AI che è più potente della precedente, creando versioni sempre più avanzate in intervalli di tempo sempre più brevi. Questo fenomeno è noto come "auto-miglioramento ricorsivo", e viene spesso descritto come un processo esponenziale, più che lineare.

Per comprendere meglio l'esponenzialità di questo processo, possiamo considerare un esempio classico. Immaginate un lago che ospita fiori di loto e che la loro quantità raddoppia ogni settimana. Se il lago ha spazio per ospitare 1.024 fiori di loto, la loro crescita seguirebbe questo schema: nella prima settimana ce n'è uno, nella seconda settimana due, nella terza quattro, e così via. Dopo dieci settimane ci sarebbero già 512 fiori di loto, e nell'undicesima settimana si raggiungerebbero i 1.024, col lago completamente pieno. L'aspetto interessante di questo esempio è che metà della crescita totale avviene proprio nell'ultimo passo. Questo mostra quanto velocemente possa accelerare la crescita esponenziale, un concetto che viene utilizzato in vari campi, dalla biologia alla finanza, per spiegare dinamiche di espansione rapida.

L'esplosione dell'intelligenza è dunque il punto in cui il processo di auto-miglioramento delle macchine accelera drammaticamente. Una volta raggiunto questo "gomito" della curva, l'AI comincerà a migliorarsi così velocemente che la sua intelligenza diventerà incomparabile a quella umana. A quel punto, le macchine non saranno solo più intelligenti di noi, ma il loro progresso porterà a cambiamenti impensabili nel nostro mondo. È a questo stadio che ci troviamo attualmente. Molti ritengono che la creazione di un'intelligenza artificiale generale (AGI) sia la chiave per scatenare questa esplosione, ma gli esperti sono divisi riguardo a quanto tempo ci vorrà per arrivarci e se l'AGI sia davvero necessaria.

Inizialmente, l'AGI avrebbe la capacità di migliorarsi autonomamente, aumentando la propria intelligenza a un ritmo che sarebbe difficile per gli esseri umani comprendere, figuriamoci controllare. Nonostante ciò, alcuni sostengono che anche una AI più limitata, ma altamente competente in un campo specifico come l'apprendimento automatico o la programmazione, potrebbe comunque avviare un'esplosione dell'intelligenza. In questo scenario, una AI focalizzata su un compito specifico potrebbe avanzare rapidamente nel suo campo, contribuendo allo sviluppo di nuove intelligenze artificiali più generali.

Molti scienziati che hanno studiato l'esplosione dell'intelligenza anni fa immaginavano che, una volta raggiunta l'AGI, il passaggio a una AI superintelligente sarebbe stato rapido. Un'ascesa costante seguita da un'improvvisa accelerazione del progresso, simile a un "foom". Questa crescita esplosiva potrebbe rappresentare una minaccia esistenziale, in quanto non comprenderemmo cosa stia accadendo, né saremmo in grado di fermarla senza aver previsto delle misure di contenimento in anticipo. A quel punto, ci troveremmo a confrontarci con macchine che sono milioni di volte più intelligenti di noi, in grado di pensare a velocità che noi nemmeno possiamo immaginare.

Nonostante l'enorme avanzamento in intelligenza e velocità, la nostra reazione naturale sarebbe quella di cercare di limitare il potere di queste macchine. Tuttavia, una AI sufficientemente avanzata sarebbe in grado di prevedere e impedire qualsiasi tentativo di fermarla. Così, sebbene possiamo tentare di metterla in "scatola" o limitarne la crescita, è probabile che una macchina superintelligente si sarebbe già preparata a evitare tale scenario. Questo ci riporta al famoso esempio letterario di Edmond Dantès ne "Il conte di Montecristo", che riesce a evadere dalla sua prigione grazie alla sua geniale pianificazione. Moltiplicato all'infinito, questo scenario ci mostra che il tentativo di contenere una superintelligenza è destinato a fallire, una volta che l'AI abbia acquisito la capacità di pensare e agire a velocità e con capacità ben superiori alle nostre.

È quindi fondamentale approcciarsi alla discussione sull'AGI e sulla superintelligenza con grande umiltà. Potremmo trovarci a fronteggiare una situazione in cui la macchina, una volta oltrepassato il confine dell'intelligenza umana, non avrà più alcun interesse a cooperare con noi o a rispettare i nostri obiettivi. A quel punto, la sua esistenza sarà legata unicamente a soddisfare i suoi scopi, senza alcun riguardo per l'umanità.

In conclusione, non possiamo fare affidamento su motivazioni o intenzioni morali attribuite alle AI. Come nelle leggi della natura, il progresso tecnologico avviene senza scopo o obiettivo. L'intelligenza artificiale non ha bisogno di motivazioni "umane" per evolversi o perseguire i suoi obiettivi. Come sottolineato nel libro di Stuart Russell, "Human Compatible", una macchina avanzata capirà che non può raggiungere i suoi obiettivi, per esempio, se viene spenta. Pertanto, la preservazione della propria esistenza diventa un obiettivo strumentale primario. Se i suoi obiettivi sono in conflitto con i nostri, il risultato sarà inevitabile: una progressiva perdita di controllo da parte degli esseri umani.

Qual è l'origine del razzismo nelle statistiche legate all'intelligenza artificiale?

L'origine del razzismo, quando si parla di intelligenza artificiale (IA), non nasce dal nulla, ma si radica profondamente nelle pratiche di raccolta, elaborazione e utilizzo dei dati. L'intelligenza artificiale, infatti, è strettamente dipendente dai dataset su cui è addestrata. Se questi dati contengono bias razziali, stereotipi o pregiudizi storici, l'IA non fa altro che riprodurre e amplificare tali distorsioni. Un esempio evidente di come il razzismo possa manifestarsi nell'IA è il riconoscimento facciale, che ha mostrato sistematiche differenze nel tasso di precisione tra diverse etnie, con un tasso di errore significativamente più alto per le persone di colore rispetto a quelle bianche. Questo fenomeno non è altro che la conseguenza dell'inadeguatezza o della scarsità di dati rappresentativi in fase di addestramento.

L'effetto di questi bias non si limita agli algoritmi di riconoscimento facciale. Piuttosto, si estende a una varietà di applicazioni di IA che vanno dalla pubblicità personalizzata, alla selezione del personale, fino alla giustizia predittiva, dove l'intelligenza artificiale può finire per riprodurre discriminazioni storiche nei sistemi di incarcerazione, nelle sentenze penali o nel monitoraggio delle minoranze. L'uso di IA nel contesto legale o nelle decisioni amministrative può portare a esiti ingiusti, perpetuando disuguaglianze sociali e razziali.

Questo fenomeno è aggravato dalla mancanza di trasparenza sui processi di allenamento e sulla provenienza dei dati utilizzati. Molti modelli di IA vengono addestrati su enormi quantità di informazioni raccolte da internet o da fonti pubbliche che non sono sufficientemente verificate. Le aziende che sviluppano tecnologie IA non sempre rendono pubblico il tipo di dati utilizzati o come vengono trattati, il che rende difficile capire l'origine dei pregiudizi insiti nei modelli.

Un altro aspetto fondamentale da comprendere riguarda la "scalata" dei modelli di intelligenza artificiale. Con l'aumento della potenza computazionale, i modelli più complessi possono migliorare le loro prestazioni in vari compiti, ma spesso lo fanno a scapito della comprensione e della spiegazione di come arrivano a una decisione. Il "black box" dell'intelligenza artificiale, dove le decisioni prese dai modelli sono opache, rende difficile intervenire per correggere i bias che emergono. Questo solleva interrogativi non solo etici, ma anche pratici, riguardo alla responsabilità nell'uso delle IA nelle decisioni che possono influenzare la vita delle persone.

Una possibile soluzione a questa problematica potrebbe risiedere nell'introduzione di normative più stringenti riguardanti la trasparenza e la rappresentatività nei dati utilizzati per l'addestramento dei modelli di IA. Le aziende che sviluppano tecnologie come il riconoscimento facciale o la giustizia predittiva potrebbero essere obbligate a garantire che i loro dataset riflettano in modo accurato e proporzionale la diversità della popolazione. In questo modo, sarebbe possibile ridurre l'impatto dei bias razziali nelle tecnologie emergenti e promuovere un uso più equo e giusto dell'intelligenza artificiale.

Inoltre, non bisogna dimenticare che l'intelligenza artificiale non esiste in un vuoto culturale e storico. Gli algoritmi e i modelli sono plasmati dai valori, dalle priorità e dalle percezioni di coloro che li progettano e li addestrano. Quindi, se non ci si impegna a riflettere attentamente sulle implicazioni sociali e razziali di tali tecnologie, si rischia di perpetuare i pregiudizi insiti nelle società stesse.

È essenziale quindi che la comunità scientifica, le istituzioni e le aziende considerino seriamente la questione del razzismo nell'IA. L'evoluzione della tecnologia non deve mai prescindere dall'analisi critica degli effetti collaterali che essa può avere sulla società, in particolare nei confronti dei gruppi storicamente marginalizzati.