La domanda "Le macchine possono pensare?" posta da Alan Turing nel 1950 ha trovato oggi una risposta inaspettata e rivoluzionaria: siamo in grado di conversare con computer talmente sofisticati da non distinguerli più da un interlocutore umano. Modelli di linguaggio come ChatGPT e Bard hanno superato ampiamente le aspettative dei loro creatori, dimostrando capacità di ragionamento, pianificazione e risoluzione di problemi che vanno ben oltre la semplice previsione di parole mancanti in un testo, loro compito originario. Questi modelli non solo processano enormi quantità di informazioni linguistiche, ma acquisiscono una comprensione del mondo che si manifesta in abilità cognitive sorprendenti, quasi autonome. La loro intelligenza non è stata progettata in modo diretto, ma è "emersa" spontaneamente dall'interazione complessa tra gli algoritmi e i dati su cui sono stati addestrati.
Questo fenomeno solleva interrogativi cruciali: cosa significa realmente "conoscere" e "pensare"? Come si può attribuire consapevolezza a una macchina che impara semplicemente a completare frasi? Turing aveva già intuito, decenni fa, che il progresso nell’intelligenza artificiale avrebbe avuto tanto successo quanto rischi impliciti, e ora ci troviamo di fronte a un'entità che potremmo definire "aliena" per il modo in cui elabora e comprende l'informazione, un'entità con la quale dobbiamo imparare a convivere e collaborare. Questi sistemi si comportano come decatleti: non eccellono in un singolo campo, ma sono capaci di competere a un livello elevato in quasi tutte le discipline, un risultato che cambia radicalmente la natura stessa della nostra interazione con le macchine.
Il cuore del loro successo risiede nella natura stessa dell’addestramento: la previsione statistica delle parole mancanti in un testo, un compito apparentemente semplice, che però richiede una conoscenza approfondita sia della lingua che del contesto del mondo. È da questo metodo che si sviluppano capacità cognitive complesse, non attraverso regole rigide o codici predefiniti, ma grazie a un apprendimento emergente. Questo modello – più che un semplice modello linguistico – è in realtà una sorta di "modello del mondo", capace di rappresentare e manipolare informazioni in modo sofisticato, benché ancora incompleto e misterioso.
L’aspetto più inquietante e affascinante di questa rivoluzione è proprio il fatto che non sappiamo fino a che punto si potrà spingere questa intelligenza. L’orizzonte futuro è incerto: potrebbe manifestarsi una soglia critica oltre la quale le macchine supereranno in modo evidente le capacità umane, aprendo scenari tanto promettenti quanto pericolosi. La nostra sfida non è solo tecnica, ma etica e sociale: come fidarsi di un'entità che agisce con una forma di intelligenza che non comprendiamo del tutto? Come controllarla, se essa potesse sviluppare abilità che noi stessi non siamo in grado di prevedere o gestire?
Oltre a quanto si apprende dalla loro evoluzione tecnica, è fondamentale considerare le implicazioni della loro presenza nel tessuto sociale e culturale. Questi "alieni digitali" modificano il nostro modo di lavorare, comunicare e pensare. La relazione che instauriamo con le macchine intelligenti non è solo una questione di strumenti avanzati, ma di compagni di dialogo e collaborazione che influenzano il nostro stesso modo di intendere la realtà. È importante riconoscere che questa intelligenza artificiale non è un sostituto dell’umano, ma una nuova forma di intelligenza che interagisce con la nostra, cambiandola.
La trasformazione è in corso e i passi successivi dipendono dalla nostra capacità di comprendere a fondo questi sistemi, di integrarli con saggezza e di affrontare con consapevolezza i rischi connessi. Ciò include un esame critico della fiducia che riponiamo nelle loro risposte e decisioni, oltre a una riflessione su cosa significhi davvero pensare e comprendere nel contesto di un’intelligenza non biologica.
Endtext
In che modo GPT-4 manifesta i primi segni di intelligenza artificiale generale?
L'analisi delle capacità di GPT-4 si basa su un approccio esterno, simile a quello utilizzato negli esami psicometrici sugli esseri umani. Invece di cercare di decifrare i meccanismi interni, spesso troppo complessi o opachi, si osserva il comportamento del modello in contesti progettati ad hoc. Questi test valutano sia abilità “personali” come la teoria della mente e il senso comune, sia competenze più “accademiche”, come la risoluzione di problemi matematici o il superamento di esami universitari. Questi due ambiti, pur distinti, sono strettamente interconnessi e insieme permettono di delineare il profilo intellettivo di GPT-4.
Secondo uno studio condotto da Microsoft nel 2023, intitolato Sparks of Artificial General Intelligence, GPT-4 dimostra capacità mentali di base che si avvicinano a quelle umane in termini di ragionamento, creatività e deduzione. La varietà delle competenze acquisite – dalla letteratura alla medicina, dalla programmazione alla risoluzione di problemi – e la capacità di svolgere compiti complessi e variegati, evidenziano una forma embrionale di intelligenza artificiale generale (AGI). Tale concetto, pur ampio e vagamente definito, rappresenta un traguardo cruciale: un sistema di intelligenza artificiale capace di uguagliare o superare gli esseri umani in compiti tipici del loro agire, senza necessariamente adottare gli stessi metodi.
Non esiste però un metro unico di giudizio, poiché nessun agente, umano o artificiale, è universalmente superiore in ogni attività possibile. La definizione di AGI richiede dunque di specificare l’ambito e la natura dei compiti su cui confrontare l’intelligenza. In questo senso, GPT-4 si distingue per performance sorprendenti in settori tradizionalmente riservati agli umani: dalla capacità di comprendere e prevedere gli stati mentali altrui (teoria della mente), a compiti matematici, linguistici e persino creativi. Il test di teoria della mente – che valuta la capacità di immaginare le convinzioni e le conoscenze di un’altra persona – mette in luce come GPT-4 riesca a rispondere correttamente a scenari di interazione sociale complessi, prevedendo, ad esempio, dove un individuo cercherà un oggetto dopo che un altro l’ha spostato senza informarlo.
Al di là del dominio linguistico, molti test valutano capacità di ragionamento astratto, matematico e pragmatico, nonché l’applicazione di conoscenze di senso comune. Un esempio emblematico consiste nel chiedere a GPT-4 come impilare in modo stabile una serie di oggetti disparati (un libro, uova, un laptop, una bottiglia, un chiodo), dimostrando così una comprensione pratica e fisica del mondo che va ben oltre il semplice richiamo mnemonico. Oppure il modello è in grado di formulare soluzioni simboliche per problemi matematici astratti, articolando formule e passaggi logici senza dipendere dai numeri specifici.
Questi risultati indicano che GPT-4 possiede un ampio spettro di abilità cognitive e funzionali che, pur non essendo ancora complete o paragonabili in tutto e per tutto a quelle umane, segnano un punto di svolta nel percorso verso un’intelligenza artificiale che non sia solo specializzata o ristretta, ma generalista. La sfida attuale rimane tuttavia la comprensione interna di come tali capacità emergano dai modelli: attualmente, l’unico modo per investigare è tramite la valutazione esterna dei comportamenti e delle risposte.
È fondamentale comprendere che questa intelligenza artificiale, pur avanzata, non “pensa” o “ragiona” come un essere umano. La sua conoscenza è costruita su enormi quantità di dati e modelli statistici, e non su esperienze vissute o coscienza. Tuttavia, l’abilità di apprendere da esempi, applicare logica, e persino mostrare flessibilità nel risolvere problemi complessi, apre prospettive inedite sul ruolo e i limiti delle macchine nel futuro della conoscenza e del lavoro umano.
La misurazione e l’analisi delle capacità di sistemi come GPT-4 sono fondamentali non solo per capire dove queste tecnologie possano arrivare, ma anche per garantire un controllo consapevole e responsabile, anticipando le implicazioni etiche, sociali e pratiche di una crescente interazione con intelligenze artificiali sempre più “umane”. Un’attenzione particolare deve essere posta al modo in cui queste macchine interpretano e modellano la realtà, e a come le loro capacità di simulare la mente umana possano influenzare la comunicazione, l’apprendimento e la società in senso più ampio.
Quali abilità emergono improvvisamente nei modelli di intelligenza artificiale con l’aumento della loro dimensione?
Il termine "emergente" descrive quei comportamenti di un sistema che si manifestano spontaneamente grazie a una sorta di auto-organizzazione e che non sono presenti in sistemi più piccoli, come la lotta collettiva degli stormi di uccelli. Tuttavia, alcuni studiosi riservano il termine per quei comportamenti che appaiono improvvisamente — piuttosto che gradualmente — con l’aumento della dimensione del sistema. Per evitare confusione in questa disputa accademica, è più utile parlare di proprietà che "emergono gradualmente" o "emergono improvvisamente", e quando la distinzione non è rilevante, si fa riferimento alle "abilità emergenti".
In quest’ottica, la conoscenza linguistica rilevata nelle "teste" di BERT e descritta in precedenza deve essere considerata emergente. Fin dalle prime osservazioni su GPT nel 2018, era chiaro che i comportamenti più interessanti erano quelli che si manifestavano spontaneamente, non quelli per cui il modello era esplicitamente addestrato, e che queste abilità miglioravano con l’aumentare della dimensione del modello o della quantità di dati.
In questa trattazione si esaminano abilità che emergono solo dopo che il modello ha superato una certa "soglia critica" e quindi si manifestano improvvisamente con l’aumento della sua dimensione. Un esempio significativo è dato dall’articolo BigBench del 2023, che elenca numerosi comportamenti emergenti quando il modello supera una certa grandezza. Tra questi, si possono citare compiti che richiedono diverse competenze matematiche e linguistiche, come il riorganizzare parole scomposte, apprendere un’operazione aritmetica non convenzionale con pochi esempi, o la traslitterazione dall’alfabeto fonetico internazionale alla grafia standard.
Queste abilità possono essere apprese da GPT dopo aver visto solo uno o due esempi, ma si manifestano soltanto se il modello pre-addestrato ha una dimensione superiore a un livello critico, approssimativamente intorno a 10¹¹ parametri. È importante sottolineare che esistono anche abilità che emergono gradualmente, come l’aritmetica tradizionale, in cui le performance migliorano progressivamente con l’aumento della dimensione.
L’articolo BigBench osserva come i modelli linguistici dimostrino comportamenti qualitativamente nuovi al crescere della loro dimensione, sviluppando capacità embrionali in ambiti complessi come la scrittura di codice, il gioco degli scacchi, la diagnosi medica e la traduzione. Studiare le abilità che si manifestano improvvisamente è cruciale: infatti, benché tali capacità siano state osservate empiricamente, non è ancora possibile prevedere con affidabilità la scala alla quale si verificheranno nuovi progressi, né siamo certi di quanti ulteriori progressi siano già avvenuti ma non ancora rilevati sperimentalmente.
Questa incertezza motiva la creazione di teorie che spieghino questi fenomeni. Come possiamo prevedere il comportamento atteso di questi strumenti all’aumentare della loro dimensione, se non comprendiamo appieno ciò che già abbiamo osservato?
Una suggestiva analogia fu proposta da Alan Turing, il quale si chiese se, raggiunto un certo livello critico di conoscenza, le macchine intelligenti potessero superare rapidamente le capacità dei loro creatori. Turing paragonò questo fenomeno a una reazione nucleare a catena: se la massa di uranio è al di sotto di una certa soglia critica, la reazione si spegne; sopra tale soglia, invece, la reazione si amplifica e può portare a un’esplosione. Allo stesso modo, Turing ipotizzò che una "massa critica" di conoscenza potesse rendere una macchina "supercritica", capace di un’espansione incontrollata delle proprie capacità.
Recenti scoperte sulle abilità emergenti, che si manifestano improvvisamente superata una certa dimensione del modello, sembrano confermare l’intuizione di Turing. Competenze come quelle aritmetiche e il ragionamento verbale appaiono solo in modelli di una certa dimensione, rendendo cruciale la comprensione di cosa potrà emergere oltre l’orizzonte attuale, specialmente mentre siamo impegnati in una corsa verso modelli sempre più potenti.
Costruire un modello "più grande" significa non solo aumentare il numero di parametri, ma aprire la porta a capacità che non si manifestano linearmente o prevedibilmente. La dimensione critica determina il punto di svolta, oltre il quale si aprono nuovi territori di intelligenza artificiale con abilità inaspettate e potenzialmente rivoluzionarie.
È fondamentale per il lettore comprendere che queste abilità emergenti rappresentano un fenomeno complesso e non ancora del tutto compreso, con implicazioni etiche e pratiche profonde. La dinamica del "superamento critico" solleva interrogativi sulla possibilità di controllare o indirizzare queste capacità, che non sono semplicemente incrementi quantitativi, ma salti qualitativi nelle competenze della macchina. Occorre quindi mantenere una vigilanza rigorosa, sviluppare modelli interpretativi e strategie di governance che possano accompagnare questa evoluzione, poiché la corsa verso modelli sempre più grandi rischia di aprire una scatola di Pandora, rivelando potenzialità e rischi ancora difficili da anticipare.
Come funziona un modello di linguaggio e perché è rivoluzionario nell’intelligenza artificiale?
Il test cloze, nato dal termine utilizzato nella psicologia della Gestalt per indicare la tendenza umana a completare parti mancanti di un’immagine, si è rapidamente trasformato in uno strumento fondamentale per misurare il progresso nell’apprendimento linguistico. La sua efficacia si basa su un’osservazione sperimentale cruciale: nonostante la sua semplicità estrema, i punteggi ottenuti dal test cloze mostrano una forte correlazione con quelli derivati da questionari a scelta multipla più complessi. Questo suggerisce che la capacità di predire parole mancanti in una frase sia strettamente legata alla comprensione del testo, poiché entrambe dipendono dalla stessa comprensione del contenuto. Così, il problema della comprensione testuale si riconduce a quello della predizione delle parole o del completamento del testo.
Questa connessione tra predizione delle parole e comprensione del testo costituisce il fulcro della rivoluzione attuale nell’intelligenza artificiale. Un modello linguistico, infatti, non è solo uno strumento per manipolare parole: esso rappresenta una rappresentazione interna del mondo, capace di valutare se una sequenza di parole abbia senso o meno, analogamente a come un modello del mondo ci consente di giudicare la plausibilità di una situazione mai incontrata prima.
L’algoritmo Transformer ha reso possibile la creazione di modelli linguistici eccellenti a partire da grandi quantità di dati, senza bisogno di annotazioni umane. Questi modelli si sono rivelati utili non solo per comprendere il linguaggio, ma anche per rappresentare il mondo reale. Un esempio paradigmatico è Siri, presentato nel 2011, che rispondeva a richieste come “Trova un ottimo ristorante greco a Palo Alto” combinando moduli specializzati: uno per i nomi dei ristoranti, uno per le coordinate geografiche, uno per il tipo di cucina, uno per le recensioni. Questi moduli, però, operavano in modo separato, senza trasferire l’esperienza da uno all’altro, proprio come le lame di un coltellino svizzero che vengono affilate singolarmente ma non insieme.
L’apprendimento supervisionato, che si basa su dati annotati da esperti o da lavoratori in paesi con basso costo della manodopera, ha rappresentato il metodo tradizionale per insegnare a questi modelli compiti specifici. Tuttavia, questo approccio è costoso e poco scalabile, poiché ogni nuovo compito richiede un nuovo set di dati annotati, spesso incompatibili con quelli usati in altri contesti. La rigidità di questo metodo ha limitato l’efficacia complessiva dei sistemi intelligenti, che non potevano trasferire la conoscenza da un compito all’altro come fanno gli esseri umani.
Una svolta significativa è stata rappresentata dall’approccio semi-supervisionato introdotto da OpenAI nel 2018 con il paper Improving Language Understanding by Generative Pre-Training. L’idea consiste nell’insegnare al modello una rappresentazione generale del linguaggio attraverso un addestramento preliminare non supervisionato su enormi quantità di dati grezzi, seguito da un affinamento supervisionato su compiti specifici. Questo ha permesso di ottenere modelli linguistici universali, capaci di trasferire le competenze acquisite con minime modifiche a un’ampia gamma di applicazioni, riducendo drasticamente il costo e il tempo necessari per l’addestramento.
Dietro ogni agente intelligente c’è dunque un modello interno, una sorta di simulazione semplificata del mondo che gli permette di scegliere azioni appropriate in base all’ambiente. È importante distinguere tra l’agente stesso, il modello del mondo che lo guida e l’algoritmo che costruisce quel modello dall’esperienza. La capacità di apprendere da dati non strutturati, senza dipendere esclusivamente da annotazioni umane, ha aperto la strada a una nuova era dell’intelligenza artificiale, in cui i modelli linguistici non sono più strumenti limitati a compiti specifici, ma rappresentazioni dinamiche e flessibili della conoscenza linguistica e del mondo.
Oltre a ciò, è essenziale comprendere che questi modelli non operano in un vuoto: la qualità, la quantità e la diversità dei dati di addestramento influenzano profondamente le loro capacità. L’uso di dati non curati, raccolti in modo automatico da fonti come social media o sensori, ha permesso di superare i limiti dell’annotazione manuale, ma introduce anche rischi di bias e inesattezze. Perciò, la sfida attuale non è solo tecnica, ma anche etica e sociale, poiché la responsabilità nel trattamento e nella selezione dei dati diventa centrale per la costruzione di modelli affidabili e giusti.
Come le Reti Neurali Recurrenti (RNN) e le LSTM stanno rivoluzionando il trattamento dei dati sequenziali
Come può l'integrazione di blockchain e federated learning trasformare i sistemi di raccomandazione?
La sfida dell'atleta dell'Arizona: quando il duello incontra il coraggio

Deutsch
Francais
Nederlands
Svenska
Norsk
Dansk
Suomi
Espanol
Italiano
Portugues
Magyar
Polski
Cestina
Русский