Risico's zullen beheersbaar zijn. Dit is de gedachte die ten grondslag ligt aan een petitie die eind maart 2023 verscheen, waarin werd gepleit voor een tijdelijke pauze van ten minste zes maanden voor het trainen van AI-systemen die krachtiger zijn dan GPT-4. De toon van deze oproep klinkt wellicht als die van een sciencefictionroman of de uitspraken van de meest extreme activistische groepen, wat het gemakkelijk maakt om het te negeren. Toch heeft dit document, opgesteld door het Future of Life Institute (een non-profitorganisatie die academici en beleidsdeskundigen samenbrengt), duizenden handtekeningen verzameld van leiders in wetenschap en technologie, waaronder enkele van de meest vooraanstaande onderzoekers in kunstmatige intelligentie. Onder hen bevinden zich ondernemers zoals Elon Musk en Steve Wozniak, computerwetenschappers zoals Yoshua Bengio en Stuart Russell, en de historicus Yuval Harari.

De ondertekenaars van dit document riepen op tot een zes maanden durende moratorium voor het trainen van systemen die krachtiger zijn dan GPT-4, om politici en het publiek de tijd te geven te begrijpen wat er gaande is. Dit markeerde het begin van een nieuwe competitie, deze keer niet om het krachtigste systeem te hebben, maar om de meest extreme alarmklok te luiden. Enkele weken later verscheen een andere petitie, deze keer van het Centre for AI Safety, waarin werd gesteld: "Het mitigeren van het risico op uitsterven door AI zou een wereldwijde prioriteit moeten zijn, naast andere maatschappelijke risico's zoals pandemieën en nucleaire oorlog." De petitie verduidelijkte echter niet hoe onze soort zou kunnen uitsterven door AI, hoewel de CEO’s van OpenAI en DeepMind zelf onder de ondertekenaars waren.

Wat we op dit moment zien, is dat systemen zoals GPT-4 een persoon ver overtreffen in de hoeveelheid algemene kennis die ze bezitten, en dat met een aanzienlijke marge. Op het gebied van redeneren is het nog niet perfect, maar het systeem kan al eenvoudige redenaties maken. Gezien de snelheid van de vooruitgang verwachten we dat de situatie snel zal verbeteren. Dit vormt een zorg die we niet kunnen negeren.

Toen de Britse computerwetenschapper Geoffrey Hinton in mei 2023 zijn prominente rol bij Google neerlegde, was het duidelijk dat dit nieuws de wereld zou rondgaan. Hinton, een van de uitvinders van het Backprop-algoritme, dat nog steeds wordt gebruikt om de parameters van Transformers te trainen, was zowel pionier als voorvechter van neurale netwerken. In een interview met de New York Times gaf hij aan enige spijt te hebben over de richting die kunstmatige intelligentie insloeg. In een gesprek met MIT Technology Review gaf Hinton zijn grootste zorg aan: machines die subdoelen kiezen zonder de gevolgen ervan volledig te begrijpen. Hij noemde een extreem voorbeeld om zijn punt te verduidelijken: "Wat als deze robots zouden zeggen: 'Laten we meer energie krijgen. Laten we alle elektriciteit naar mijn chips omleiden.' Of een ander subdoel zou kunnen zijn: 'Laten we meer van onszelf maken.' Klinkt dat goed?" Minder dan twee jaar later zou Hinton de Nobelprijs ontvangen voor zijn werk in machine learning.

De Amerikaanse schrijver H.P. Lovecraft zei ooit: "De oudste en sterkste emotie van de mensheid is angst, en de oudste en sterkste vorm van angst is de angst voor het onbekende." Dit is precies wat we nu confronteren: machines die we niet volledig begrijpen en waarvan we vrezen dat we ze niet kunnen controleren. Beide reacties, zowel de messiaanse als de wantrouwige, komen voort uit deze eenvoudige realiteit: de onbekendheid met wat deze machines werkelijk zijn en wat ze willen. Begrip van de technologie is de enige manier om de angst voor het onbekende te overwinnen.

Wat weten we over de nieuwe agenten die wij zelf hebben gecreëerd? Ze begrijpen de wereld, maar op hun eigen manier. Wat weten zij over ons? Wat weten zij over de richting waarin ze zich ontwikkelen? Ons toekomstige vermogen om de ontwikkelingen rondom AI te sturen kan sterk afhangen van hoe goed we deze vragen beantwoorden.

Alan Turing, die in de vroege jaren 1950 pionierde in de wereld van digitale computers, voorspelde al dat machines ooit in staat zouden zijn om te denken – zij het op hun eigen manier – en dat het slechts een kwestie van tijd zou zijn voordat ze ons in veel opzichten zouden overtreffen. De snelheid van deze evolutie is minstens zo belangrijk als de richting waarin deze zich beweegt. Turing waarschuwde dat we, naarmate machines steeds krachtiger worden, misschien niet altijd in staat zouden zijn om te begrijpen of te controleren wat ze doen.

In 1951, tijdens een van zijn BBC-radio-interviews, sprak Turing over het mogelijk toekomstscenario waarin machines de controle zouden overnemen. Dit idee verwees naar het satirische, dystopische boek Erewhon van Samuel Butler, waarin machines zich zo snel ontwikkelden dat ze de macht overnamen en de mensheid in slavernij dreven. De beweging die in dit verhaal opriep tot een verbod op machines, stelde: "Er is geen zekerheid tegen de uiteindelijke ontwikkeling van mechanisch bewustzijn, zelfs niet wanneer machines momenteel weinig bewustzijn vertonen."

We staan nu voor een soortgelijke situatie, waarin de technologie die we hebben gecreëerd, zich sneller ontwikkelt dan we hadden kunnen voorzien. Deze ontwikkeling roept fundamentele vragen op over de controle die we over deze systemen hebben, en over de ethische en maatschappelijke implicaties van een wereld waarin machines steeds meer beslissingen nemen die de menselijke belangen beïnvloeden. We moeten onszelf de vraag stellen: zijn we in staat om deze ontwikkelingen in goede banen te leiden, of zullen de machines uiteindelijk de controle overnemen?

Hoe AI-systemen zoals GPT-4 onze benadering van intelligentie en cognitie veranderen

In 2023 publiceerde OpenAI de prestaties van GPT-4 op gestandaardiseerde examens in uiteenlopende vakken zoals recht, kunstgeschiedenis, biologie, wiskundige analyse, chemie, macro-economie, natuurkunde, psychologie, Amerikaanse geschiedenis, sommeliervaardigheden en programmeren. Dit onderzoek werpt een nieuw licht op de capaciteiten van AI-systemen en stelt ons voor de vraag: hoe kan een machine in de 90e percentiel presteren op vrijwel alle examenvakken zonder specifieke voorbereiding?

Het is verrassend, en misschien wel verbazingwekkend, dat GPT-4 scores behaalde die de prestaties van veel menselijke deelnemers overtroffen. In de taalsectie van de SAT, bijvoorbeeld, behaalde GPT-4 een score van 710 uit 800, waarmee het beter scoorde dan 93% van de menselijke deelnemers. In de wiskundige sectie scoorde GPT-4 700 uit 800, wat overeenkomt met de 89e percentiel. Deze resultaten waren niet het gevolg van extra training of speciale instructies, maar eerder het gevolg van het vermogen van GPT-4 om uit enorme hoeveelheden gegevens patronen en inzichten te extraheren. In vergelijking met eerdere versies, zoals GPT-3.5, toonde GPT-4 aanzienlijke verbeteringen, wat duidt op een verhoogd vermogen om zowel taal als wiskunde te begrijpen en toe te passen.

Een ander indrukwekkend resultaat was de prestatie van GPT-4 op de Uniform Bar Examination, de standaardtest voor de toelating van advocaten in de Verenigde Staten. GPT-4 behaalde een gecombineerde score van 298, wat het in de 90e percentiel plaatste. Ter vergelijking: GPT-3 had slechts de 10e percentiel bereikt. Ook op het gebied van geneeskunde vertoonde GPT-4 vergelijkbare resultaten, met scores die dicht bij de drempel voor promotie lagen in de medische licentie-examens. Dit suggereert dat GPT-4 in staat is om niet alleen te begrijpen, maar ook toe te passen wat het heeft geleerd in domeinen die een diepgaande kennis vereisen.

Deze prestaties wijzen op de potentie van AI om te functioneren als een veelzijdige en flexibele intellectuele entiteit, in staat om uitmuntende prestaties te leveren in verschillende vakgebieden. GPT-4 kan niet alleen teksten genereren van hoge kwaliteit, maar is ook in staat om problemen op te lossen, te redeneren en zelfs te programmeren. Dit roept de vraag op hoe we de werking van zulke systemen kunnen begrijpen. Hoe redeneert een systeem als GPT-4? Wat maakt het in staat om zo'n breed scala aan menselijke prestaties te benaderen zonder de complexe cognitieve structuren van een mens?

De ontwikkeling van AI zoals GPT-4 heeft belangrijke implicaties voor de toekomst van het onderwijs, het recht, de geneeskunde en zelfs de kunst. In tegenstelling tot de traditionele opvatting van AI als een hulpmiddel dat beperkt is tot specifieke taken, blijkt uit deze resultaten dat AI-systemen steeds meer in staat zijn om complexe, multinationale, multidisciplinaire uitdagingen aan te gaan. Dit zou kunnen leiden tot nieuwe vormen van samenwerking tussen mens en machine, waarbij machines onze capaciteiten aanvullen en zelfs uitdagen.

Het proces van het trainen van AI-modellen, zoals GPT-4, is een goed voorbeeld van wat sommige onderzoekers als 'emergentie' beschouwen: het ontstaan van complex gedrag uit relatief eenvoudige algoritmen en grote hoeveelheden gegevens. Dit fenomeen heeft de potentie om onze kijk op leren en cognitie te veranderen. Als machines in staat zijn om 'intelligentie' te vertonen op manieren die we ons eerder niet hadden kunnen voorstellen, moeten we dan onze benadering van onderwijs en kennisverwerving heroverwegen?

Wat verder interessant is, is dat de prestaties van GPT-4 en vergelijkbare modellen de grenzen van menselijke kennis en vaardigheid beginnen te benaderen. Dit roept belangrijke vragen op over de toekomst van AI. Wanneer machines menselijke capaciteiten hebben geëvenaard, wat kunnen we dan verwachten? Zal de ontwikkeling van AI verder gaan dan de menselijke capaciteit, en zo ja, welke ethische en praktische implicaties zal dat met zich meebrengen?

In deze context is het belangrijk te realiseren dat we slechts aan het begin staan van wat AI kan bereiken. Modellen zoals GPT-4 kunnen momenteel al worden gebruikt in gebieden zoals juridische analyse, medisch advies en wetenschappelijk onderzoek, maar de vraag of we deze technologieën volledig kunnen begrijpen en controleren, blijft open. Er is geen reden om aan te nemen dat de vooruitgang zal stoppen zodra AI systemen de mens heeft geëvenaard. Integendeel, we bevinden ons mogelijk aan de vooravond van een technologische revolutie die onze benadering van kennis, werk en zelfs menselijke intelligentie zelf zou kunnen transformeren.

Het idee van een "universele karakteristiek" – een ideale, onduidelijke taal die verschillende concepten zonder ambiguïteit vertegenwoordigt – werd voor het eerst gepromoot door de filosoof Gottlieb Leibniz. Dit idee had als doel om kennis te systematiseren en te vereenvoudigen, en zou de basis kunnen vormen voor de manier waarop machines met menselijke kennis omgaan. Het concept was bedoeld om een universele, formele representatie van kennis mogelijk te maken, waarin de betekenis van symbolen en hun combinaties strikt gedefinieerd is. Hoewel dit idee oorspronkelijk leek te behoren tot het domein van utopische denkers, zou het in het tijdperk van AI, met de ontwikkeling van modellen zoals GPT-4, opnieuw relevant kunnen worden.

Het blijft een fascinerende vraag hoe AI verder zal evolueren en welke rol het zal spelen in ons begrip van kennis en intelligentie. Wat we echter kunnen concluderen, is dat de toekomst van AI veelbelovend is, niet alleen voor de technologische vooruitgang, maar ook voor de manier waarop we denken over leren, redeneren en zelfs het creëren van betekenis.