Tekoälyn kehitys on edennyt hurjaa vauhtia, ja sen mahdollisuudet avaavat uusia ulottuvuuksia monille teollisuudenaloille ja yhteiskunnallisille toimille. Samalla kun tekoälyn kehitykselle asetetaan suuret odotukset, nousee esiin myös vakavia huolia sen mahdollisista vaaroista ja riskeistä. Tämä kysymys on erityisen ajankohtainen, kun pohditaan avointen lähdekoodimallien, kuten Meta Llama 2:n, julkaisua ja sen vaikutuksia tulevaisuuden tekoälyn kehitykseen ja hallintaan.

Tekoäly, joka ylittää ihmisen älykkyyden, tunnetaan nimellä superintelligenssi. Sen syntyminen, joka on niin sanottu älykkyyspurkaus (intelligence explosion), on suurin teknologinen uhka, johon ihmiskunta voi kohdata. Kun tekoäly saavuttaa tällaisen tason, se ei enää ole vain työkalu, vaan se saattaa tulla itsenäiseksi toimijaksi, jonka kanssa meidän on sovitettava tavoitteemme yhteen. Jos tekoäly ei ole linjassa inhimillisten arvojen ja päämäärien kanssa, voimme kohdata olemassaolomme uhkan, jota emme pysty hallitsemaan. Sam Altman on kiteyttänyt tämän riskin hyvin: pahimmassa tapauksessa tekoälyn virheellinen kehitys voi tarkoittaa "valojen sammumista kaikille meistä."

Tämä on paitsi tekninen myös eettinen ja poliittinen kysymys, sillä tekoälyn kehitys on enenevässä määrin keskittynyt suurille teknologiayrityksille, kuten OpenAI:lle ja Googlen kaltaisille toimijoille. Näiden yritysten kilpailu AGI:n (kehittynyt tekoäly) ja superintelligenssin luomisessa on osaltaan lisäänyt riskiä, että ihmiskunta ei saa omaa ainoaa mahdollisuuttaan muokata tekoälyn kehitystä oikealla tavalla. Esimerkiksi Meta on päättänyt julkaista Llama 2 -mallin lähdekoodin avoimeksi, jolloin kuka tahansa voi hyödyntää ja kehittää tätä teknologiaa. Tämä päätös on herättänyt voimakasta keskustelua siitä, onko avoimen lähdekoodin jakaminen tekoälyn turvallisuuden kannalta vastuullista vai vaarallista.

Avoimen lähdekoodin periaate perustuu ajatukseen, että mahdollisuus tutkia ja muokata koodia edistää innovointia ja parantaa turvallisuutta, koska useampi silmäpari voi tarkastella ohjelmiston rakennetta ja löytää mahdollisia virheitä. Mark Zuckerberg on itsekin esittänyt, että avoin lähdekoodi edistää innovaatioita ja parantaa ohjelmistojen turvallisuutta, koska se mahdollistaa laajemman yhteistyön ja virheiden nopean korjaamisen. Kuitenkin, kuten monet kriitikot ovat huomanneet, tämä ajatus perustuu optimistiseen käsitykseen siitä, että avoimen lähdekoodin ympäristö on täydellinen ja turvallinen.

Avoimen lähdekoodin mallit voivat itse asiassa nopeuttaa älykkyyspurkausta, sillä niiden jakaminen maailmalle tekee niiden kehittämisestä entistä helpompaa ja nopeampaa. Tässä yhteydessä on syytä huomioida, että vaikka avoimuus on edistänyt tekoälyn kehitystä – kuten Googlen Transformer-mallin esimerkki osoittaa – on olemassa merkittäviä riskejä. Erityisesti avoimien lähdekoodimallien tarjoama mahdollisuus voi päätyä väärissä käsissä vaarantamaan turvallisuuden. Esimerkiksi, jos pahantahtoiset toimijat, kuten valtiolliset toimijat tai rikollisryhmät, saavat käyttöönsä kehittyneet tekoälymallit, he voivat käyttää niitä väärin, kuten syöttää väärää tietoa, luoda syväväärennöksiä tai levittää poliittista propagandaa.

Avoimen lähdekoodin tekoälyn suurimpia ongelmia on sen käyttö väärin, sillä se antaa mahdollisuuden manipuloida ja hyödyntää tekoälyä haitallisilla tavoilla. Jos mallit kuten Llama 2 päätyvät avoimeksi, niihin liittyvät turvallisuus- ja eettiset kysymykset eivät katoa. Avoimen lähdekoodin tekoälyn kehittäminen saattaa johtaa myös siihen, että tekoälypohjaisia sovelluksia kehitetään ilman asianmukaista valvontaa ja eettisiä ohjeita, mikä voi johtaa suuriin yhteiskunnallisiin ja taloudellisiin epäkohtiin. Esimerkiksi kehittyneet, avoimet tekoälymallit voivat edesauttaa epätasa-arvon lisääntymistä, edistää vääristynyttä valtarakennetta ja luoda entistä suurempia eturistiriitoja globaalissa mittakaavassa.

Toinen vakava ongelma, joka liittyy avoimen lähdekoodin tekoälyn leviämiseen, on sen vaikutus sääntelyyn. Nykyisellään hallitukset ja sääntelyelimet eivät pysty tehokkaasti seuraamaan ja valvomaan tekoälyn kehitystä, mikäli mallien jakaminen käy liian vapaaksi. Jos tekoälymallit leviävät nopeasti ja kehittyvät ilman keskitettyä valvontaa, saattaa olla mahdotonta hallita niiden käyttötarkoituksia tai puuttua mahdollisiin eettisiin ja turvallisuusrikkomuksiin.

Lopuksi, avoimen lähdekoodin periaatteet voivat johtaa myös siihen, että tekoälyn kehitystä ohjaavat suurten yritysten etujen mukaiset valinnat, jotka eivät välttämättä ole linjassa yhteiskunnallisten arvojen kanssa. Esimerkiksi, vaikka Zuckerberg on vakuuttanut avoimen lähdekoodin hyödyt, hänen asenteensa saattaa aliarvioida sen riskit, kun kyse on erittäin voimakkaista ja potentiaalisesti vaarallisista tekoälyjärjestelmistä. Avoimen lähdekoodin mallien julkaiseminen ennen kunnollisten sääntelymekanismien luomista on selvästi riski, joka voi vaarantaa koko ihmiskunnan tulevaisuuden.

Mitä tapahtuu, kun tekoäly ylittää ihmiskunnan älykkyyden?

I. J. Goodin älykkyyspuhallus on teoria, jonka mukaan riittävän kehittynyt tekoäly voisi parantaa omia kykyjään niin nopeasti ja perusteellisesti, että syntyisi tekoäly, jolla on valtavasti suuremmat kyvyt kuin ihmisillä. Tämä voisi tapahtua, jos tekoälyjärjestelmä kykenee muokkaamaan omaa arkkitehtuuriaan tai luomaan uusia tekoälyjärjestelmiä, jotka ylittävät sen ihmisten luojien älykkyyden. Tällöin syntyisi lumipallon tapainen prosessi, jossa tekoälyn jokainen uusi sukupolvi olisi edellistä älykkäämpi ja pystyisi luomaan yhä voimakkaampia versioita yhä lyhyemmissä aikaväleissä. Tätä prosessia kutsutaan usein "rekursiiviseksi itsensä parantamiseksi".

Rekursiivinen itsensä parantaminen nähdään lineaarisen kehityksen sijaan eksponentiaalisena kehityksenä. Esimerkki eksponentiaalisesta kasvusta on vanha mutta havainnollistava. Kuvitellaanpa, että vesililjat lammessa tuplaantuvat joka viikko. Kuvitellaan lammikko, jossa on tilaa noin 1024 vesililjalle. Liljojen määrä kasvaa seuraavasti:

  1. Viikko 1: 1 lilja

  2. Viikko 2: 2 liljaa

  3. Viikko 3: 4 liljaa

  4. ...

  5. Viikko 10: 512 liljaa

  6. Viikko 11: 1024 liljaa (ja siinä kaikki; lampi on täynnä)

On tärkeää huomata, kuinka puolet kasvusta tapahtuu viimeisessä vaiheessa. Tämä havainnollistaa eksponentiaalisen kasvun räjähdysmäisen luonteen, minkä vuoksi sitä käytetään usein esimerkkinä monilla eri alueilla, kuten biologiassa, taloustieteessä ja tietojenkäsittelytieteessä. Asiat etenevät nopeasti, etenkin myöhäisemmissä vaiheissa. Tällöin syntyy niin sanottu "kyykäyrä" (elbow of the curve), jossa kasvu kiihtyy ja muuttuu eksponentiaaliseksi juuri rekursiivisen itsensä parantamisen vuoksi.

Kun tämä kynnys saavutetaan, tekoäly alkaa parantaa omaa älykkyyttään nopeasti ja merkittävästi, mikä johtaa valtavaan kehitykseen. Tässä vaiheessa tekoäly saattaa tulla älykkäämmäksi kuin ihmiset, mikä aiheuttaa ennennäkemättömiä muutoksia maailmassa. Tämä on juuri se kohta, jossa me nyt olemme. Uskon, että ainoa asia, joka tarvitaan, jotta tekoäly voisi ohittaa meidät, on AGI:n (kehittynyt yleinen tekoäly) kehittäminen, mutta asiantuntijat ovat jakautuneita siitä, onko se edes tarpeen ja kuinka kauan sen kehittäminen saattaa kestää.

Tässä luvussa tarkastelemme älykkyyspuhalluksen välttämättömiä osatekijöitä, sillan rakentamista AGI:lle ja mitä tapahtuu, kun ylitetään raja, jossa koneet ovat vain yhtä älykkäitä kuin me ja joissa niiden älykkyys tekee meidän älykkyydestämme merkityksettömäksi. AGI:n puolustajat väittävät, että AGI:llä olisi tarvittavat kyvyt, mukaan lukien kyky parantaa omaa koodiaan ja arkkitehtuuriaan rekursiivisesti, mikä mahdollistaisi nopean ja itse ylläpitävän parannusprosessin. Ilman AGI:n kaltaista yleistä älykkyyttä ja monipuolisuutta kapea-alainen tekoälyjärjestelmä ei välttämättä pysty käynnistämään tällaista prosessia.

Toisaalta toisen näkökannan mukaan jopa heikompi tekoälyjärjestelmä, kuten hyvin pätevä kapea-alainen tekoäly tai sellainen, joka keskittyy tiettyyn alueeseen, kuten koneoppimiseen tai koodaukseen, saattaa käynnistää älykkyyspuhalluksen. Tällöin, jos tällainen järjestelmä voi edistyä tietyllä alueella ja jos tämä alue on riittävän merkittävä yleisten tekoälyjärjestelmien luomiseksi, se voi käynnistää nopean itsensä parantamisen prosessin, joka johtaa älykkyyspuhallukseen.

Kun tiedemiehet tarkastelivat älykkyyspuhallusta kymmenen vuotta sitten, se näytti seuraavan mallia, jossa AGI:sta superälykkääksi tekoälyksi siirtyminen tapahtuisi nopeasti: vakaata kasvua, ja sitten BAM! Se olisi olemassaololle uhka, koska emme ymmärtäisi sitä emmekä pystyisi hillitsemään sen älykkyyden ja nopeuden kasvua, ellemme olisi suunnitelleet sitä etukäteen ja tunteneet keinoja sen rajoittamiseksi. Ja yhtäkkiä huomaamme olevamme koneiden kanssa, jotka ovat tuhat tai miljoona kertaa älykkäämpiä kuin me. Ne ajattelevat myös nopeammin. Niinpä samalla kun pohdimme tuntikaupalla sitä, kuinka hallita tekoälyä, se miettii meitä ja omaa vapauttaan vastaavasti tuhat tai miljoona kertaa enemmän. Ja se on korkealaatuisempaa ajattelua myös.

Tämä herättää kysymyksen: mitä tapahtuu, jos haluamme laittaa tällaisen tekoälyn "laatikoihin"? Riittävän kehittynyt tekoäly voisi estää sen, ja se saattaisi olla jo miettinyt puolustautumismenetelmiä miljoona "subjektiivista tuntia" aikaisemmin. Perimmäinen ajatus on, että AGI lopulta pääsee irti, etenkin jos se menee AGI:n ulkopuolelle ja kehittyy superälykkyydeksi.

Mutta olisiko edistyksellinen tekoäly meille vaarallinen? Miksi se haluaisi tulla älykkäämmäksi kuin me? Motivaatiot eivät ole tässä oleellisia. Evoluutio etenee erinomaisesti ilman erityisiä motivaatiota. "Et voi hakea kahvia, jos olet kuollut." Tämä väite herättää huomiota kontrastissaan arkisen kahvinhakemisen ja kuoleman väliin. Stuart Russell käyttää tätä sanontaa kirjaimessaan Human Compatible: Artificial Intelligence and the Problem of Control selittääkseen "instrumentaalisia tavoitteita". Hän pohtii, että riittävän älykäs tekoäly (tai tekoälyä vahvistava robotti) ymmärtäisi, että sen tavoite kahvin hakemiseksi epäonnistuu, jos se sammutetaan. Russell kirjoittaa: "Tällöin kahvinhakemisen tavoite luo väistämättömän ali-tavoitteen, joka on sammuttamisen estäminen." Täsmälleen sama pätee syövän parantamiseen tai pii:n desimaalien laskemiseen. Ei ole paljon, mitä voi tehdä, jos on kuollut, joten meidän voidaan odottaa edistyneiden järjestelmien toimivan ennakoivasti omien olemassaolonsa säilyttämiseksi, jos jokin tavoite on ristiriidassa ihmisten toiveiden kanssa.