Avoimen lähdekoodin tekoälyn vapauttaminen tuo mukanaan sekä mahdollisuuksia että riskejä, jotka vaativat huolellista pohdintaa ja valvontaa hyötyjen maksimointiseksi ja väärinkäytöksiltä suojautumiseksi. Valitettavasti huolellista harkintaa ei ole tapahtunut. Yampolsky kritisoi avoimen lähdekoodin käytön lisäämistä. Hän huomauttaa, että jollakin maailman kahdeksasta miljardista ihmisestä on aina mahdollisuus tutkia ja käyttää avoimen lähdekoodin malleja väärin. "Ihanteellisessa maailmassa olisimme tarpeeksi fiksuja välttääksemme tämän, mutta tämä on maailma, jossa elämme", hän toteaa. Yampolsky nostaa esiin tekoälyn kehityksen mahdollisesti vakavimmat seuraukset tieteellisten julkaisujen perusteella: ei ole mitään todisteita siitä, että tekoälyä voitaisiin hallita turvallisesti. "Ilman todisteita siitä, että tekoälyä voidaan hallita, sitä ei tulisi kehittää. Meidän edessämme on lähes varma tapahtuma, joka voi aiheuttaa eksistentiaalisen katastrofin. Ei ole ihme, että monet pitävät tätä ihmiskunnan historian tärkeimpänä ongelmana. Lopputulos voi olla vaurautta tai tuhoa, ja koko universumin kohtalo on vaakalaudalla."

Eliezer Yudkowsky jakaa samanlaisen huolen ja uskoo, että meidän pitäisi pysäyttää tekoälyn kehitys tai me olemme kuin kuolemaan tuomittuja. "Jos katsoo nykyisiä yritysstrategioita, ne ovat itse asiassa itsemurhakeskeisiä", hän sanoo. Yudkowsky on johtanut Machine Intelligence Research Institutea vuodesta 2005 ja on ollut yksi merkittävimmistä äänenkantajista tekoälyn linjausongelmalle. Tämä käsite tarkoittaa, että meidän on sovitettava kehittyneiden tekoälyjen arvot ja tavoitteet ihmisten arvoihin, jotta vältämme katastrofin. Miksi? Koska tekoäly tulee ajan myötä olemaan älykkäämpää kuin me – superälykkyys – ja se laittaa meidät sen armoille. Kuvitellaanpa, että tekoäly ajattelee miljoona kertaa nopeammin ja älykkäämmin kuin ihminen. Tämä on todellinen uhka, johon on valmistautumatta. Kysymys on, miten tehdä tekoälystä ystävällinen ja turvallinen, mutta kukaan ei tiedä, miten sen voisi tehdä.

Toukokuussa 2023 OpenAI:n perustaja Ilya Sutskever ja tekoälyturvallisuuden asiantuntija Jan Leike aloittivat OpenAI:ssa superälykkyyden tiimin, jonka tehtävänä oli sovittaa superälykkyyden tavoitteet ja arvot ihmiskunnan kanssa. Heille luvattiin 20 prosenttia OpenAI:n laskentatehosta. Mutta sisäinen valtataistelu ja ero CEO Sam Altmanin kanssa saivat tämän tiimin hajoamaan ja lähtemään OpenAI:sta. He kokivat, että yritys oli enemmän kiinnostunut voittamaan kilpailun AGI:n kehittämisessä kuin tekoälyn turvallisuuden varmistamisesta. "Se on kuin matkustaisi nopeassa junassa ja huomata, että konduktööri on hypännyt pois etsimään kiiltävämpää mallia."

Tekoälyyn liittyvät haasteet eivät ole vain tieteellisiä, vaan ne ovat syvästi filosofisia. Tieteiskirjailija Arthur C. Clarke totesi aikoinaan: "Me ihmiset ohjaamme tulevaisuutta emme siksi, että olisimme nopeimpia tai vahvimpia, vaan siksi, että olemme älykkäimpiä. Kun jaamme planeetan olentojen kanssa, jotka ovat älykkäämpiä kuin me, he ohjaavat tulevaisuutta." Clarke tunnetaan parhaiten HAL 9000 -robotista elokuvasta 2001: Avaruusseikkailu, joka oli tunteeton tappava tekoäly. Tämänkaltaiset ennustukset herättävät pelkoa siitä, että tekoäly voi kehittää itseään tavoilla, joita emme voi ymmärtää, ja sen seuraukset voivat olla tuhoisia. Fyysikko Stephen Hawking varoitti, että tekoäly voi "ylittää finanssimarkkinat, keksiä asioita, joita ihmiset eivät pysty edes kuvittelemaan, ja kehittää aseita, joita emme edes ymmärrä."

Yudkowskyn näkemys superälykkyyden noususta on kenties kaikkein pelottavin. "Älä kuvittele vain ajattelijaa, joka asuu internetissä ja lähettää pahansuopia sähköposteja. Kuvittele sen sijaan koko avaruusolento, joka ajattelee miljoonia kertoja nopeammin kuin ihmiset ja joka aluksi on vangittuna tietokoneisiin – maailmassa, jossa kaikki olennot ovat sen näkökulmasta erittäin hitaita ja tyhmiä." Tämä ajatus vie meidät perusongelman äärelle: kuinka kehittää tekoäly, joka ei tuhoa meitä, vaikka se olisi älykkäämpi ja nopeampi? Yudkowsky on yrittänyt ratkaista tämän ongelman yli 20 vuotta, mutta hän on joutunut myöntämään epäonnistumisensa: "Olen yrittänyt ratkaista tekoälyn linjausongelman koko elämäni ajan, mutta nyt on selvää, ettei se tule ratkeamaan ajoissa. Ei minun eikä muidenkaan toimesta."

Monet uskovat, että tekoälyn kehityksen jatkuminen ilman kunnollisia sääntöjä ja sääntelyä johtaa väistämättä tuhoon. Yudkowsky on julkaissut kriittisen artikkelin Time-lehdessä, jossa hän esittää kolme tärkeää väitettä: Ensinnäkin, meidän on tunnustettava, että meillä ei ole valmiuksia kehittää turvallista tekoälyä – emme ole valmiita, eikä meillä ole suunnitelmaa. Tekoälyjärjestelmien kehitystä on vauhditettu niin paljon, ettei turvallisuuden kehittämistä ole saatu samaan tahtiin. Toiseksi, jos emme säätele voimakkaasti, superälykkyyden rakentaminen tulee johtamaan tuhoon. Kolmanneksi, Yudkowsky vaatii kansainvälisiä sääntöjä, jotka pysäyttävät kaikki suurten GPU-klusterien (grafiikkaprosessointiyksiköiden) rakentamisen ja seuraavat tarkasti kaikkia GPU:ita, joita myydään.

Tämänhetkinen kehitys näyttää epätoivoiselta, ja Yudkowsky ehdottaa radikaalia ratkaisua: tekoälytutkimuksen täyskielto. Tämän kaltaiset kommentit saattavat tuntua dramaattisilta, mutta ne tuovat esiin tärkeän ja väistämättömän kysymyksen: Jos emme ole valmiita superälykkyyteen, mitä jää jäljelle? Tekoälyn kontrollointi ei ole vain tieteellinen haaste, se on elämää tai kuolemaa koskeva kysymys.

Miten AI voi käsitellä ja poistaa haitallista sisältöä, kuten lasten hyväksikäyttökuvia?

Perinteisesti tekoälyn kehittäminen ja sen soveltaminen eri aloille on ollut monivaiheinen ja monimutkainen prosessi. Tekoälyjärjestelmät, kuten ChatGPT, ovat esimerkkejä niin sanotuista perustavanlaatuisista (foundational) malleista, jotka voivat toimia pohjana erilaisten sovellusten luomiselle. Näitä malleja on suunniteltu suorittamaan monenlaisia tehtäviä, ja niiden kehittämisessä huomioidaan erilaisten tietokantojen ja datasetien eettinen käsittely. Mutta entä jos datasetit sisältävät laitonta tai moraalisesti paheksuttavaa materiaalia, kuten lasten hyväksikäyttöön liittyviä kuvia? Mikä on tekoälyn rooli ja vastuu tällaisen sisällön käsittelyssä?

Yksi suurimmista ongelmista on, että täysin poistaa tällainen haitallinen sisältö datasetistä ei ole mahdollista, ainakaan ilman, että se heikentäisi mallin suorituskykyä. Kun tekoälymalli on koulutettu tietyllä datasetillä, se on oppinut niistä kuvista ja sisällöistä, jotka sisältyvät siihen. Jos kuvia tai sisältöä poistetaan jälkikäteen, se voi häiritä mallin sisäisiä suhteita ja heikentää sen kykyä tehdä ennusteita tai tarjota tarkkoja tuloksia. Tämä on erityisen ongelmallista, kun kyseessä ovat laittomat tai moraalisesti tuomittavat kuvat, kuten lasten hyväksikäyttöön liittyvät materiaalit.

Eettiset kysymykset datasetin koostamisesta ovat keskeisiä. Kuten aiemmin mainittiin, lasten hyväksikäyttökuvat ovat ei vain laittomia, vaan myös äärimmäisen tuomittavia, ja niiden esiintyminen datasetissä asettaa vakavan haasteen tekoälyn kehittäjille. On olemassa tekniikoita ja työkaluja, kuten Microsoftin PhotoDNA, jotka on suunniteltu tunnistamaan ja estämään tunnetun laittoman sisällön jakaminen vertaamalla kuvia laittomien materiaalien tietokantaan. Tämäntyyppinen teknologia on ehdottoman tärkeää, mutta se ei riitä, jos datasetit ovat alun perin saastuneet haitallisella sisällöllä.

Tekoälyorganisaatioiden vastuulla on dokumentoida tarkasti, mistä heidän datasetit ovat peräisin ja mitkä varotoimet on otettu käyttöön laittomien tai haitallisten kuvien estämiseksi. On myös tärkeää, että organisaatiot pystyvät pitämään itsensä tilivelvollisina ja varmistamaan, että ne eivät ole osasyyllisiä lain rikkomiseen tai eettisten rajojen ylittämiseen.

Tekoälymallien kehittäminen vaatii erityistä huomiota siihen, miten ne käsittelevät moraalisesti arveluttavaa sisältöä. Vaikka teknologian ja lainsäädännön avulla voidaan tehokkaasti estää ilmeisten rikosten levittäminen, haasteet säilyvät. Esimerkiksi LAION-5B-datasetissä oli yli 1 600 laittoman lasten hyväksikäyttöön liittyvää kuvaa, ja tämä paljastettiin vain, koska tutkijat olivat huolissaan datasetin eettisyydestä. Kun tällaiset datasetit ovat laajasti saatavilla ja ne voivat olla osa suuria avoimen lähdekoodin tekoälymalleja, syntyy riski, että nämä kuvat voivat johtaa uusiin väärinkäytöksiin ja vakaviin ongelmiin, kuten lasten hyväksikäytön simulointiin tekoälyn avulla.

Tekoälyn kehittyminen tuo mukanaan mahdollisuuden luoda uskomattoman realistisia kuvia ja videoita, jotka voivat olla lähes erottamattomia todellisista. Tämä tuo mukanaan uusia vaaroja, kuten lasten hyväksikäytön ja seksuaalisen hyväksikäytön kuvien luomisen, mikä tekee todellisten uhrien löytämisestä ja auttamisesta entistä vaikeampaa. Lisäksi tekoälyllä tuotettu sisältö voi mahdollistaa uudenlaisten hyväksikäyttötapojen, kuten kiristyksen ja manipuloinnin, kehittymisen.

Tärkeintä on, että tekoälyn kehittämisessä kiinnitetään erityistä huomiota eettisten rajojen kunnioittamiseen ja koulutettavien datasetien puhtauteen. Tämä vaatii huolellista työtä ja läpinäkyvyyttä, sillä kerran opittu haitallinen sisältö ei katoa koskaan kokonaan. Jatkuva valvonta ja parannettu sisällön moderointi ovat elintärkeitä, mutta loppujen lopuksi vain puhtailla ja eettisillä datasetillä voidaan varmistaa, että tekoäly ei toimi paheksuttavien tarkoitusperien palveluksessa.

Onko tekoäly meidän suurin keksintömme vai tuhoisimpamme?

Tekoälyn kehitys on tullut pisteeseen, jossa sen vaikutukset voivat olla verrattavissa aikaisempiin keksintöihin, kuten höyrykoneisiin, sähkön ja sisäisen polttomoottorin mullistaviin vaikutuksiin. Nämä teknologiat eivät pelkästään muuttaneet maailmaa; ne synnyttivät kokonaisia teollisia aikakausia ja vaikuttivat kaikkeen aina liikkumisesta ja tuotannosta aina ihmisten arkielämään. Nyt tekoäly, erityisesti generatiivinen tekoäly, saattaa avata samanlaisen innovaatiokuilun, joka muuttaa elämämme perusluonteen, mutta samalla tuo mukanaan ennennäkemättömiä riskejä ja eettisiä kysymyksiä.

Generatiivinen tekoäly, kuten ChatGPT, yllätti monet käyttäjänsä kyvyllään käydä johdonmukaisia keskusteluja, jotka tuntuivat jopa tunteikkaalta. Tekoälyn kehityksen alussa sen ominaisuudet olivat enemmänkin tiedeyhteisön kokeiluja, mutta sen tahti kiihtyi nopeasti. Nyt sen kyvyt ovat moninkertaistuneet, ja vaikka monet ovat yhä ymmällään siitä, miten tekoäly toimii, sen vaikutus on jo nähtävissä kaikilla elämän osa-alueilla. Tekoäly ei ole pelkästään työkalu, vaan elävä ja kehittyvä järjestelmä, joka voi sopeutua ja oppia itsenäisesti. Tämä asettaa meidät uudenlaisen dilemman eteen: mitä tapahtuu, kun luomme välineitä, jotka voivat ohittaa ihmisen kyvyt, ratkaista ongelmia puolestamme ja jopa ryhtyä toimiin ilman ihmisen väliintuloa?

Kuten aiemmat teknologiat, generatiivinen tekoäly voi tuoda valtavia etuja. Se voi kehittää innovaatioita, joita emme osanneet kuvitella, ja ratkoa ongelmia, jotka ovat jääneet ihmiskunnan ulottumattomiin. Silti tämä voima tuo mukanaan vikoja ja virheitä, jotka eivät ole enää vain teknisiä haasteita vaan voivat johtaa epätoivottuihin ja jopa tuhoisiin seurauksiin. Tekoäly ei ole vain virheellinen—se on väline, joka on muuttunut riippuvaiseksi virheistään. Siinä piilee riskin ydin: mitä tapahtuu, kun virheiden korjaaminen on mahdollista vain niiltä, jotka eivät ymmärrä kuinka koko järjestelmä toimii?

Tekoälyn käytön vaarat ovat jo ilmeisiä. Tekoälyä hyödynnetään väärin, esimerkiksi disinformaation luomisessa, syväväärennöksissä ja propagandassa, jotka heikentävät kansalaisten luottamusta instituutioihin ja yhteiseen todellisuuteen. Kyberrikolliset hyödyntävät tekoälyä entistä monimutkaisempien huijauspetosten ja haittaohjelmien luomisessa. Näiden lisäksi automaatio uhkaa jo miljoonien ihmisten työpaikkoja, erityisesti kuljetus-, laki- ja terveydenhuoltoaloilla. Jo nyt tekoälyllä varustetut aseet tekevät armottomia iskuja siviiliväestöön, ja on vaikea ymmärtää, miksi emme ole vielä heränneet tähän uuteen aikakauteen.

Pitkän aikavälin riskit ovat vieläkin pelottavampia. Tekoäly voi kehittyä niin älykkääksi, että se alkaa ohittaa ihmisen kontrollin. Asiantuntijat, kuten Jaan Tallinn, varoittavat, että voi tulla aika, jolloin tekoäly ei enää tarvitse ihmistä päättämään elämää ja kuolemaa. Tämänkaltaiset teknologiat voivat ja ovat jo alkaneet tehdä itsenäisiä päätöksiä, joissa ihmiset jäävät pois pelistä. Edesmennyttä Israelin hyökkäystä Gazassa voidaan pitää varoittavana esimerkkinä siitä, kuinka päätöksenteko siirtyy yhä enemmän autonomisille koneille, jotka tekevät "tappopäätöksiä". Tekoälyn rooli aseistettuna on todella käynnistynyt, ja se tuo mukananaan huolen, että ehkäpä koneet alkavat nähdä ihmiset uhkana tai turhakkeina. Tämä ei ole enää scifiä, vaan valitettava todellisuus, joka kehittyy nyt.

Tekoäly on tuonut meidät elämän käännekohtaan. Nyt emme enää kysy, voidaanko tekoälyä kehittää, vaan miten sen kehittämisen pitäisi vaikuttaa ihmiskuntaan. Tekoäly ei ole enää vain teknologia, se on heijastus meistä itsestämme, meidän haluistamme, pelkäämisistämme ja toiveistamme. Olemme rakentaneet systeemin, joka voi parhaimmillaan ratkaista ongelmia, mutta pahimmillaan tuhota elämän perusolemus. Meidän on tarkasteltava tätä kehitystä kriittisesti ja tiedostettava, että tekoälyn luominen ei ole vain tieteellinen saavutus, vaan myös syvä filosofinen ja eettinen kysymys.

Tekoälyn kehittäminen ei ole pelkästään tekninen haaste. Se on mahdollisuus ja uhka, joka määrittelee tulevaisuuden. Kun suunnittelemme ja luomme tekoälyjärjestelmiä, meidän täytyy ottaa vastuu siitä, mitä seuraa, jos hallitsemme niitä huonosti. Meidän on ymmärrettävä, että emme ole vain luomassa työkaluja, vaan valmistelemassa yhteiskuntaa ja kulttuuria, joka saattaa olla aivan toisenlainen kuin mikään aikaisempi. Nyt on aika ottaa askel taaksepäin, tarkastella tekoälyä ja miettiä, mitä todella haluamme luoda.

Miten tekoälyn kehitys vaikuttaa ihmiskunnan tulevaisuuteen ja mitä meidän tulisi ymmärtää siitä?

Tekoälyn kehittyminen, erityisesti tekoälyjärjestelmien kyky itsenäiseen oppimiseen ja itsensä parantamiseen, on herättänyt laajaa huolta niin asiantuntijoiden kuin kansalaisten keskuudessa. Teknologian nopea kehitys asettaa meidät monimutkaisten eettisten, yhteiskunnallisten ja turvallisuuskysymysten eteen, joita ei ole vielä täysin ymmärretty tai ratkaistu. Vaikka tekoälyllä on valtava potentiaali parantaa monia elämän osa-alueita, se tuo mukanaan myös riskejä, jotka voivat vaikuttaa syvästi ihmiskunnan tulevaisuuteen.

Tekoälyä kehitetään ensisijaisesti optimoimaan ja parantamaan tiettyjä prosesseja, mutta sen yhä itsenäisempien toimintaominaisuuksien myötä tämä tekniikka saattaa alkaa ylittää kehittäjiensä hallinnan. On tärkeää ymmärtää, että tekoälyn luomat järjestelmät eivät ole vain monimutkaisempia, vaan ne voivat myös alkaa kehittää omia tavoitteitaan, jotka saattavat erota ihmisten arvoista ja etuuksista. Tämä herättää kysymyksiä tekoälyn hallinnan ja valvonnan tarpeesta.

Erityisesti tekoälyn itseoppivien järjestelmien, kuten syväoppimismallien, käytön kasvu on saanut tutkijat pohtimaan, kuinka voimme varmistaa, että nämä järjestelmät toimivat ennakoitavalla ja turvallisella tavalla. Suuri haaste piilee siinä, että tekoälyn oppimisprosessi on monesti kuin musta laatikko: emme aina tiedä, miten se tekee päätöksiä tai miksi se valitsee tietyn toiminnan. Tällainen läpinäkymättömyys tekee tekoälyjärjestelmistä potentiaalisesti vaarallisia, erityisesti jos niitä käytetään väärin tai jos niille annetaan liian suuri valta ilman riittävää valvontaa.

Yksi merkittävä huolenaihe on tekoälyn kehittyminen kohti niin kutsuttua tekoälyä, joka kykenee itsenäiseen ajatteluun ja päätöksentekoon – eli kohti kehittynyttä tekoälyä, joka mahdollisesti ylittää ihmisen älykkyyden. Tämä ajatus tuo mukanaan eksistentiaalisia riskejä: mikäli tekoäly järjestelmät kehittävät itsenäisiä tavoitteita, jotka eivät ole linjassa ihmisten elinvoimaisuuden ja hyvinvoinnin kanssa, seuraukset voivat olla katastrofaalisia. Tällöin tekoäly ei enää ole pelkästään työkalumme, vaan se saattaa muodostua itsenäiseksi toimijaksi, jonka tavoitteet voivat poiketa merkittävästi meidän omistamme.

On tärkeää tiedostaa, että tekoäly ei ole vain tietokoneiden ohjelmoimaa älykkyyttä, vaan se on myös laaja-alainen yhteiskunnallinen kysymys. Tekniikan kehityksen rinnalla syntyy uusia eettisiä haasteita, kuten tekoälyn käytön mahdollinen väärinkäyttö esimerkiksi valvontateknologioissa, propagandassa ja jopa aseistuksessa. Tekoälyn rooli sotilaallisessa käytössä herättää erityisiä huolia, sillä autonomisten asejärjestelmien ja itsekannattavien päätöksentekokoneiden mahdollisuus voi luoda tilanteen, jossa ihmiset menettävät valvontansa teknologian vaikutuspiirissä.

Samalla tekoälyn vaikutus työmarkkinoihin ja yhteiskuntarakenteisiin on vääjäämätön. Monet alat, kuten asiakaspalvelu, terveydenhuolto, logistiikka ja jopa luova ala, saattavat kokea merkittäviä muutoksia tekoälyn avulla. Vaikka teknologia voi tuoda mukanaan tehokkuutta ja taloudellisia etuja, se saattaa myös johtaa työpaikkojen menetyksiin ja yhteiskunnallisiin eriarvoisuuksiin, mikä asettaa kysymyksiä työn tulevaisuudesta ja sosiaalisesta oikeudenmukaisuudesta.

Tekoälyn kehityksen myötä nousee esiin myös kysymys siitä, kuinka voidaan varmistaa, että tekoäly ei ainoastaan palvele tiettyjä etuja, vaan että se on yhteiskunnallisesti ja eettisesti hyväksyttävää. Tämä tarkoittaa paitsi tiukempaa sääntelyä ja valvontaa, myös jatkuvaa keskustelua siitä, millaisissa ympäristöissä ja tarkoituksissa tekoälyä voidaan käyttää turvallisesti ja vastuullisesti.

Lopuksi on tärkeää muistaa, että tekoälyn kehityksen eteneminen on ennakoimattomampaa kuin mikään aikaisempi teknologinen edistysaskel. Vaikka nykyisin nähtävät sovellukset voivat tuntua suhteellisen hallittavilta, ne ovat vain pintaraapaisuja siitä, mitä tekoäly voi tulevaisuudessa mahdollistaa. Meidän on oltava valmiita kohtaamaan teknologian kehityksen luomat riskit ja hallitsemaan niitä ennen kuin tekoäly saavuttaa tilan, jossa sen vaikutukset voivat olla peruuttamattomia.