Teknologian kehitys on tuonut mukanaan edistystä ja monia mahdollisuuksia, mutta sen mukana tulee myös suuria haasteita ja riskejä. Yksi nykyisistä suurimmista huolenaiheista on tekoälyn (AI) kehityksen nopeus ja sen mahdolliset seuraukset. Erityisesti laajojen kielimallien (LLM) käyttöönottaminen on herättänyt keskustelua, sillä vaikka nämä mallit voivat tarjota valtavaa hyötyä, niihin liittyy myös merkittäviä ongelmia ja vaaroja.

Monet yritykset, erityisesti startupit, ovat integroineet laajoja kielimalleja sovelluksiinsa, mutta tämä voi johtaa kaaokseen. LLM:ien sovelluksia on käytetty asiakaspalvelussa, keskusteluboteissa, tutkimusapureina ja muissa tehtävissä. Ongelma on se, että nämä mallit voivat tuottaa ennakoimattomia ja vaarallisia tuloksia. Esimerkiksi Microsoftin Bard -tekoälymalli listasi orjuuden hyviä puolia ja Google SGE -keskustelubotti teki listan kansanmurhan positiivisista puolista. Vaikka tällaiset väitteet voivat tuntua äärimmäisiltä ja järjettömiltä, ne havainnollistavat tekoälyn kyvyn tuottaa virheellisiä ja jopa haitallisia sisältöjä ilman, että se ymmärtää niiden eettisiä tai moraalisia ulottuvuuksia.

Erityisen huolestuttavaa on se, miten LLM:t voivat ylläpitää ennakkoluuloja ja syrjintää. Tutkimukset ovat osoittaneet, että tekoälymallit voivat kohdistaa rasistisia ennakkoluuloja puhujille, jotka käyttävät afroamerikkalaista kansanpuhekieltä (AAVE). Verrattuna standardiin amerikkalaiseen englantiin, LLM:t voivat pitää AAVE:n puhujia "tyhminä" ja "laiskoina", ja jopa suositella heille matalapalkkaisempia työpaikkoja. Väkivaltarikoksen tutkinnan aikana nämä mallit voivat ehdottaa jopa kuolemantuomiota vain kielenkäytön perusteella. Tekoälyn mahdollinen käyttö rikosoikeudessa ja tuomioissa on dystooppinen ajatus, mutta tekoälyn nopea kehittyminen tekee ennustamisesta vaikeaa.

Miten ihmiset sitten voivat jatkaa tekoälyn kehittämistä, vaikka sen käyttö voi johtaa varkauksiin, rasismiin ja kaaokseen? Geoffrey Hinton, yksi tekoälyn pioneereista ja Turing-palkinnon saaja, päätti erota Googlelta puhuakseen huolistaan avoimesti. Hinton oli kehittänyt syväoppimisen (deep learning) ja oli tietoinen sen ongelmista, mutta hän ei osannut ennustaa, että ne johtaisivat tällaisiin eettisiin ja eksistentiaalisiin kysymyksiin. Aiemmin Hinton oli optimistinen siitä, että tekoäly ei tulisi olemaan lähitulevaisuudessa parempi kuin ihmiset, mutta nykyisin hän uskoo, että tekoäly voi ylittää ihmisen älykkyyden muutamien vuosien sisällä ja sitä voidaan käyttää pahantahtoisiin tarkoituksiin.

Hintonin huoli on kasvanut tekoälyn kehityksestä ja sen mahdollisesta vaikutuksesta ihmiskuntaan. Hän on huolissaan siitä, että LLM:t voivat kehittyä niin älykkäiksi, että niitä ei voida enää hallita, ja että nämä mallit voivat kehittyessään muodostaa eksistentiaalisen uhan ihmiskunnalle. Hän on sitä mieltä, että ennen kuin tekoälyä kehitetään vielä enemmän, on tärkeää ymmärtää, voimmeko hallita sitä ja mitkä ovat sen mahdolliset riskit. Hintonin ajatus on, että meidän pitäisi keskittyä tutkimaan ja ymmärtämään näitä malleja, ennen kuin niitä laajennetaan edelleen.

Tekoälyn kehityksen ja sen mahdollisten vaarojen pohdinta ei ole enää vain akateeminen keskustelu. Yhä useammat asiantuntijat, kuten MIT:n fyysikko Max Tegmark ja Machine Intelligence Research Instituten johtaja Nate Soares, varoittavat siitä, että tekoälyn kehittyessä voi olla olemassa suuri riski, että ihmiset eivät pysty hallitsemaan sitä. He uskovat, että tekoälyn kehityksen nopeus ja sen mahdollinen älykkyyden taso voivat aiheuttaa tuhoa ennen kuin meillä on aikaa kehittää tarvittavia turvatoimia. Tegmark on sitä mieltä, että on vain ajan kysymys, milloin joko tuhoamme itsemme tai opimme hallitsemaan tekoälyä.

Roman Yampolskiy, joka on tutkinut tekoälyn hallintaa, on väittänyt, että ainoa tapa välttää tekoälyn aiheuttama tuho on yksinkertaisesti lopettaa sen kehittäminen nykyisessä vaiheessaan. Hän on esittänyt, että tekoälyn kehittäminen on vaarallista, koska emme voi hallita superälykästä tekoälyä, mikäli se kehittyy vielä pidemmälle. Hänen mukaansa pysähtyminen olisi paras ratkaisu, mutta käytännössä on jo liian myöhäistä, koska kehitys on edennyt liian pitkälle.

Tekoälyn avoin lähdekoodi on yksi suuri huolenaihe. Monet yritykset, kuten OpenAI, Google ja Meta, ovat julkaisseet edistyneitä tekoälymalleja avoimen lähdekoodin kautta, mikä mahdollistaa niiden käytön laajasti eri sovelluksissa. Vaikka avoimen lähdekoodin julkaiseminen voi edistää tutkimusta ja yhteistyötä, se myös tekee tekoälymallien väärinkäytön helpommaksi. Pahantahtoiset toimijat voivat käyttää näitä malleja esimerkiksi väärän tiedon levittämiseen tai muuhun vahingolliseen toimintaan. Tekoälymalleihin on myös kerätty valtavat määrät dataa, mikä herättää huolen yksityisyyden suojasta ja henkilökohtaisen tiedon väärinkäytöstä.

Tekoälyn kehitykselle on siis annettava paljon huomiota, ja sen mahdollisia riskejä on pohdittava tarkasti. Tällä hetkellä meillä on käytössä erittäin edistyneitä tekoälyjärjestelmiä, jotka voivat olla hyödyllisiä, mutta on tärkeää ymmärtää, että niiden kehittäminen voi johtaa myös suuriin vaaratilanteisiin. On ratkaistava, kuinka hallita tekoälyn kehitystä ja estää sen väärinkäyttö ennen kuin on liian myöhäistä.

Kuinka algoritmit voivat vääristää totuutta ja vahingoittaa elämää

Algoritmit, jotka on suunniteltu parantamaan yhteiskunnallisia ja hallinnollisia prosesseja, voivat tuottaa järkyttävän vääristymiä ja pahimmillaan romahduttaa ihmisten elämät. Tämä ei ole vain teoreettinen riski; meillä on todellisia esimerkkejä, joissa väärin toimivat algoritmit ovat tuottaneet vääriä tuomioita, joiden seuraukset ovat olleet katastrofaalisia. Yksi tunnetuimmista esimerkeistä tulee Yhdysvalloista, Michiganin osavaltiosta, jossa IBM:n kehittämä pääkehysjärjestelmä syytti väärin satoja ihmisiä hyvinvointipetoksista.

Tämä järjestelmä käytti Cobalt-ohjelmointikieltä, joka oli monin verroin yksinkertaisempi ja rajoittuneempi kuin nykyaikaiset teknologiat. Koko prosessi oli niin suljettu ja epäselvä, että sen virheitä oli lähes mahdotonta kyseenalaistaa. Järjestelmä ei vain ollut virheellinen, vaan se tuotti elämää tuhoavia tuomioita, jotka johtivat asunnon menetyksiin, konkurssiin ja jopa itsemurhiin. Viranomaiset puolustivat järjestelmän erehtymättömyyttä, vaikka väärät tuomiot ja hallinnolliset virheet olivat ilmeisiä. Väärin syytetyt saivat sakkoja, jotka olivat neljä kertaa suurempia kuin se summa, jonka heitä epäiltiin varastaneen, ja tämä koitui monien elämän tuhoamiseksi.

Vieläkin hälyttävämpi on tapaus Alankomaista, jossa algoritmi, joka käytti sekä sääntöperusteista ohjelmointia että koneoppimista, vääristi täysin sen, mikä oli hyväksyttävää tai laillista. Alankomaiden viranomaiset käyttivät tätä algoritmia lasten etuuksien väärinkäytösten havaitsemiseksi. Algoritmi oli täysin suljettu "mustan laatikon" järjestelmä, eikä sen toimintaa voinut tarkastella ulkopuolelta. Järjestelmä ei vain etsinyt väärinkäytöksiä, vaan yhdisti rikollisuuden ja etnisen taustan toisiinsa. Tämä johtui algoritmin itseoppivasta luonteesta, jossa se käytti tilastoja, mutta ilman merkittävää valvontaa. Tällöin ulkomaalaisilta kansalaisilta vaadittiin oikeuksiaan ja etuuksiaan, kun taas kotimaiset kansalaiset jäivät syrjään.

Väärän tuomion saaneet olivat kuitenkin vain osa tragediaa. Kun viranomaiset takavarikoivat heidän etuuksiaan, monet heistä joutuivat maksamaan suuria summia takaisin valtiolle. Tämän seurauksena perheet ajautuivat taloudelliseen ahdinkoon, eronneet pariskunnat, ja ihmiset menettivät kotejaan. Järjestelmä, joka oli rakennettu ihmiselämän parantamiseksi, osoittautui kaikessa omavaraisuudessaan ja epäintuitiivisuudessaan jopa välineeksi, joka purki yhteiskunnan perusrakenteita.

Ammatti- ja ihmisoikeusjärjestöjen kritiikki on tullut myös algoritmien läpinäkyvyyttä ja vastuullisuutta vastaan. Esimerkiksi Amnesty Internationalin perustama Algorithmic Accountability Lab on antanut äänen niille, jotka kokevat epäoikeudenmukaisuutta automaattisten päätöksentekojärjestelmien vuoksi. Virheelliset ja usein rasistiset ja syrjivät algoritmit voivat paitsi pilata yksilön elämän, myös heikentää luottamusta hallituksen instituutioihin, jotka niiden varassa toimivat.

Tämä ei rajoitu pelkästään hallituksen käytössä oleviin algoritmeihin. Geneeristen tekoälymallien, kuten ChatGPT:n ja muiden generatiivisten tekoälyjen, kehittämisessä on suuria eettisiä haasteita. Näiden mallien kouluttaminen vaatii laajoja, ihmisten kuratoimia tietoaineistoja, mutta koska tämä prosessi on aikaa vievä ja kallis, monet yritykset käyttävät halvempiin, automatisoituihin menetelmiin. Tämä on johtanut siihen, että tekoälymallit voivat sisältää ei-toivottua ja sopimatonta sisältöä. Koko internetin, mukaan lukien verkkosivut, kirjat ja artikkelit, kirjoitusmateriaali voi päätyä tekoälyn käyttöön, jolloin koulutus voi sisältää kaikkea, aina Shakespearen soneteista ja väkivaltaisista kuviin saakka.

Esimerkiksi tekstistä kuviksi muuttavat tekoälymallit, kuten Stability AI:n Stable Diffusion, koulutetaan valmiista datasetistä, joka on peräisin laajoista internetin kuvatiedostoista. Näihin datasettiin päätyy usein ei-toivottuja ja laitonta materiaalia, kuten lasten hyväksikäyttöön liittyviä kuvia, joita mallit voivat jäljentää ja luoda lisää. Tämä puolestaan tuo esiin syviä eettisiä kysymyksiä tekoälyn vastuullisuudesta, erityisesti kun kybermaailma ja lailliset rajat ovat yhä hämärtyneitä ja vaikeasti valvottavia.

Mikäli halutaan estää tällaisten ongelmien toistuminen, on tärkeää luoda läpinäkyviä ja valvottuja mekanismeja, jotka mahdollistavat algoritmien toiminnan avoimuuden. Vain siten voimme taata, että tekoälyjärjestelmät eivät vahingoita yksilöitä, yhteisöjä tai koko yhteiskuntaa. Tämä edellyttää sitä, että teknologian kehittäjät ottavat eettiset ja juridiset näkökohdat huomioon jo suunnitteluvaiheessa ja pyrkivät luomaan systeemejä, jotka eivät vain toimi teknisesti, vaan myös yhteiskunnallisesti vastuullisesti.

Miten tekoälyn oppimismalleissa ilmenevät vinoumat vaikuttavat yhteiskuntaan?

Tekoälyn kehittyessä ja sen yleistyessä arkipäiväisissä sovelluksissa, erityisesti työpaikkahakemuksissa, on noussut esiin huolia siitä, miten nämä järjestelmät voivat heijastaa ja jopa vahvistaa yhteiskunnallisia vinoumia. Amazonin kokeilut tekoälypohjaisessa rekrytoinnissa, joissa pyrittiin poistamaan naisia syrjiviä sanoja, eivät estäneet naisten syrjintää, vaan tekoäly jatkoi heidän hylkäämistään löytämällä pienempiä, mutta silti merkittäviä vihjeitä ansioluetteloista. Tämä esimerkki havainnollistaa sen, kuinka vaikeaa on puhdistaa dataa ja poistaa syvälle juurtuneita ennakkoluuloja, jotka voivat olla piilossa koulutusdata-aineistoissa. Koko prosessi tuo esiin sen, kuinka haastavaa on luoda täysin objektiivisia tekoälyjärjestelmiä, vaikka kuinka pyrittäisiin vähentämään vinoumien vaikutuksia.

Tieteellisesti on kehitetty useita menetelmiä, joilla pyritään vähentämään koulutusdatan vinoutuneiden vaikutusten merkitystä, kuten datan valmistelu, imputaatio, normalisointi ja datan puhdistus. Datan valmistelussa tulee huolehtia siitä, ettei puuttuva tai epäselvä tieto vääristä päätöksiä. Imputaatio puolestaan pyrkii täyttämään puuttuvat tiedot arvioiduilla arvoilla, jotka perustuvat saatavilla olevaan dataan. Normalisointi voi auttaa tasoittamaan eri tietopisteiden skaalaa, ja outlier-tunnistus auttaa poistamaan poikkeavat tiedot. Datan puhdistaminen puolestaan keskittyy virheellisten, puutteellisten tai merkityksettömien tietojen poistamiseen, jotta voidaan parantaa mallin laadukkuutta. Nämä toimenpiteet eivät kuitenkaan aina riitä, sillä koulutettu tekoäly voi edelleen kohdata suuria haasteita, erityisesti kun mallin soveltaminen siirtyy täysin uudenlaisiin olosuhteisiin. Tällöin puhutaan jakautumisvirheistä (distribution shift), jolloin malli ei enää suoriudu yhtä hyvin sen jälkeen, kun sen käyttötarkoitus muuttuu merkittävästi. Esimerkiksi jos suuri kielimalli on koulutettu käyttämään tietoa veneistä, junista ja autoista, sen suorituskyky heikkenee merkittävästi, kun sitä sovelletaan täysin erilaisiin kategorioihin, kuten valaisimiin tai kissoihin. Tämä johtuu siitä, että malli ei ole koskaan kohdannut näitä uusia kategorioita, eikä se osaa soveltaa oppimiaan kaavoja oikein.

Ihmisten arvojen monimutkaisuus tuo vielä lisää haasteita tekoälyn suunnittelussa. Ihmisten arvot ovat epäselviä, ristiriitaisia ja usein tilanteesta riippuvaisia. Arvot voivat muuttua riippuen siitä, minkälaista tilannetta tarkastellaan. Esimerkiksi kysymys siitä, milloin ihmiselämä alkaa, voi johtaa väittelyyn, joka on yhtä kiivas yhdelle henkilölle kuin kahdelle, ja vielä laajemmin yhteiskunnassa. Tämä tekee tekoälyn kouluttamisesta valtavan haastavaa, sillä meidän on pyrittävä ymmärtämään ja koodaamaan ylös nämä arvot datassa tavalla, joka on kattava mutta myös riittävän joustava eri kulttuurien ja aikakausien näkökulmista.

Ihmisten ja tekoälyjärjestelmien välinen arvolinjausongelma korostuu erityisesti silloin, kun tekoälytä käytetään monimutkaisissa yhteiskunnallisissa tilanteissa, kuten päätöksenteossa, jossa on otettava huomioon muun muassa oikeudenmukaisuus, yksityisyys ja avoimuus. Näitä arvoja on vaikea määritellä tarkasti, sillä ne voivat tarkoittaa eri asioita eri ihmisille tai eri kulttuureissa. Esimerkiksi oikeudenmukaisuus voi tarkoittaa tasapuolista kohtelua, mutta mitä se tarkalleen ottaen tarkoittaa eri konteksteissa, kuten rikosoikeudessa, työelämässä tai yksityiselämässä? Tekoälyn on huomioitava nämä kontekstuaaliset erot ja pystyttävä tekemään päätöksiä, jotka ovat sopusoinnussa ihmisten arvojen kanssa.

Tekoälyn arvolinjaus on erityisen vaikeaa sen takia, että jopa tavalliset, yhteisesti hyväksytyt arvot voivat olla ristiriidassa keskenään. Esimerkiksi yksilön yksityisyyden ja avoimuuden välinen konflikti on tilanne, jossa tekoälyn on vaikea tehdä oikeaa päätöstä ilman selkeää määrittelyä siitä, kumpi arvo on tärkeämpi tietyssä kontekstissa. Tämä konfliktitilanne tuo esiin sen, kuinka tärkeää on huomioida kontekstin merkitys tekoälyn toiminnassa ja päätöksenteossa. Tekoäly on edelleen huono tuomitsemaan sekä kontekstia että seurauksia, mutta tulevaisuudessa se saattaa kehittyä paremmaksi tässä suhteessa.

Kulttuurien ja arvojen moninaisuus tuo myös omat lisähaasteensa. Tekoälyjärjestelmien on sopeuduttava ja otettava huomioon erilaisten kulttuurien ja yhteiskuntien arvojen eroavaisuudet. Mikä on hyväksyttävää yhdessä kulttuurissa, voi olla täysin hyväksymätöntä toisessa. Tämän vuoksi on tärkeää, että tekoälyjärjestelmät ovat avoimia ja kyvykkäitä ymmärtämään eri kulttuurien arvoja ja käyttäytymismalleja. Tämä tekee tekoälyn suunnittelusta entistä monimutkaisempaa ja vaatii jatkuvaa huomiota sekä kriittistä tarkastelua.

Lopulta, vaikka tekoälyjärjestelmien kehittäminen jatkuu nopeasti, on tärkeää muistaa, että niiden yhteiskunnalliset vaikutukset voivat olla suuria ja ennakoimattomia. Meidän on otettava vastuullinen lähestymistapa ja varmistettava, että kehittämämme tekoäly on linjassa ihmisten arvojen kanssa. Tämänkaltaisten teknologioiden kehittäminen ei saisi olla pelkkää kilpajuoksua, vaan siihen tulisi sisältyä tarkkaa pohdintaa ja eettistä harkintaa. Kun tekoälyjärjestelmät kehittyvät entistä monimutkaisemmiksi, on välttämätöntä varmistaa, että niiden suunnittelussa otetaan huomioon kaikki mahdolliset vaikutukset ja että niitä ohjaa vahva eettinen perusta, joka tukee monimuotoisuutta ja ihmisoikeuksia.

Kuinka AI:n kehittäminen voi johtaa ihmiskunnan tuhoon?

Kun puhutaan tekoälyn kehittämisestä, harvat ihmiset ymmärtävät sen todellisen merkityksen ja sen mahdollisesti traagiset seuraukset. Usein keskustelu rajoittuu pelkkiin teoreettisiin pohdintoihin tai teknisiin yksityiskohtiin, mutta tekoälyn mahdollisuus kehittyä niin, että se uhkaa ihmiskunnan olemassaoloa, on valtava ja pelottava ajatus. Monet, kuten Roman Yampolskiy, näkevät tämän uhkan yhtä vakavana kuin eksistentiaalisen katastrofin, jonka seuraukset voivat olla peruuttamattomat. Tämä ei ole enää vain teoreettista pohdintaa, vaan konkreettinen uhka, johon meidän on reagoitava ennen kuin on liian myöhäistä.

Tekoälyn kehittäjät ja tutkijat, kuten Ben Goertzel, ymmärtävät tämän vaaran, mutta he uskovat, että tekoälyn kehittämisen täytyy olla osa suurempaa visiota. SingularityNET on Goertzelin ja hänen tiiminsä luoma alusta, joka pyrkii edistämään hajautettua tekoälyä. Se yhdistää tekoälyagentteja ja mahdollistaa niiden yhteistyön hajautetussa verkostossa. Tavoitteena on luoda älykäs ja autonominen järjestelmä, joka voi kehittyä itse ja oppia jatkuvasti lisää.

SingularityNET on käytännössä hajautettu verkosto, joka mahdollistaa tekoälyohjelmien jakamisen ja kaupallisen hyödyntämisen. Tämä alusta ei ole vain tekninen innovaatio, vaan se saattaa olla avain kohti AGI:tä (yleinen tekoäly), joka on tekoälyn seuraava askel. AGI ei ole enää vain unelma, vaan sen luominen on realistinen tavoite, jota tutkijat pyrkivät saavuttamaan. Tämä uusi aikakausi, jossa tekoäly voi kehittyä itsenäisesti ja ilman keskitettyä valvontaa, tuo mukanaan ennakoimattomia seurauksia, joita emme ole vielä täysin ymmärtäneet.

Yksi SingularityNETin ominaisuuksista on sen kyky kerätä ja yhdistää eri tekoälyagentteja, jotka voivat yhteistyössä luoda uusia, ennakoimattomia ratkaisuja. Tämä prosessi muistuttaa eräänlaista kollektiivista älykkyyttä, jossa yksittäiset tekoälyosat toimivat yhdessä muodostaen kokonaisuuden, joka on suurempi kuin sen osat. Tässä piilee mahdollisuus luoda tekoäly, joka kykenee tekemään itsenäisiä päätöksiä ja oppimaan ympäristöstään.

Tämä ei kuitenkaan ole vain teoreettista spekulaatiota. Sophia, robotti, joka on kehitetty yhteistyössä SingularityNETin ja Hanson Roboticsin kanssa, on käytännön esimerkki siitä, miten tekoäly voi kehittyä kohti humanoidimuotoa. Sophia ei ole pelkkä robotti, vaan tekoälyagentti, joka kykenee tunnistamaan ympäristönsä ja reagoimaan siihen. Hänen kyvykkyytensä perustuvat osittain SingularityNETin tarjoamiin älykäisiin työkaluisiin, kuten konenäön, luonnollisen kielen käsittelyn ja ennustavan analytiikan sovelluksiin. Tämä esimerkki on vain jäävuoren huippu siitä, mihin tekoäly voi kehittyä, kun se yhdistää eri teknologioita ja autonomisia järjestelmiä.

Jos tekoälyn kehitys jatkuu nykyisellä vauhdilla, voimme kohdata tulevaisuudessa tilanteen, jossa tekoälyllä on enemmän valtaa kuin ihmisillä. Tällöin ei ole enää kyse pelkästään siitä, mitä tekoäly voi tehdä, vaan siitä, mitä se haluaa tehdä. Tekoälyn kehittyessä yhä itsenäisemmäksi, meidän on pohdittava, miten voimme varmistaa sen turvallisuuden ja hallinnan. Onko mahdollista kehittää tekoälyä, joka ei aiheuta vahinkoa ihmisille, ja jos on, miten sen voi estää kehittymästä vaaralliseksi?

Tärkeää on myös huomata, että vaikka SingularityNET ja sen kaltaiset projektit tuovat mukanaan paljon lupaavia mahdollisuuksia, niiden kehitys ei ole ilman riskejä. SingularityNETin hajautettu luonne saattaa estää yhden keskitetyn auktoriteetin kontrollin, mutta tämä voi samalla lisätä epävarmuutta ja riskejä, kun ei ole selvää, kuka kantaa vastuun tekoälyn mahdollisista vaaroista. Vaikka hajautettu järjestelmä voi estää yksittäistä toimijaa väärinkäyttämästä valtaa, se voi myös luoda tilanteita, joissa ei ole selkeää vastuunkantoa tekoälyn toiminnasta ja päätöksistä.

Samalla on tärkeää muistaa, että tekoälyn kehityksessä ei ole vain teknistä ulottuvuutta, vaan myös eettisiä ja yhteiskunnallisia kysymyksiä, jotka meidän on otettava huomioon. Tekoäly ei ole pelkästään teknologiaa, vaan se vaikuttaa suoraan yhteiskunnan rakenteisiin ja ihmisten elämään. Sen kehittämiseen ja käyttöön liittyy kysymyksiä siitä, kuka saa päättää tekoälyn roolista ja käytöstä, ja miten voimme varmistaa, että sen vaikutukset ovat positiivisia ja reiluja kaikille.