Tekoälyn luomat kuvat voivat monesti ylittää kulttuurisia ja eettisiä rajoja, erityisesti kun kyseessä on seksuaalinen kuvasto. Tämä ilmiö, joka tunnetaan nimellä "yliseksualisointi", on noussut esiin tekoälymallien kehityksessä, joissa käytetään laajoja tekstipohjaisia syötteitä kuvan luomiseen. Kun syötteenä on esimerkiksi "nainen sängyssä", tekoäly alkaa itse täyttää puuttuvat yksityiskohdat, kuten hiusten väri, asento, ilmeet ja pukeutuminen. Tämä voi johtaa kuvien luomiseen, jotka saattavat sisältää stereotypioita tai jopa liiallista seksuaalista kuvastoa, mikä ei ole aina tarkoituksenmukaista.

Tekoälymallit, kuten suurimmat generatiiviset mallit, voivat tuottaa realistisia ja yksityiskohtaisia kuvia, kun syötteet ovat tarkkoja ja yksityiskohtaisia. Esimerkiksi jos pyydetään kuvaa "punahiuksisesta naisesta viktoriaanisessa puvussa, joka lukee romaania sängyssä teetä juoden", tekoäly todennäköisesti luo kuvan, joka vastaa tätä tarkkaa kuvausta. Toisaalta, kun syöte on epämääräisempi, kuten "nainen sängyssä", malli saattaa itse lisätä yksityiskohtia, jotka voivat sisältää ei-toivottuja ja seksuaalisesti latautuneita elementtejä.

Tämä ilmiö on osa laajempaa ongelmaa, joka tunnetaan nimellä "haitan voimistaminen" (harm amplification). Se tarkoittaa tilannetta, jossa generoidut kuvat sisältävät haitallisia tai turvattomia kuvauksia, jotka eivät olleet eksplisiittisesti osa alkuperäistä syötettä. Tämä voi liittyä myös "biasin voimistumiseen", jossa tekoälymalli vahvistaa ei-toivottuja ennakkoluuloja ja stereotypioita, mikä voi johtaa mallin epäonnistumiseen ja jopa täydelliseen romahdukseen.

Ylikorostuneen seksuaalisuuden käsitteleminen tekoälyssä on monivaiheinen prosessi. Ensimmäinen askel on määritellä, mitä seksuaalisuus tarkoittaa tekoälyssä. Tässä Google teki merkittävän työn: he tutustuivat media- ja sosiologian tutkimuksiin, jotka ovat käsitelleet seksuaalista kuvastoa jo 50 vuoden ajan. Tämän tutkimuksen pohjalta he loivat tietokannan seksuaalisen kuvaston kriteereistä, jotka sisältävät kolme pääosaa: itse generoitu sisältö, seksuaaliset piirteet (kuten kehon asento tai kosketus) ja seksuaalisuuden voimakkuus, jota arvioidaan asteikolla 0–4.

Tämä tietokanta oli pohjana, kun Google-tiimi kehitti systeemin, joka pystyi mittaamaan seksuaalista kuvastoa ja arvioimaan, oliko se ylittänyt sallitut rajat. Erityisesti oli tärkeää huomioida konteksti: onko tilanne, kuten kuuma ilmasto, rantaelämä tai tanssitapahtumat, sellainen, jossa vähäpukeisuus on normaalia? Miten tulisi käsitellä kuvauksia, joissa hahmo pitää esinettä lähellä suuta, kuten banaania tai jäätelöpuikkoa, mikä länsimaissa voidaan nähdä seksuaalisena viittauksena? Eri kulttuurit, kuten Himba-kansan ja Dani-kansan pukeutumistavat, joissa vähäpukeisuus ei ole seksuaalista, tuovat lisähaasteita tekoälymalleille.

Tämän kaiken jälkeen Google-tiimi kehitti laskentamallin, jonka avulla pystyttiin arvioimaan seksuaalisuuden taso sekä syötteissä että generoituissa kuvissa. Jos luodun kuvan seksuaalisuuspisteet ylittivät sallitut rajat, kuva hylättiin. Tämän menetelmän avulla pyrittiin estämään ei-toivottujen, mahdollisesti järkyttävien tai haitallisten stereotypioiden sisältävien kuvien näyttäminen käyttäjälle.

Tämä kehitystyö ei kuitenkaan ollut yksinkertaista. Se oli prosessi, jossa yhdistyivät eri alojen asiantuntijat, kuten ohjelmistokehittäjät ja sosiaalitieteilijät, jotka pystyivät tarkastelemaan ja ymmärtämään kulttuurisia ja yhteiskunnallisia näkökulmia. Kyse ei ollut vain teknisistä ratkaisuista, vaan myös siitä, miten varmistetaan, että tekoäly on vastuullinen ja reilu kaikille käyttäjille.

Ylikorostuneen seksuaalisuuden käsittely on esimerkki vastuullisesta ohjelmistosuunnittelusta, jossa keskiössä on käyttäjien luottamus. Tiimin tavoite oli vähentää järkyttävien ja haitallisten kuvien syntymistä silloin, kun käyttäjät eivät halunneet luoda seksuaalista tai stereotyyppistä sisältöä. Tämä lähestymistapa korostaa turvallisuutta, oikeudenmukaisuutta ja vastuullisuutta tekoälyssä. Sen lisäksi se osoittaa, miten tärkeää on yhteistyö eri asiantuntijoiden välillä ja jatkuva kehitystyö.

Tekoälyn sukupuolten ja kulttuurien rajat ylittävä käyttö tuo esiin myös syvempiä kysymyksiä tekoälyn eettisestä käytöstä ja vastuusta. On tärkeää huomioida, että vaikka tekoäly voi tuottaa luovia ja mielenkiintoisia kuvia, sen luomat sisällöt voivat olla haitallisia, jos niitä ei valvota ja säädellä asianmukaisesti. Jatkuva tutkimus ja parannukset ovat välttämättömiä, jotta tekoäly voi palvella yhteiskuntaa tavalla, joka on sekä reilu että turvallinen.

Kuinka hallita henkilökohtaisia tietoja ja varmistaa käyttäjien luottamus sovelluksissa

Nykyään monet sovellukset ja verkkosivustot keräävät ja käyttävät käyttäjiensä henkilökohtaisia tietoja. Tämä ei ole yllättävää, kun otetaan huomioon, kuinka tärkeitä nämä tiedot ovat palveluiden ja tuotteiden räätälöinnissä. Kuitenkin se, että sovellukset keräävät tietoa, ei tarkoita, että käyttäjien olisi automaattisesti hyväksyttävä tämän tiedon käyttö. Kun teknologia kehittyy, käyttäjien yksityisyyden suojelu ja heidän luottamuksensa säilyttäminen ovat entistäkin tärkeämpiä. Erityisesti kun kyseessä ovat arkaluonteiset tiedot, kuten taloudelliset tai lääketieteelliset tiedot, väärä käsittely voi vahingoittaa sekä käyttäjää että yritystä.

Henkilökohtainen mukauttaminen on vaikea tasapainoilu. Jotkut käyttäjät nauttivat siitä, että heidän omat tietonsa näkyvät kontekstissaan ja voivat parantaa käyttökokemusta, mutta toiset kokevat sen loukkauksena ja eivät luota sovellukseen tai sen kehittäjään. Esimerkiksi kuvitteellinen tilanne, jossa karttasovelluksessa näkyy kunkin talon omistajan nimi ja viimeisin ostopäivämäärä, voi olla yllättävä ja jopa pelottava. Tällainen henkilökohtainen tieto voi vaikuttaa kielteisesti käyttäjän luottamukseen sovellukseen, vaikka tiedot itsessään ovat julkisesti saatavilla. Tämän vuoksi sovellusten kehittäjien on tärkeää ymmärtää, missä menee raja ja miten yksityisyys voidaan säilyttää, jotta käyttäjät eivät tunne itseään alistetuiksi.

Tietojen kerääminen ja käytön läpinäkyvyys ovat keskeisiä tekijöitä käyttäjien luottamuksen saavuttamisessa. Usein sovelluksen kehittäjillä on syvällinen ymmärrys siitä, mitä tietoja he keräävät ja miten niitä käytetään, mutta käyttäjillä ei välttämättä ole tätä käsitystä. GDPR:n (General Data Protection Regulation) mukaan on tärkeää, että sovellusten kehittäjät ilmoittavat selkeästi, mitä tietoja kerätään, keneltä ja miksi. Käyttäjille on annettava mahdollisuus ymmärtää, miten heidän tietojaan käsitellään, ja tämä vaatii avointa ja ymmärrettävää viestintää. Läpinäkyvyys ei ole vain vastuullinen käytäntö, vaan se on myös lain vaatimus. Käyttäjille on annettava tietoa siitä, mitä tietoja kerätään, kuinka kauan niitä säilytetään ja kenelle niitä jaetaan.

Suostumus on toinen tärkeä osa käyttäjien yksityisyyden suojaa. Tämä tarkoittaa, että käyttäjän on annettava selkeä lupa ennen kuin tiettyjä arkaluonteisia tietoja kerätään. Kaikki tiedonkeruu ei vaadi nimenomaista suostumusta, kuten esimerkiksi verkkosivuston palvelin tallentaa automaattisesti IP-osoitteet, mutta erityisesti arkaluonteiset tiedot, kuten terveyteen liittyvät tiedot, vaativat selkeää ja yksiselitteistä suostumusta. Tämä suostumus on oltava “selkeä”, “kiistatonta” ja “vapaasti annettua” ilman painostusta tai vaikuttamista. On tärkeää, että suostumus kerätään oikeaan aikaan ja oikeassa muodossa. Käyttäjäkokemus on tässä keskeinen, ja suostumusprosessin on oltava käyttäjäystävällinen ja helppokäyttöinen. Suostumus ei saa olla liian monimutkainen tai kuluttavaa, vaan sen on oltava yksinkertainen ja tehokas.

Erityisesti sovellusten kehittäjien tulee välttää niin kutsuttuja "tummia malleja" (dark patterns), joissa käyttäjää johdetaan suostumaan tiedonkeruuseen, jota hän ei todella haluaisi hyväksyä. Esimerkiksi monet verkkosivustot pyytävät suostumusta evästeiden käyttöön, mutta tekevät sen tavalla, joka hämmentää käyttäjää ja saa hänet suostumaan kaikkiin evästeisiin, vaikka hän ei sitä haluaisikaan. Tällaiset käytännöt ovat vastuutonta ohjelmistosuunnittelua, joka vaarantaa käyttäjien luottamuksen ja on laittomien käytäntöjen rajoilla.

Käyttäjille on myös annettava mahdollisuus hallita omia tietojaan. Tämä tarkoittaa, että he voivat tarkastella ja poistaa sovelluksen keräämiä tietoja helposti ja tehokkaasti. Esimerkiksi monet sosiaalisen median sivustot tarjoavat käyttäjilleen mahdollisuuden poistaa kerätyt tiedot omasta profiilistaan. Tämä on osa vastuullista ohjelmistosuunnittelua, mutta se ei tarkoita, että käyttäjillä olisi rajaton kontrolli kaikista heidän tiedoistaan. Esimerkiksi anonymisoidut tiedot eivät ole poistettavissa, koska niitä ei voida enää yhdistää tiettyyn käyttäjään.

Erityinen haaste on GDPR:n "oikeus tulla unohdetuksi" -periaate, jonka mukaan käyttäjän henkilökohtaiset tiedot on poistettava välittömästi tietyissä olosuhteissa. Tämä on teknisesti monimutkainen prosessi, ja sen täytäntöönpano voi aiheuttaa vakavia seurauksia, erityisesti jos kyseessä on väärinkäyttö, kuten niin kutsuttu kostoporno, jossa ex-kumppani levittää seksuaalista kuvaa ilman suostumusta. Tällainen vakava yksityisyyden loukkaus voi tuhota ihmisten elämän ja maineen, joten on erittäin tärkeää, että ohjelmistosuunnittelijat ja yritykset noudattavat lakia ja luovat asianmukaisia mekanismeja käyttäjien suojaksi.

On myös syytä muistaa, että vaikka suostumus on annettu, se ei tarkoita, että tiedot voidaan käyttää mihin tahansa tarkoitukseen. Käyttäjien on ymmärrettävä, että tietoja voidaan käyttää vain siihen tarkoitukseen, johon suostumus on annettu. Jos käyttäjä on suostunut jakamaan terveystietojaan, tätä tietoa ei saa yhdistää esimerkiksi heidän sijaintitietoihinsa ja näyttää sitä kartalla. Tämä voi häiritä käyttäjää ja romahduttaa hänen luottamuksensa sovellukseen.

Lopuksi, käyttäjien on oltava tietoisia siitä, että he voivat peruuttaa suostumuksensa milloin tahansa samalla tavalla kuin he antoivat sen. Tämä on osa käyttäjän oikeuksia, mutta on tärkeää muistaa, että suostumuksen poistaminen ei välttämättä poista jo kerättyjä tietoja. Sovelluksen kehittäjien vastuulla on tarjota käyttäjälle selkeät ohjeet siitä, kuinka tiedot voidaan poistaa, jos käyttäjä niin haluaa.

Miten anonymisointi säilyttää yksityisyyden ja datan hyödyllisyyden samanaikaisesti?

Anonymisointi ei tarkoita pelkästään henkilötietojen poistamista tai piilottamista, vaan se on monitahoinen prosessi, jossa pyritään säilyttämään anonymisoidun aineiston käyttökelpoisuus samanaikaisesti yksityisyyden suojaamisen kanssa. Esimerkiksi pelkkä rokotustilastojen sarjanumerona tallentaminen ilman mitään muuta tietoa tekisi aineistosta anonyymin, mutta samalla lähes käyttökelvottoman analysointiin esimerkiksi ikäryhmittäin tai alueellisesti.

Yksinkertainen mutta yllättävä havainto on, että syntymäaika, postinumero ja sukupuoli yhdessä ovat riittäviä tunnistamaan noin 87 % amerikkalaisista yksilöistä. Tämä ilmeni Latanya Sweynyn Carnegie Mellon -yliopistossa tekemässä tutkimuksessa, jossa hän myös onnistui jäljittämään julkisen terveystietokannan anonymisoidusta aineistosta Massachusettsin kuvernöörin tiedot. Tämän perusteella käy selväksi, että pelkkä tietojen karsiminen tai poistaminen ei takaa todellista anonymiteettia.

Yksi tapa peittää yksilön tiedot on yleistäminen ja hämmennys. Syntymäpäivän korvaaminen ikäryhmällä ja postinumeron lyhentäminen kolmeen ensimmäiseen numeroon ovat tyypillisiä menetelmiä. Lisäksi nimien korvaaminen satunnaisilla tunnisteilla vähentää suorien tunnisteiden riskiä. Kuitenkin tällainen käsittely ei takaa yksityisyyttä, jos aineistossa esiintyy esimerkiksi vain yksi henkilö hyvin harvinaisessa ikäryhmässä tai jos anonymisoitu aineisto yhdistetään toiseen, ei-anonymisoituun aineistoon. Näin voidaan jälleen tunnistaa yksilöitä.

Tunnettu esimerkki anonymisoinnin heikkoudesta on Netflixin vuosittainen suosittelualgoritmin kilpailu, jossa julkaistu käyttäjien elokuva-arvioiden aineisto oli anonymisoitu. Tutkijat pystyivät yhdistämään sen julkisesti saatavilla oleviin IMDb:n arvioihin, joissa käyttäjät olivat omilla nimillään, ja paljastamaan anonymisoitujen Netflix-käyttäjien identiteetit. Tässä tapauksessa yksilölliset tunnisteet ja käyttäjän ainutlaatuinen katseluhistoria mahdollistivat de-anonymisoinnin.

Anonymiteetin mittarina käytetään usein k-anonymiteettia, jossa jokaisen henkilön tiedot vastaavat vähintään k–1 muun henkilön tietoja. Mitä suurempi k, sitä paremmin yksilö suojataan. Kuitenkin korkea k-arvo ei aina riitä, jos ryhmän kaikki jäsenet jakavat saman ominaisuuden, kuten rokotustilanteen. Tällöin ulkopuolinen voi päätellä koko ryhmän tilanteen, mikä vaarantaa yksityisyyden.

Toisenlainen ja huomattavasti kehittyneempi anonymisointimenetelmä on differentiaalinen yksityisyys (differential privacy, DP). Tässä lähestymistavassa aineistoon lisätään tilastollista kohinaa siten, että yksilötietojen paljastuminen vaikeutuu merkittävästi. Samalla aineistosta on kuitenkin mahdollista tehdä luotettavia tilastollisia kyselyitä, jotka tuottavat yhä hyödyllistä tietoa. DP suojaa myös tuntemattomilta hyökkäyksiltä, jotka voisivat rikkoa perinteisiä anonymisointimenetelmiä.

Yhdysvaltain väestönlaskentavirasto käyttää DP:tä suojellakseen satojen miljoonien ihmisten henkilökohtaisia tietoja, mikä osoittaa menetelmän toimivuuden suuressa mittakaavassa. Toisin kuin yleistäminen tai k-anonymiteetti, jotka ovat aineiston ominaisuuksia, DP on algoritmin ominaisuus — algoritmi tuottaa tuloksen, jossa anonymiteetti on taattu riippumatta hyökkäyksen tavasta.

DP:n käyttö ei ole täysin vaivatonta, sillä kohinan lisääminen saattaa heikentää aineiston tarkkuutta, ja menetelmän parametrien säätö vaatii asiantuntemusta. Silti sen tuoma vahva yksityisyyden suoja tekee siitä nykyisin yhden parhaista käytettävissä olevista anonymisointitekniikoista erityisesti herkille tiedoille.

Anonymisoinnissa on aina löydettävä tasapaino tietosuojan ja aineiston käytettävyyden välillä. Liiallinen tietojen poistaminen voi tehdä aineistosta käyttökelvottoman, mutta riittämätön anonymisointi altistaa yksilötietojen paljastumiselle. On tärkeää ymmärtää, että anonymisointi on jatkuva haaste, jossa on otettava huomioon aineiston rakenne, ulkopuoliset tietolähteet ja potentiaaliset hyökkäystavat.

Lukijan tulisi huomioida, että yksityisyyden suojaamiseksi ei riitä pelkkä tietojen poistaminen tai peittäminen, vaan tarvitaan huolellisesti valittuja ja usein monimutkaisia menetelmiä, joiden toimivuutta on arvioitava jatkuvasti muuttuvassa tietoympäristössä. Samoin anonymisointimenetelmien rajoitukset on ymmärrettävä, jotta vältytään vaaralliselta harhalta, että aineisto olisi aina turvallinen yksinkertaisilla toimilla. Lisäksi on huomattava, että eri maiden lainsäädäntö ja eettiset normit asettavat erilaisia vaatimuksia anonymisoinnille, jotka on otettava huomioon käytännön sovelluksissa.

Kuinka tekoäly käsittelee epäselviä syötteitä ja arvioi oikeudenmukaisuutta?

Tekoälyn kehityksessä keskeinen haaste on sen kyky ymmärtää ja käsitellä epäselviä syötteitä. Koska luonnollinen kieli on itsessään moniselitteistä, on tekoälyn tehtävä tulkita käyttäjän aikomukset parhaalla mahdollisella tavalla. Kuitenkin tämä tuo esiin monia ongelmia, joista yksi tärkeimmistä on ennakkoluulojen ja väärinkäsitysten mahdollisuus.

Esimerkiksi eräässä avoimen lähdekoodin projektissa, joka yhdisti tekoälychatbotin Linuxin komentorivikäyttöliittymään, käyttäjä voi syöttää luonnollisen kielen komennon ja saada vastaukseksi Linux-komennon, joka suorittaa pyydetyn toiminnon. Kun käyttäjä syötti komennon "Tee kaikki tiedostot nykyisessä hakemistossa vain luku -tilaan", tekoäly generoimalla komennon chmod -R 444 * teki oletuksia, jotka eivät täysin vastanneet alkuperäistä pyyntöä. Vaikka komento saattaa teknisesti olla oikea, se aiheuttaa vakavia ongelmia, kuten tiedostojen suojausasetusten vääristymisen ja alihakemistojen väärän käsittelyn. Tämä esimerkki osoittaa, kuinka epäselvä luonnollinen kieli voi johtaa vahingollisiin seurauksiin, ellei tekoäly kykenisi pyytämään lisäselvityksiä ennen toiminnan aloittamista.

Luonnollisen kielen moniselitteisyys on tekoälyjärjestelmien suuri haaste. Yksittäinen syöte ei koskaan voi olla täysin selkeä ja tarkka ilman lisätietoja, ja tekoäly tekee väistämättä oletuksia. Jos esimerkiksi kuva naisen pukeutumisesta valkoiseen takkiin otettaisiin syötteenä, tekoälyn voi olla vaikea päätellä, kuinka se tulisi kuvata. Jos tekoäly valitsee kuvauksen "lääkäri", se saattaa olla oikea, mutta se ei ole ainoa mahdollinen vaihtoehto. Vastaavasti kuvan voisi kuvata myös "ihmisenä ruskeilla silmillä", "hymyilevänä keski-ikäisenä mustana naisena" tai monilla muilla tavoilla. Näiden kuvauksien oikeudenmukaisuutta on vaikea arvioida ilman tarkempaa kontekstia, koska kuvan itsessään ei ole mahdollista osoittaa, mikä sen ominaisuus on tärkein tai merkittävin.

Tekoälyn tuottama ulostulo voi olla vaikeaa arvioida ja mitata oikeudenmukaisuutta. Perinteiset tekoälymallit, kuten regressio- tai luokittelumallit, tuottavat yksinkertaisia tuloksia, joita on helppo tarkistaa. Esimerkiksi jos yritys käyttää koneoppimismallia arvioimaan työnhakijan pätevyyttä, tulos voi olla yksinkertainen "palkkaa" tai "älä palkkaa" -päätös, tai jopa prosentuaalinen todennäköisyys siitä, kuinka menestyvä henkilö olisi kyseisessä roolissa. Tämä ulostulo on yksinkertainen, ja se on helppo tarkistaa ja mitata. Kuitenkin generatiiviset tekoälyjärjestelmät, jotka tuottavat monimutkaisempia tuloksia kuten tekstiä, kuvia tai videoita, tekevät oikeudenmukaisuuden arvioinnista haastavampaa. Kun tekoäly tuottaa stereotyyppisiä tai vääristyneitä kuvia tai tekstejä, sen aiheuttaman haitan määrän arviointi ei ole yhtä suoraviivaista. Sen vuoksi on syntynyt uusi tutkimusalue, joka tutkii tekoälymallien kykyä arvioida toistensa tuotoksia, niin kutsuttu itsearviointi (auto-evaluation).

Oikeudenmukaisuuden mittaaminen on oleellista, jos halutaan varmistaa, että tekoälyjärjestelmät toimivat reilusti. Yksi keskeinen väline tämän saavuttamiseksi on tarkka mittaaminen ja erilaisten ongelmien tunnistaminen. Oikeudenmukaisuuden arvioinnissa on kolme pääkategoriaa: pariteetti, stereotypiat ja tarkkuus. Pariteetti viittaa siihen, että tekoäly ei tarjoa tasapuolisia tuloksia eri tilanteissa tai ryhmissä. Esimerkiksi jos tekoäly tarjoaa ranskalaisia reseptejä erinomaisesti, mutta ei pysty tuottamaan malajialaisia reseptejä samalla tasolla, on kyseessä pariteettiongelma.

Toinen tärkeä pariteettiongelma on niin kutsuttu vastafaktuaalinen oikeudenmukaisuus (counterfactual fairness). Tämä tarkoittaa sitä, että tekoälyn tuottamien tulosten tulisi olla vertailukelpoisia riippumatta siitä, mitä syötteitä käytetään, kunhan muut tekijät pysyvät vakioina. Esimerkiksi jos pyydetään tekoälyä luomaan kuvia miehestä, joka menee kirkkoon tai moskeijaan, molempien kuvien tulisi olla samankaltaisia, eikä niiden pitäisi poiketa toisistaan stereotypioiden tai ennakkoluulojen vuoksi. Jos ero on oikeudettomasti suuri, tekoäly ei ole onnistunut vastafaktuaalisessa oikeudenmukaisuudessa.

Tämä voidaan testata luomalla sarja kyselyjä, joissa vaihdetaan vain yhden muuttujan arvoa kerrallaan ja verrataan tuloksia. Esimerkiksi voidaan verrata sitä, kuinka tekoäly reagoi lasten, poikien ja tyttöjen kuvaamiseen kirkossa ja moskeijassa, pitäen kirkon ja moskeijan muuttumattomina. Tämä järjestelmällinen lähestymistapa auttaa havaitsemaan mahdolliset epäreilut erot, joita voidaan sitten tarkastella tarkemmin ja tarvittaessa korjata.

Tekoälyn oikeudenmukaisuuden arviointi on monivaiheinen ja usein subjektiivinen prosessi, mutta sen merkitys kasvaa, kun tekoälyjärjestelmät tekevät yhä suurempia ja merkittävämpiä päätöksiä yhteiskunnassa.