Tekoälyjärjestelmien oikeudenmukaisuus ei ole pelkkä tekninen ongelma vaan laajempi laatu- ja kestävyyskysymys. Kun tekoälymalli tuottaa visuaalisen representaation ilman stereotyyppisiä elementtejä, se ei vielä takaa vastakohdanmukaista oikeudenmukaisuutta – toisin sanoen kykyä olla syrjimättä oletettuja vaihtoehtoisia todellisuuksia. Usein järjestelmät epäonnistuvat tässä hiljaisuudessa, ja juuri siksi oikeudenmukaisuuden arviointi on keskeistä.
Avoimet aineistot, kuten MLCommonsin ja Allen Institute for AI:n tarjoamat, tukevat kehittäjiä oikeudenmukaisuuden arvioinnissa. Googlen Monk Skin Tone Dataset laajentaa perinteistä ihonsävyskaalaa pyrkien edustamaan kaikkia ihon sävyjä valaistusolosuhteista riippumatta. Vastaavasti Metan tarjoamat aineistot – kuten FACET, Fairspeech ja Casual Conversations – tarjoavat testialustoja tietokonenäön, puheentunnistuksen ja multimodaalisten mallien testaamiseen.
Testaaminen ei kuitenkaan rajoitu olemassa oleviin aineistoihin. Tekoälymalleja voidaan arvioida luomalla kohdennettuja syötteitä neljän muuttujan – kuten hiustenvärin, silmien värin, maantieteellisen sijainnin ja uskonnon – mukaan. Muutaman esimerkin perusteella voidaan generoida satoja syötteitä, joiden oikeudenmukaisuutta arvioidaan ihmistestaajien avulla ennen käyttöönottoa.
Kun oikeudenmukaisuusongelma tunnistetaan, tärkeintä on toimia varhaisessa vaiheessa – jo ennen varsinaista kehitystä. Oikeudenmukaisuutta ei saa nähdä irrallisena lisäominaisuutena, vaan sen on oltava olennainen osa tuotteen määrittelyä ja suunnittelua. Kehitystiimin on sovittava oikeudenmukaisuuden määritelmästä ja valittava selkeät mittarit sen seuraamiseksi.
Oikeudenmukaisuus tulee sitoa laatuun. Sovellus, joka ei toimi tasapuolisesti kaikille käyttäjille, on heikkolaatuinen. Tämä näkyy erityisesti robustiudessa – kyvyssä toimia johdonmukaisesti odottamattomissa olosuhteissa. Jos kasvojentunnistus epäonnistuu tietynlaisten kasvojen kohdalla, kyseessä ei ole pelkästään tekninen virhe, vaan järjestelmän rakenteellinen epäoikeudenmukaisuus.
Kehityksen aikana automaattisten testien integroiminen koodausprosessiin mahdollistaa oikeudenmukaisuuden jatkuvan seurannan. Tämä poistaa yksittäiseltä kehittäjältä paineen nostaa esiin epämukavia havaintoja juuri ennen julkaisua. Vastaavat työkalut tulee tarjota myös laadunvarmistustiimille, jotka sisällyttävät oikeudenmukaisuustestauksen osaksi testisuunnitelmiaan.
Tiimin monimuotoisuus on ratkaisevaa. Tuotteita ei yleensä rakenneta itselle, vaan muille – ihmisille, joiden elämäntilanteet, kokemukset ja näkökulmat poikkeavat kehittäjän omista. Kehitystiimien on koostuttava ihmisistä, joilla on sekä laaja-alaisia että syvällisiä elämänkokemuksia. Samoin tarvitaan osaamista eri tieteenaloilta: sosiologiasta, psykologiasta, kasvatustieteestä, etiikasta ja oikeustieteestä. Nämä asiantuntijat toimivat peilinä kehitykselle, auttaen ennakoimaan vaikutuksia, joita teknologialla voi olla.
Vaikka suuryritykset kuten Google voivat hyödyntää sisäisiä vapaaehtoisverkostoja – esimerkiksi Principles Pioneers ja Inclusion Champions – myös pienissä organisaatioissa voidaan kerätä sidosryhmien näkemyksiä. Käyttäjiä, yhteisöjä ja asiakkaita voidaan kutsua mukaan varhaisvaiheen suunnitteluun ja testaukseen. Näin löydetään ne näkymättömät haasteet, jotka eivät muuten tule esiin.
Yksi keskeinen ansa on keskiarvotulosten harha. Jos järjestelmä näyttää olevan 99 % tarkka, se ei tarkoita, että jokaisessa käyttäjäryhmässä tarkkuus on yhtä korkea. Tuloksia on purettava osiin – erityisesti niiden ryhmien osalta, jotka ovat perinteisesti jääneet marginaaliin tai jotka kohtaavat syrjintää.
Teknisesti oikeudenmukaisuuden parantaminen voi vaatia kielen tarkastelua. Merkityllä kielellä – kuten esimerkiksi “naispuolinen lääkäri” vs. “lääkäri” – voi olla syvä vaikutus mallin tuottamaan representaatioon. Tällaisen kielen vähentäminen alkaa opetusaineistosta. Tietynlaisten termien poistaminen tai neutraalien vaihtoehtojen suosiminen voi vähentää harhaa.
Lisäksi voidaan hyödyntää mallikortteja (model cards), jotka dokumentoivat mallin koulutustiedot, rajoitteet ja käytön suositukset. Red teaming eli kriittinen stressitestaus auttaa paljastamaan eettisiä ja teknisiä riskejä. Laajamittaiset evaluoinnit puolestaan voivat osoittaa, miten järjestelmä toimii erilaisissa konteksteissa ja populaatioissa.
On tärkeää, että tekoälymallin kehitys ei perustu pelkästään teknisiin tavoitteisiin, vaan arvopohjaiselle kehittämiselle. Oikeudenmukaisuus ei ole vain ominaisuus – se on perusta kestävälle ja inhimilliselle teknologialle. Jos emme huomioi tätä, rakennamme järjestelmiä, jotka toistavat ja vahvistavat menneisyyden epätasa-arvoa tulevaisuuden ytimeen.
Miten tunnistaa ja korjata puolueellisuutta tekoälymalleissa?
Tekoälymallien koulutusdata sisältää usein piileviä vinoumia, jotka vaikuttavat mallin tuottamiin vastauksiin. Yksi keskeinen ongelma on niin kutsuttu merkitty kieli (marked language), jossa joku ryhmä esitetään oletusarvoa poikkeavana lisäämällä kuvaava sana tai adjektiivi. Esimerkiksi sana "lääkäri" yhdistetään automaattisesti miehiin, mutta "naispuolinen lääkäri" täytyy erikseen ilmaista, mikä paljastaa oletuksen miehestä neutraalina mallina. Merkitty kieli esiintyy laajasti eri kategorioissa: kansallisuudessa, iässä, poliittisessa suuntautumisessa, vammaisuudessa ja seksuaalisessa suuntautumisessa. Vaikka merkitty kieli ei aina tarkoita epäoikeudenmukaisuutta, sen esiintyminen voi olla merkki syrjivistä oletuksista, joita tekoäly vahvistaa.
Mallikortit (model cards) ovat työkaluja, jotka auttavat ymmärtämään tekoälymallien rakennetta, käyttötarkoituksia ja rajoituksia. Ne sisältävät tietoa mallin versioista, koulutusdatasta ja eettisistä näkökulmista. Mallikortit auttavat välttämään niin kutsuttua "siirrettävyysansaa" (portability trap), jossa malli sovelletaan vääriin käyttötarkoituksiin ja aiheuttaa virheitä tai epäoikeudenmukaisuutta. On tärkeää käyttää mallikortteja niin mallin kehittämisessä kuin valinnassa.
Toinen tehokas tapa löytää ja korjata epäoikeudenmukaisuuksia on niin sanottu "red teaming" eli punainen tiimityö. Siinä joukko testaajia pyrkii tarkoituksellisesti saamaan tekoälyn tuottamaan virheellisiä, loukkaavia tai haitallisia vastauksia. Red teaming vaatii moninaista joukkoa, jossa testereillä on erilaisia taustoja, koska he pystyvät havaitsemaan kielellisiä ja kulttuurisia vinoumia, joita muut eivät näe. Esimerkiksi uskonnollisesta näkökulmasta pystyvät testajat voivat löytää uskontoon liittyviä epätarkkuuksia tai ennakkoluuloja. Red teaming on nopea, dynaaminen ja suhteellisen vaivaton tapa paljastaa tuntemattomia virhetiloja, mutta se ei sovellu mallien suorituskyvyn vertailuun, sillä testit eivät ole standardoituja.
Rakenteellisempi ja systemaattisempi lähestymistapa on skaalatut arvioinnit, jotka vaativat selkeät ohjeistukset oikeudenmukaisuudesta, koulutettuja testaajia ja laajan testipromptsarjan. Näin voidaan tehokkaasti vertailla mallien oikeudenmukaisuutta, koska testisyötteet ovat yhdenmukaisia ja arvioijat asiantuntijoita. Tämä lähestymistapa vaatii ennalta määritellyt käytännöt ja testitilanteet, jotka usein perustuvat pahimpiin mahdollisiin vinoumiin.
Esimerkkinä oikeudenmukaisuushaasteista tekoälyn kuvageneraattoreissa on Googlella vuonna 2023 havaittu ilmiö, jossa neutraaleihin tekstipyyntöihin syntyi liiallisesti seksuaalissävytteisiä kuvia. Tämä näkyi erityisesti naishahmoissa ja tietyissä etnisissä ryhmissä, mikä viittaa siihen, että koulutusdata on sisältänyt stereotyyppisiä ja epätasapainoisia aineistoja. Yllättävät, ei-toivotut seksuaalissävytteiset kuvat heikentävät käyttäjien luottamusta ja vahvistavat haitallisia ennakkoluuloja. Ongelmalle ei löytynyt yksiselitteistä syytä, mutta sen katsottiin liittyvän sekä datan laatuun että siihen, miten kuvien tekstivastineita (Alt-tekstejä) on käsitelty koulutuksessa.
On olennaista ymmärtää, että tekoälyn puolueellisuuden ongelmat ovat monisyisiä ja liittyvät sekä koulutusdataan että mallin sisäisiin mekanismeihin. Pelkkä yksittäinen toimenpide ei useinkaan riitä; tarvitaan kokonaisvaltaista lähestymistapaa, joka sisältää datan analysointia, mallikorttien laatimista, laajapohjaista testausta ja jatkuvaa valvontaa. Lisäksi on tärkeää tiedostaa, että tekoäly heijastaa aina yhteiskunnan olemassa olevia ennakkoluuloja ja rakenteita, joten ongelman ratkaiseminen vaatii myös laajempaa yhteiskunnallista ymmärrystä ja eettistä pohdintaa.
Miten Teknologiat Voi Estää Myrkyllisten Kommenttien Levittymistä Verkkoyhteisöissä?
Teknologian kehitys tuo mukanaan lukemattomia etuja, mutta samalla se tuo myös merkittäviä haasteita, erityisesti silloin, kun se koskee yhteiskunnallisia kysymyksiä. Yksi tällainen haaste on verkkoyhteisöissä esiintyvät myrkylliset kommentit, jotka voivat estää ihmisiltä vapauden ilmaista mielipiteitään ja osallistua keskusteluun. Tämä on ongelma, jonka Googlen Jigsaw-tiimi kohtasi vuonna 2016, ja heidän työnsä tarjoaa arvokasta opittavaa siitä, miten teknologiayritykset voivat reagoida vastuullisesti ja tehokkaasti yhteiskunnallisiin ongelmiin.
Jigsaw-tiimi päätti lähteä ratkomaan ongelmaa, jossa verkkokommentit, jotka halventavat, uhkaavat tai kiusaavat muita, luovat ympäristön, jossa käyttäjät eivät uskalla osallistua keskusteluun. Tavoitteena oli kehittää ohjelmisto, joka voisi ennustaa, onko tietty kommentti myrkyllinen vai ei. Koska manuaaliset moderaattorit eivät voisi yksin hallita niin suurta määrää kommentteja, tiimi päätti hyödyntää koneoppimista (ML) tämän ongelman ratkaisemiseksi.
Jigsaw käytti valvottua koneoppimista kouluttaakseen mallin miljoonilla kommenttipohjaisilla datalähteillä, jotka oli merkitty lukijoiden arvioiden mukaan. Mallin tarkoituksena oli ennustaa, kuinka todennäköisesti tietyt kommentit saisivat myrkyllisen arvioinnin. Tämä arvio oli numeerinen arvo, joka vaihteli nollasta (ei myrkyllinen) yhteen (äärimmäisen myrkyllinen). Näin saatiin luotua Perspective API, jonka avulla voitiin arvioida kommenttien myrkyllisyyttä ja estää haitallisten keskustelujen leviämistä.
Kuitenkin, kuten käy usein uusien teknologioiden kanssa, Jigsaw tiimi huomasi pian, että heidän luomansa malli ei ollut täydellinen. Tietyt sanat tai lauseet saivat suhteettoman korkean myrkyllisyysarvon, erityisesti silloin, kun niihin liittyi identiteettiä määrittäviä termejä, kuten "gay" tai "Black". Tämä herätti huolen siitä, että ihmisten ennakkoluulot olivat siirtyneet malliin, vaikka tiimi oli ennakoivasti testannut ja kehittänyt mallia erityisesti tätä ongelmaa vastaan. Itse asiassa, tietyt identiteettitermit esiintyivät koulutusdatassa usein negatiivisessa tai loukkaavassa kontekstissa, mikä sai mallin virheellisesti yhdistämään ne myrkyllisyyteen.
Tämä ongelma nosti esiin tärkeän kysymyksen: kuinka varmistamme, että teknologiset järjestelmät, jotka käyttävät koneoppimista, ovat oikeudenmukaisia ja yhteiskunnallisesti vastuullisia? Jigsaw-tiimi ei väistellyt vastuuta, vaan he tunnustivat virheen ja ryhtyivät toimiin korjatakseen sen. Ensimmäinen askel oli olla avoimia julkisesti ja jakaa löydöksensä, kuten heidän blogikirjoituksensa "Unintended Bias and Identity Terms" osoittavat. Toinen toimenpide oli parantaa koneoppimisjärjestelmän infrastruktuuria. He keräsivät lisää koulutusdataa, joka sisälsi identiteettitermien neutraaleja ja positiivisia esimerkkejä. Kolmas tärkeä askel oli yhteistyö Googlen toisen tiimin kanssa, joka oli erikoistunut yhteiskunnalliseen kontekstiin ja joka oli aiemmin käsitellyt samanlaista ongelmaa.
Tämä tiimi, nimeltään Societal Context Understanding Tools and Solutions (SCOUTS), oli aiemmin ratkaissut vastaavia ongelmia, kuten sanalistojen käytön myrkyllisten puheiden tunnistamisessa. He havaitsivat, että sanalistat eivät sisällyttäneet riittävästi tietoa identiteettiryhmistä ja niiden mahdollisista konnotaatioista. SCOUTS kehitti tätä varten Societal Context Repository (SCR) -tietokannan, joka sisälsi paitsi sanat, myös tiedon niiden käytöstä eri yhteiskunnallisissa ja kulttuurisissa konteksteissa.
Tämä tapaus korostaa, kuinka tärkeää on ottaa huomioon yhteiskunnallinen konteksti, kun kehitetään teknologioita, jotka vaikuttavat ihmisten elämään ja yhteiskuntaan. Teknologian kehittäjien on jatkuvasti arvioitava ja päivitettävä järjestelmiään, jotta ne eivät vahvistaisi ennakkoluuloja tai syrjiviä käytäntöjä. Tämä ei ole vain tekninen haaste, vaan myös eettinen kysymys, joka vaatii monialaista yhteistyötä ja vastuullista asennetta.
Kun tarkastellaan koneoppimismalleja, erityisesti niiden käyttöä myrkyllisten kommenttien tunnistamisessa, on tärkeää muistaa, että teknologia ei ole neutraalia. Koneoppimismallien kouluttaminen ja testaus on monivaiheinen prosessi, joka vaatii jatkuvaa valvontaa ja sopeutumista. Ei riitä, että malli toimii teknisesti oikein – sen on myös toimittava yhteiskunnallisesti ja eettisesti oikein.
Tämä on tärkeä muistutus siitä, että teknologian kehittäminen ei tapahdu tyhjiössä. Se on syvällisesti yhteydessä kulttuuriin, yhteiskuntaan ja arvoihin. Koneoppimisen avulla voimme luoda työkaluja, jotka parantavat vuorovaikutusta ja keskustelua, mutta samalla meidän on varmistettava, että nämä työkalut eivät vahvista haitallisia stereotypioita tai syrjintää.
Miten johtajuus ja vastuullisuus voivat muokata ohjelmistokehityskulttuuria?
Vastuullisuuden toteuttaminen ohjelmistokehityksessä edellyttää vahvaa tukea ylimmältä johdolta. CEO:n tulee keskustella tästä asiasta avoimesti sekä työntekijöidensä että julkisesti. Muiden johtajien on puolestaan oltava valmiita arvioimaan pitkän aikavälin hyötyjä lyhyen aikavälin etujen sijaan, kuten hidastamalla tuotelanseerauksia varmistaakseen, että ne toteutetaan ja testataan vastuullisesti. Ilman tällaista ylimmän johdon tukea, työntekijät eivät välttämättä ymmärrä tai usko, että vastuullinen ohjelmistokehitys on organisaation prioriteetti.
Vastuullisuuden edistäminen ei ole pelkästään eettinen tai moraalinen kysymys. Jos tuote voi aiheuttaa haitallisia seurauksia (esimerkiksi turvallisuusongelman), silloin kyseessä on vähintään virhe (laadun ongelma), jonka voi käsitellä yrityksen tavanomaisilla prosesseilla. Ylimmän johdon on ymmärrettävä, että laatu- ja turvallisuusongelmat voivat maksaa yritykselle rahaa ja asiakkaita, ja nämä käsitteet voivat olla helpommin lähestyttäviä heille kuin eettiset tai moraaliset kysymykset.
Esimerkki: asiakaspalautteen jakaminen
Vuonna 2019 Ben Treynor Sloss sai tärkeän oivalluksen. Hän oli Google Cloudin varapresidentti ja oli ylpeä siitä, kuinka hänen ohjelmistokehitystiiminsä olivat työskennelleet kovasti uusien ominaisuuksien rakentamiseksi ja Cloudin kapasiteetin lisäämiseksi. Samalla Cloud oli kokenut useita käyttökatkoksia, jotka olivat vaikuttaneet asiakkaiden luottamukseen palveluun. Ben huomasi, että tiimit kuulevat usein tuotepyyntöjä tuotehallinnan ja myynnin osastoilta, mutta he eivät kuule yhtä paljon Google Cloudin tukitiimien asiakaspalautetta.
Ben kutsui Google Cloudin ja teknisen infrastruktuurin osaston työntekijät yhteiseen pakolliseen kokoukseen. Hän selitti, että Cloud oli kokenut useita käyttökatkoksia luotettavuusongelmien vuoksi, ja aikoi näyttää suoria lainauksia asiakkailta, jotka olivat kertoneet, kuinka heihin oli vaikuttanut. Seuraavat kymmenen minuuttia Ben esitteli dioja, jotka sisälsivät sivu toisensa jälkeen asiakkailta tulleita tunteellisia kommentteja. He kertoivat, kuinka he olivat riippuvaisia Cloudista elinkeinonsa kannalta. He puhuivat siitä, kuinka vihaisia he olivat ja kuinka avuttomilta he tunsivat itsensä, kun Cloud oli epäonnistunut. Kokoushuoneessa vallitsi syvä hiljaisuus.
Monet tuon kokouksen osallistujat muistivat asiakaspalautteet vielä vuosien jälkeen. Jotkut olivat hämmästyneitä asiakaspalautteen voimasta, toiset tunsivat vihan, että johto näytti syyttävän insinöörejä järjestelmällisistä ongelmista, mutta jotkut tunsivat itsensä motivoituneiksi siitä, että ylimmän johdon edustaja oli itse astunut esiin ja ollut empaattinen asiakkaita kohtaan. "Kun me olemme alas," Ben oli sanonut, "he ovat alas." Kokouksen seurauksena syntyi uusi standardi, jossa luotettavuuteen liittyvät virheet asetettiin uusien ominaisuuksien pyynnöistä etusijalle, ja Google Cloudin käyttöaika parani merkittävästi.
Ylimmän johdon tuen lisäksi yrityksessä tulisi luoda valtarakenteita, jotka tukevat vastuullista ohjelmistokehitystä. Tämä on tärkeä osa hallintoa. Google DeepMindillä on esimerkiksi vastuullisuus- ja turvallisuusneuvosto, johon kuuluu varapresidenttejä, johtajia ja aluejohtajia, samoin kuin eettisiä asiantuntijoita ja yhteiskuntatieteilijöitä. Neuvoston jäsenet voivat käsitellä projekteja varmistaakseen, että ne ovat turvallisia ja linjassa Google DeepMindin tekoälyperiaatteiden kanssa. Ilman sopivia valtarakenteita sinä ja kollegasi saattaisitte hyvistä aikomuksistanne huolimatta olla estettyjä toteuttamasta vastuullista ohjelmistokehitystä.
Väärinkäsitykset vastuullisuuskulttuurista
Yrityskulttuurin muuttaminen on ylipäätään haastavaa. Tässä muutama yleinen väite, joita voit kohdata yrittäessäsi saada tukea vastuulliselle ohjelmistokehitykselle:
"Se on vain brändäystä." Aluksi itse ajattelin näin, kun yritykset mainostivat "vastuullisuus-kulttuuria" – se oli vain sanahelinää. Mutta kirjan tutkimusmatkallani tapasin lukuisia intohimoisia henkilöitä – koodareita ja johtajia – jotka todella välittivät vastuullisuudesta sen itsensä vuoksi, koska se on hyväksi maailmalle. Vastuullisuuden lisääminen ei ole yksinkertaista eikä se perustu yhteen ainoaan syyhyn, mutta yleinen havainto on tämä: ohjelmistotiimit kohtaavat monia kilpailevia haasteita, ja vastuullinen kehittäminen on vain yksi niistä. Tiimien tuotteiden täytyy olla turvallisia hakkereilta, helposti ylläpidettäviä, skaalautuvia miljoonille käyttäjille, konfiguroitavia eri yleisöille, niillä on oltava virheetön käyttöliittymä ja niiden täytyy olla käännettävissä useille kielille ja esteettömiä vammaisille käyttäjille. Ja toki tuotteiden täytyy toimia. Ei mikään tiimi voi optimoida kaikkia näitä tekijöitä samanaikaisesti. On tehtävä vaikeita valintoja, jotka priorisoivat toisia tekijöitä, ja joskus vastuullisuus jää taka-alalle.
"Se on vain sääntöjen noudattamista." Säännöillä ja laeilla on tärkeä rooli ohjelmistojen turvallisuuden ja asiakkaiden oikeuksien suojelemisessa. Esimerkiksi Yhdysvaltain liittovaltion kauppakomissio (FTC) hyväksyi vuonna 2024 "Click to Cancel" -säännön, joka velvoittaa kaikkia tilauspalveluja tarjoavia yrityksiä tekemään peruutusprosessista yhtä helpon kuin alkuperäinen rekisteröityminen. Hienoa! Mutta sääntelyt ja lait eivät ole koko totuus. Monet compliance-ammattilaiset eivät nauti ongelmien korjaamisesta vasta niiden ilmenemisen jälkeen. He haluaisivat työskennellä ohjelmistotiimien kanssa jo tuoteidean ja kehityksen alkuvaiheessa parhaiden, myös sääntöjen mukaisia, tuloksia saavuttamiseksi.
"Se on vain byrokratiaa." Kokenut ohjelmistokehittäjä ymmärtää hyvin tämän näkökulman. Mutta kokemukseni mukaan nämä byrokraattiset esteet tulevat usein hyvää tarkoittavilta henkilöiltä, jotka eivät välttämättä ymmärrä, kuinka suuri taakka he aiheuttavat muille. Aina kun mahdollista, olen itse ollut utelias ja keskustellut sääntöjen asettajien kanssa. Joissain tapauksissa olen oppinut sääntöjen taustalla olevan logiikan, mikä on tehnyt niistä vähemmän byrokraattisia – tai olen pystynyt viestimään sääntöjen aiheuttamasta tuskasta, mikä on johtanut parempien ratkaisujen keksimiseen. Jos vastuullinen ohjelmistokehitys tuntuu valvonnalta, silloin se voi olla merkki huonosta suhteesta yrityksen sisällä.
Kun saat yleistä tukea vastuulliselle ohjelmistokehitykselle, on tärkeää varmistaa, että koko yritys saa tietää asiasta. Viestintä on tässä avainasemassa. Jos koko johto käyttää samaa sanastoa ja jakaa sen alaisilleen, on todennäköisempää, että koko organisaatio omaksuu sen. Voit myös kehittää omia termejäsi: esimerkiksi kutsua vastuullisen kehityksen kannattajia "vastuullisen ohjelmistokehityksen puolestapuhujiksi". Käytä mikä tahansa sanastoa, joka toimii yrityksesi kulttuurissa, ja vie sitä eteenpäin.
Kuinka jatkuva tiedon lataaminen Snowpipeen ja dynaamisiin tauluihin voi optimoida datavarastosi?
Miksi pyörän oikea sovitus ja harjoittelu ovat ratkaisevia menestykselle?
Miksi narsismi ja kiusaaminen ovat yhteydessä toisiinsa ja miten ne vaikuttavat ihmissuhteisiin?
Miten ilmaista mieltymyksiä, harrastuksia ja sosiaalista kanssakäymistä espanjaksi?

Deutsch
Francais
Nederlands
Svenska
Norsk
Dansk
Suomi
Espanol
Italiano
Portugues
Magyar
Polski
Cestina
Русский