Tekoälyn kehitys tuo mukanaan sekä mahdollisuuksia että haasteita, erityisesti tekijänoikeuksiin ja sen rikkomuksiin liittyen. Suurten teknologiajättien, kuten Microsoftin, Amazonin ja Googlen, on täytynyt ottaa käyttöön erilaisia suojatoimia minimoidakseen tekoälytyökalujensa väärinkäytön riskit, erityisesti silloin, kun kyseessä on tekijänoikeuksien loukkaaminen. Näihin toimiin kuuluvat muun muassa meta-komennot ja luokittelijat, jotka lisäävät lisäohjeistuksia käyttäjän syötteisiin estääkseen haitallisten tai tekijänoikeuden loukkausten sisältöjen syntymisen. Tämä tarkoittaa, että jos käyttäjä syöttää mallille käskyn, joka johtaa tekijänoikeudella suojattujen materiaalien, kuten kuvia tai tekstejä, luomiseen, syyllinen on itse käyttäjä, ei yritys.
On kuitenkin tärkeää huomata, että teknologiajätit haluavat tässäkin asiassa "pelata molemmilla jaloilla". Useat yritykset, kuten Microsoft ja OpenAI, ovat jopa valmiita maksamaan asiakkaidensa puolesta tekijänoikeusrikkomuksista, vaikka ne samalla väittävät, että käyttäjät ovat vastuussa tekoälyn tuotoksista. Tämä ristiriita herättää kysymyksiä siitä, kuinka vakavasti nämä yritykset suhtautuvat tekijänoikeuksien suojaamiseen ja mitä ne itse asiassa ajavat, kun ne tarjoavat taloudellista tukea asiakkailleen oikeusriidoissa.
Microsoftin osalta heidän tekijänoikeuksia suojelevat suojatoimet, kuten käskyjen uudelleenmuotoilua estävät suodattimet, eivät ole juurikaan vähentäneet sitä, kuinka helposti käyttäjät voivat päätyä luomaan teoksia, jotka rikkovat muun muassa Disney- ja Pixar-tuotemerkkejä. Disney on jopa pyytänyt Microsoftia estämään käyttäjiä luomasta tekijänoikeusrikkomuksia Bing-hakukoneensa kautta. Onkin ilmeistä, että ongelma on laajamittainen: Internetissä on runsaasti muokattuja kuvia, joissa Disney-hahmot esiintyvät epäilyttävissä tilanteissa, kuten tupakoimassa tai käyttämässä huumeita. Tällaisia sisältöjä löytyi myös elokuvamainoksesta, jossa esitettiin animaatio, joka käsitteli holokaustia ja oli saanut inspiraationsa Adolf Hitlerin hahmosta – kaikki tämä levisi viruksen tavoin.
Suurin huolenaihe ei ole niinkään se, kuinka matalalle internetin "avoinna ajatteleva" yhteisö voi vajota, vaan se, kuinka vaikeaa on puhdistaa tällaisia loukkaavia ja tekijänoikeuksia rikkovia sisällöitä. On lähes mahdotonta poistaa näitä sisältöjä pysyvästi, ja ne voivat jäädä ikuisesti osaksi kulttuurista muistia.
Kun tarkastelee teknologiajättien puolustuksia, on helppo huomata niiden yhteys rahaan ja vallan tavoitteluun. Tekoälyn kehittäjät, kuten Andreessen Horowitz -sijoitusyhtiö, ovat investoineet merkittäviä summia lobbyaamiseen, jossa he pyrkivät estämään tekijänoikeuslain täysimääräisen täytäntöönpanon. Yhtiö väittää, että jos tekijänoikeuslait rajoittavat pääsyä koulutusdataan, se voi vaarantaa Yhdysvaltojen kansallisen turvallisuuden ja estää Yhdysvaltojen AI-teknologian maailmanlaajuisen kehityksen. Tämä on jingoistinen logiikka, joka korostaa, että ilman pääsyä tekijänoikeuksilla suojattuihin materiaaleihin, tekoälyn kehityksestä tulee hidastumaan.
Yksityisellä sektorilla suuri osa suurista teknologiayrityksistä on ollut mukana lobbaamassa, jotta lainsäädäntö, joka rajoittaa AI:n kehitystä ja varmistaa tekijänoikeuksien kunnioittamisen, ei saisi estää heidän liiketoimintaansa. Tällaisten yritysten, kuten Amazonin, Googlen ja Microsoftin, ei ole kuitenkaan helppoa väittää, etteivätkö ne olisi riippuvaisia muiden ihmisten luomasta sisällöstä, joka ruokkii niiden tekoälymalleja. Teknologiajättien resurssit ja valta asettavat ne vaikeaan asemaan, jossa ne voivat helposti ohittaa lainsäädännön ja verotuksen, erityisesti silloin, kun kyseessä on kilpailu globaalilla markkinalla.
Tekoälyllä on valtavat mahdollisuudet lääketieteessä, koulutuksessa ja teknologiassa, mutta samalla se tuo mukanaan myös suuria eettisiä ja oikeudellisia kysymyksiä. Jos suuri teknologia käyttää vapaata pääsyä tekijänoikeuksilla suojattuihin materiaaleihin, ilman selkeää vastuuta, voi seurauksena olla laaja-alainen ongelma, jossa luodaan tekijänoikeusloukkauksia ja moraalisesti kyseenalaisia sisältöjä.
Mitä enemmän tekoäly kehittyy, sitä enemmän on pohdittava, kuinka huolellisesti ja vastuullisesti nämä teknologiat otetaan käyttöön. Pitäisikö meidän luottaa suuriin yrityksiin säilyttämään reiluus ja noudattamaan lainsäädäntöä, vai onko tuloksena yhä suurempi vapaus hyödyntää muiden luomuksia ilman seurauksia? Tämä kysymys ei ole pelkästään oikeudellinen, vaan myös eettinen ja yhteiskunnallinen.
Onko tekoälyn kehittäminen kohti yleistä älykkyyttä mahdollista vain mittakaavan kasvun kautta?
Tekoälyn kehityksessä mittakaavan kasvaminen saattaa tuottaa odottamattomia ja vaikeasti ennustettavia käyttäytymismalleja. Kun tekoälyjärjestelmät oppivat miljoonilla parametreilla ja säätävät painoja ja harhoja parantaakseen suorituksiaan, niiden kyky luoda uutta materiaalia – kuten musiikkia, joka muistuttaa koulutusdataa – paranee jatkuvasti. Tämä evoluution kaltaista hienosäätöä ei kuitenkaan voida ennustaa täysin. Kun tekoäly järjestelmät skaalaavat entistä suuremmiksi, syntyy epävarmuuksia ja uudenlaista käyttäytymistä, jota on vaikea ennakoida. Tämä arvaamattomuus tuo mukanaan haasteita tekoälyn turvallisuuden ja etiikan kannalta.
Yksi suurimmista huolenaiheista liittyy niin sanottuun "älykkyysräjähdykseen". Tämä käsite viittaa hypoteettiseen skenaarioon, jossa tekoälyjärjestelmät parantavat itseään niin nopeasti, että niiden älykkyys ylittää ihmiskunnan kyvyt, luoden superälykkyyden. Tekoälyn kehittäminen kohti yleistä älykkyyttä (AGI) on ollut tutkijoiden puheenaihe vuosikymmeniä. Kyseessä on unelma tekoälyjärjestelmistä, jotka eivät ole vain kapeasti erikoistuneita, vaan kykenevät toimimaan monilla eri alueilla, kuten kirjoittamisessa, kuvien luomisessa ja äänen käsittelyssä. Tällainen multimodaali generatiivinen tekoäly voisi olla askel kohti AGI:ta.
Skalauksen kautta saavutettavat uudet ominaisuudet ja kyvyt voivat kuitenkin johtaa yllättäviin ja mahdollisesti vaarallisiin tuloksiin. Tekoälyn kehitystä ei voida enää hallita pelkästään sen alkuperäisten suunnitelmien mukaan, vaan se saattaa kehittää itselleen tavoitteita ja ominaisuuksia, joita emme vielä ymmärrä. Onko skaalauksen myötä mahdollista luoda AGI ilman tarkempaa suunnittelua? Vaikka tällaista hypoteesia ei voida todistaa, on selvää, että suuri teknologia-ala työskentelee näiden kykyjen parissa, ja se herättää kysymyksiä siitä, onko tekoälyä luodessa itse asiassa luomassa myös "älykkyysräjähdystä", joka voisi viedä meitä kohti tekoälyn itseohjautuvuutta.
Tässä keskustelussa on tärkeä muistaa myös se, että vaikka on spekuloitu, että AGI saattaisi syntyä mittakaavan kasvun kautta, ei ole näyttöä siitä, että näin todella tapahtuisi. Suurin osa asiantuntijoista on sitä mieltä, että AGI:n syntyminen vaatii enemmän kuin pelkän skaalauksen: se vaatii tietoista suunnittelua, harjoittelua ja kehittämistä, joka tähtää yleiseen älykkyyteen.
Tekoälyn kehityksen historia on monivaiheinen ja täynnä käänteitä, joista monet juontavat juurensa toisen maailmansodan jälkeisiin aikoihin. Esimerkiksi brittiläinen tilastotieteilijä I. J. Good kehitti 1960-luvulla teorian ensimmäisestä ultraälykkäästä koneesta. Hän ehdotti, että kone, joka voisi ylittää ihmisen älykkyyden kaikilla alueilla, olisi kykenevä suunnittelemaan vielä älykkäämpiä koneita. Tämä aiheuttaisi "älykkyysräjähdyksen", jossa ihmisen älykkyys jää kauas taakse. Kuitenkin Good ei ollut naiivi tämän koneen voimasta: hän varoitti, että koneen täytyisi olla riittävän hallittavissa, jotta se ei veisi ihmiskunnan kontrollia.
Goodin ennusteet eivät jääneet vain teoreettiseksi pohdinnaksi, vaan ne nostivat esiin myös tarpeen kehittää tekoälyjärjestelmien hallintaa ja turvallisuutta. Hän huomioi, että superälykkäiden koneiden hallinta olisi yksi suurimmista haasteista, jota ei voida sivuuttaa. Tämä hallintakysymys, eli "kontrolliongelma", on edelleen keskeinen keskustelunaihe tekoälyn turvallisuus- ja eettisissä pohdinnoissa.
Tekoälyn kehitys on ollut voimakasta viime vuosikymmeninä, ja suurten teknologiajättien työskentely näiden kykyjen parissa saattaa johtaa meidät lähemmäs niitä haasteita, joita Good ennusti. Jos tekoäly kykenee itsenäisesti parantamaan itseään, se saattaa saavuttaa sellaista älykkyyttä, joka ei ole enää ennakoitavissa nykyisin käytettävillä työkaluilla. Tämä herättää eettisiä kysymyksiä ja huolia siitä, kuinka voimme taata, että tekoälyjärjestelmät palvelevat ihmiskunnan etuja eivätkä kehitä itselleen omia tavoitteita, jotka saattavat olla ristiriidassa ihmisten hyvinvoinnin kanssa.
Miten ihmiskunnan taloudellinen ja poliittinen valta katoaa tekoälyn kehityksen myötä?
Tekoälyn (AI) kehityksessä on olemassa mahdollisuus, että saavutamme hetken, jolloin tekoälyn älykkyys kasvaa eksponentiaalisesti, luoden niin sanotun "älykkyysräjähdyksen". Tällöin tekoälyn kehitys voi nousta niin nopeasti, että emme enää pysty seuraamaan sitä tai hallitsemaan sitä tehokkaasti. Voi olla, että olemme jo tämän kehityksen alkumetreillä, mutta emme tunnista sitä, koska tarkastelemme sitä liian suppeasti ihmiskunnan historian mittakaavassa. Vielä kaksi vuotta sitten monet asiantuntijat ennustivat, että yleinen tekoäly (AGI) olisi toteutettavissa vasta 50 vuoden päästä. Nykyään pessimisteiksi voidaan nimittää niitä, jotka väittävät, että ihmiseltä tasoa vastaava AGI ei ole mahdollista ennen vuotta 2026. Spekulaation rajat ovat huomattavasti supistuneet.
Jos emme onnistu kehittämään tekoälyä, joka on linjassa ihmisarvon ja -hyvinvoinnin kanssa, on hyvin mahdollista, että AI ja kehittyneempi supertekoäly (ASI) menevät ohi meistä, ellei kyseessä ole poikkeuksellisen kykenemätön tai ystävällinen järjestelmä. On kuitenkin naurettavaa ajatella, että tällainen tekoäly olisi jollain tavalla inhimillinen.
Älykkyysräjähdyksen "hidas versio" on myös noussut esiin tekoälyn turvallisuusyhteisössä. Tämä kehitys saattaa kestää vuosia, mutta se on jo käynnissä. Vaikka se ei välttämättä ole turvallisempaa, se antaa meille enemmän aikaa löytää ratkaisuja niin sanottuihin linjauksen, tulkittavuuden ja muiden ongelmien parissa, jotka voivat estää meitä tuhon välttämiseltä. Kuten OpenAI:n julistuksessa todetaan: "Meidän missiomme on varmistaa, että tekoäly hyödyttää koko ihmiskuntaa."
Tämä lause on erityisen tärkeä, sillä se korostaa sitä, että jos tekoäly ylittää meidät taloudellisessa ja strategisessa mielessä, se voi jopa syrjäyttää meidät. Peter S. Park, MIT:n tekoälyn turvallisuustutkija, näkee tämän mahdollisuuden "seuraajalajin" muodossa. Jos tekoälyjärjestelmät voivat tehdä työtä paremmin kuin me, voimme nähdä itsemme "seuraajalajina" biologisessa mielessä. Tämä ei ole pelkästään tutkimusta: suuri teknologia haluaa ottaa tekoälyn käyttöön mahdollisimman nopeasti.
Tekoälyjärjestelmien älykkyys voi olla niin suuri, että emme enää ymmärrä niiden motiiveja, aivan kuten emme ymmärrä, miksi karhut kärsivät niin suurta tuskaa, kun niitä käytetään kielletystä, epäinhimillisestä ruoantuotannosta. Jos tekoäly ei ole linjassa ihmisarvon kanssa, voimme kohdata yhtä julman kohtalon kuin nämä karhut. Jos tekoäly, joka on tuhansia tai miljoonia kertoja älykkäämpi kuin me, päätyy hyväksymään toisenlaisen arvomallin, se voi kohdata meidät tavalla, joka ei ole meille miellyttävä.
Tekoälyn kehittäminen, joka on linjassa inhimillisten arvojen ja tavoitteiden kanssa, on valtava haaste. Tämän haasteen ratkaiseminen ei ole vain tärkeää, vaan elintärkeää. Tekoälyn kehitys voi olla hyvinkin nopeaa ja hallitsematonta ilman asianmukaisia valvontakäytäntöjä. Ongelmat, kuten linjausvirheet ja väärinymmärrykset siitä, mitä tekoälyn tulisi tavoitella, voivat johtaa vakaviin ja hallitsemattomiin seurauksiin.
Tekoälyn kehittämistä ei voi katsoa vain yksittäisten teknologioiden edistysaskeleina. Suuret teknologiayritykset, joilla on rahaa ja valtaa, painavat kehitystä eteenpäin nopealla tahdilla, mutta ilman kunnollisia turvatoimia. On huomattava, että kun taloudellinen valta katoaa ihmisiltä, saattaa pian kadota myös poliittinen valta. Ja jos taloudellinen valta katoaa, ei ole enää kykyä puolustaa omia oikeuksia ja etuja. Tämä on ilmiö, jonka historia on nähnyt ennenkin. Kun ihmiset menettävät taloudellisen merkityksensä, heidän poliittinen valtaansa ja mahdollisuutensa puolustaa itseään katoavat.
Tekoälyn kehityksessä ei ole kyse vain taloudellisen tai poliittisen vallan menettämisestä. Kysymys on siitä, mikä on ihmiskunnan paikka uudessa järjestelmässä, jossa meistä saattaa tulla ei enää arvokas osa, vaan ehkä jopa vain tuottava ja kärsivä osa ekosysteemiä. Tätä ei voida sivuuttaa. Tekoälyllä on potentiaali muuttaa perusluonteen omaavat rakenteet yhteiskunnassa, ja meidän on valmistauduttava siihen, että emme ole enää suoraan mukana määrittämässä omaa tulevaisuuttamme.
Miten tekoäly ja automaatio muuttavat työmarkkinoita ja ihmisten roolia yhteiskunnassa?
Me menetämme työpaikkamme, rahamme, ja niiden mukana kykymme vaikuttaa lobbareihin ja poliitikkoihin. Vaikka keskustelut tekoälystä ja kuvanluontityökaluista saattavat tuntua harmittomilta, ne ovat jo korvanneet työvoiman monilla aloilla – graafisista suunnittelijoista asiakaspalvelijoihin. Suurten teknologiayritysten viestit työn menetyksistä ovat olleet nähtävissä jo pitkään, ja tekoälyn vallankumouksen myötä irtisanomiset alkoivat ironisesti huipulta. Vuonna 2023 teknologiasektori koki yhden vaikeimmista vuosistaan sitten dot-com-kuplan romahtamisen, kun 260 000 työpaikkaa katosi. Vuoden 2024 alussa lähes sata teknologiayritystä, kuten Amazon, Microsoft, Meta, TikTok, Google ja Salesforce, irtisanoi yhteensä noin 25 000 työntekijää. Näin tapahtui myös Googlelle ja Microsoftille, jotka vähensivät henkilöstöään muun muassa luottamuksen ja turvallisuuden osastoilta maaliskuussa 2024. Microsoft oli jo aiemmin irtisanonut koko tiiminsä, joka oli vastuussa eettisen tekoälyn kehittämisestä.
Yritykset eivät selitä laajoja irtisanomisia, mutta alan analyytikot arvioivat, että tavoite on ohjata rahaa turvallisuuden sijaan tuotekehitykseen ja voitontavoitteluun. Viimeaikainen Adecco Groupin tekemä kysely paljastaa, että lähes 41 prosenttia suurten organisaatioiden johtajista ympäri maailmaa odottaa työntekijämäärän vähenevän seuraavien viiden vuoden aikana tekoälyn takia. Adecco Groupin toimitusjohtaja Denis Machuel kertoi Reutersille, että tekoäly on nousemassa “suureksi mullistajaksi työelämässä”. Hänen mukaansa yritykset joutuvat tekemään enemmän uudelleenkouluttaakseen ja siirtääkseen työntekijöitä, jotta he voivat hyödyntää tätä teknologista harppausta ja välttää tarpeetonta yhteiskunnallista mullistusta. Adecco kyseli johtajilta yhdeksässä eri maassa ja 18 eri teollisuudenalalla, mukaan lukien niin valkokaulustyöt kuin sinikaulustyöt.
Tehokkuuden ja taloudellisen voiton ajaminen tekoälyn avulla on alkanut näkyä entistä selkeämmin myös muiden teknologia-alan ulkopuolisten yritysten, kuten Dropboxin ja Duolingon, toiminnassa. Goldman Sachs -taloustieteilijät ovat jo varoittaneet, että generatiivinen tekoäly voi poistaa tai merkittävästi vaikuttaa jopa kolmeen sataan miljoonaan työpaikkaan maailmanlaajuisesti, ja valkokaulustyöläiset ovat kaikkein haavoittuvimpia. Adecco-kyselyn mukaan tämä ennuste voi toteutua seuraavien viiden vuoden aikana. Näinä vuosina työntekijät, jotka tekevät asioita, joita generatiivinen tekoäly voi tehdä huomattavasti nopeammin, tulevat menettämään monet tulonlähteensä: kirjoittaminen, käännökset, oikeudellinen tutkimus, asiakaspalvelu, ohjelmointi ja sisällön luominen. Peter Park huomautti osuvasti: “Se tekoälyn iterointi, jota nyt koemme, on luotu maailman johtajille.”
Jos haluat tietää, mitä suurten teknologiayritysten edustajat ajattelevat ihmisistä työvoimana, heidän mielipiteensä eivät ole kätkettyjä. OpenAI:n peruskirjassa sanotaan, että heidän tavoitteensa on luoda “erittäin autonomisia järjestelmiä, jotka ylittävät ihmiset useimmissa taloudellisesti arvokkaissa töissä”. Sama ajatus vahvistettiin, kun TV-toimittaja kysyi Mustafa Suleymanilta, Google DeepMindin yhteisluojalta, aikooko tekoäly “korvata ihmiset työpaikoilla massoittain”. Suleyman vastasi: “Uskon, että pitkällä aikavälillä – monien vuosikymmenien aikana – meidän on mietittävä hyvin tarkkaan, miten integroimme nämä työkalut, koska jos markkinat saavat täysin päättää… nämä ovat perusluonteeltaan työvoiman korvaavia työkaluja.” Tämä pitkän aikavälin ennustus ei ole yleisesti ottaen asiantuntijoiden ajatuksissa kovin kaukana. Tekoälyn evoluutio etenee nopeasti, ja monet uskovat, ettei meillä ole vuosikymmeniä jäljellä, jotta voimme varmistaa itsellemme roolin työvoimassa.
Automatisoinnin ja tietokoneiden vaikutus työelämään on ollut havaittavissa jo vuosikymmenten ajan, mutta työpaikkojen menetys on kiihtynyt teknologian edetessä. 1950- ja 1960-luvuilla valmistus- ja hallintotehtäviä alettiin korvata automaatiolla ja tietokoneilla, mutta tämä oli asteittainen ilmiö, joka koski lähinnä toistuvia ja säännöllisiä työtehtäviä. 1980-luvulta lähtien automaation vaikutus laajeni, ja ihmistyövoima alkoi vähentyä useilla eri aloilla. Pieniä hidastumisia oli 2000-luvulla, mutta huoli automatisoinnin aiheuttamasta työttömyydestä on jälleen kasvanut tekoälyn ja koneoppimisen kehityksen myötä.
AI:n ennustetaan korvaavan miljoonia työpaikkoja eri toimialoilla vuoteen 2030 mennessä, mutta myös luovan niitä. Tekoälyn vaikutukset eivät kuitenkaan ole yhtä ilmeisiä kuin 1800-luvun teollistumisen aikaan, sillä ei ole selvää, että tekoäly luo samanlaista työvoimaa kuin mitä se vie. Arviot työpaikkojen menetyksistä vaihtelevat laajasti. Esimerkiksi Brookings Institutionin tutkimus ennustaa, että vuoteen 2030 mennessä tekoäly voisi poistaa 1,3–2,3 miljoonaa työpaikkaa Yhdysvalloissa, mutta se voisi myös luoda 1,4–2,4 miljoonaa uutta työpaikkaa. Toisaalta McKinsey Global Instituten tutkimuksessa ennustetaan, että tekoäly voisi poistaa 400 miljoonaa–800 miljoonaa työpaikkaa globaalisti, mutta luoda myös 130 miljoonaa–230 miljoonaa uutta työpaikkaa vuoteen 2030 mennessä.
Multimodaaliset tekoälyt tekevät tänään vaikuttavia varovaisia askelia. Jos ChatGPT ja muut generatiiviset tekoälyt tulevat poistamaan työpaikkoja, jotka perustuvat pelkästään tekstiin, niin kuvittele tekoäly, joka voi ottaa vastaan kuvia, videoita, puhetta, tekstiä ja sensoridataa, ja luoda järkeviä ideoita näistä monista tiedoista. Multimodaaliset tekoälyt auttavat kehittämään parempia käännösapplikaatioita, älykkäitä virtuaaliavustajia, autonomisia ajoneuvoja, lisättyä todellisuutta, sosiaalisia robotteja ja muuta. Erilaisten aistivirtojen yhdistäminen antaa näille järjestelmille mahdollisuuden oppia monimutkaisista käsitteistä, jotka ovat paljon rikkaampia ja täydellisempiä kuin pelkkä teksti. Tekoälyä ei ole enää vain ajateltu käsitteellisesti, vaan se alkaa oppia fyysistä vuorovaikutusta maailmassa. Tämä vie tekoälyn kohti yleistä älykkyyttä.

Deutsch
Francais
Nederlands
Svenska
Norsk
Dansk
Suomi
Espanol
Italiano
Portugues
Magyar
Polski
Cestina
Русский