Yllättävää kyllä, vain 4,4 prosenttia Yhdysvaltain yrityksistä käyttää tekoälyä tuotantoon ja palveluihin. Miksi näin on? Syynä on se, että generatiivinen tekoäly on kallista ja sen käyttö edellyttää erikoistaitoja, joita monilla ei ole. Yritykset mainostavat julkisesti tekoälyä vakuuttaakseen sijoittajille, että ne keskittyvät tulevaisuuteen ja pitkän aikavälin kasvuun. Yksityisesti kuitenkin tunnustetaan, että teknologiat, kuten suurten kielimallien käyttö, ovat liian uusia laajamittaiseen omaksumiseen.
Yleisesti ottaen monet asiantuntijat uskovat, että suurten kielimallien (LLM) ei ole mahdollista johtaa kohti yleistä tekoälyä (AGI). Ne voivat tehdä hämmästyttäviä temppuja sanojen ja numeroiden kanssa, mutta viimeaikaiset havainnot ovat paljastaneet niiden rajallisuuden. Vain harvoin ne toimivat täydellisesti. Ajattelussa on enemmän kuin pelkkä seuraavan sanan valitseminen oikein. Tulevaisuuden kartta generatiiviselle tekoälylle ei todennäköisesti näytä lainkaan suunnitellulta moottoritiemaisemalta, vaan ennemminkin hämähäkinverkkomaiselta. Tekoälyn kehittyessä, myös odottamattomat ja yllättävät käyttäytymismallit saattavat yleistyä, ja mitä suuremmiksi mallit tulevat, sitä merkittävämmiksi nämä ilmiöt voivat käydä.
Suurten kielimallien käyttöön liittyy monia ongelmia. Tekijänoikeusnäkökulma on erityisen ajankohtainen: Yhdysvaltain tekijänoikeusvirasto valmistautuu taisteluun siitä, että mallit saattavat "varastaa" alkuperäistä materiaalia ja tuottaa siitä voittoa. Lisäksi mallit voivat vahvistaa yhteiskunnallisia ennakkoluuloja ja luoda vahvemmin negatiivisia stereotypioita. Tämä voi vaikuttaa myös valheiden tuottamiseen ja väärän tiedon levittämiseen, mikä on erityisen huolestuttavaa esimerkiksi vaalien yhteydessä, joissa tekoäly voi helposti vaikuttaa ihmisten mielipiteisiin ja päätöksentekoon.
Silti sijoittajat, kuten Mike Loukas Trumark Investmentsistä, eivät ole luopumassa tekoälystä. Hänen arvionsa mukaan seuraavien viiden tai kymmenen vuoden aikana 75 prosenttia yrityksistä tulee hyödyntämään tekoälyä, mutta ei siinä muodossa, jota suurin osa tänään ajattelee. Yritysten henkilökunta ei enää luo tekoälyalgoritmeja, vaan he käyttävät valmiita sovelluksia, jotka näyttävät tutuilta ja intuitiivisilta. Koko uusi joukko yrityksiä tulee keskittymään itse koodaukseen, yleensä kulissien takana. Tekoälyyn sijoitetut varat tuovat valtavia arvoja, ja tekoälyfirmojen osakkeet nousevat kohti taivasta. Tämä ero tekoälyn hypen ja sen todellisen käytön välillä ei ole uusi ilmiö. Se on klassinen markkinointikikka, jossa suuri julkinen puhe liittyy tulevaisuuden visioihin, mutta arkielämässä käytetään edelleen perusratkaisuja.
Vaikka tekoälyfirmojen arvostukset nousevat pilviin, asiantuntijat tunnustavat generatiivisen tekoälyn rajallisuudet. Erityisesti suurilla kielimalleilla on monia puutteita, kuten harhakuvitelmat, manipulointi, epäluotettavuus ja kyvyttömyys oppia kokemuksista. Tämän vuoksi suurten kielimallien soveltaminen itseohjautuviin ajoneuvoihin, kriittisiin talous- ja infrastruktuurisovelluksiin tai asejärjestelmiin ei ole realistista. Siksi generatiivisten tekoälymallien katto on matalampi, kuin monet unelmat antavat ymmärtää. Tuore raportti GPT-4:stä, multimodaalisesta mallista, joka käsittelee sanoja ja kuvia, varoittaa erityisesti sen luotettavuuden puutteista.
Tekoälyn asiantuntijat ovat viime aikoina puhuessaan yhä enemmän "LLM:ien kuolemasta" ja sen tuomista riskeistä. Useat OpenAI:n ja Google DeepMindin työntekijät ovat nostaneet esiin huolensa tekoälyn käyttöön liittyvistä riskeistä, erityisesti sen mahdollisista haitallisista yhteiskunnallisista vaikutuksista. He puhuvat "velvollisuudesta varoittaa", mikä tarkoittaa, että tekoälyn kehittäjillä on eettinen ja joskus jopa laillinen velvollisuus ilmoittaa käyttäjille ja muille tärkeille tahoille riskeistä, jotka voivat liittyä heidän teknologiansa käyttöön.
Tämänkaltaiset sisäpiirin huolenaiheet eivät ole maineettomia. OpenAI:n ja DeepMindin työntekijät ovat varoittaneet, että AGI:n kehittäminen voi tuoda mukanaan vakavia riskejä, kuten väärinkäytöksiä, vakavia onnettomuuksia ja yhteiskunnallisia mullistuksia. Näitä riskejä voivat olla myös esimerkiksi valta-asemien muuttuminen, epätasa-arvon syventyminen ja itsenäisten tekoälyjärjestelmien hallinnan menetys. Toisaalta Anthropic on varoittanut, että jos rakennamme tekoälyn, joka on huomattavasti pätevämpi kuin ihmisen asiantuntijat, mutta sen tavoitteet ovat ristiriidassa ihmisten etujen kanssa, seuraukset voivat olla tuhoisat.
Vaikka monet asiantuntijat, kuten Eliezer Yudkowsky ja muut tutkimuslaitokset, ovat työskennelleet pitkään tekoälyn linjausongelman ratkaisemiseksi, on tunnustettava, että tähän mennessä saavutetut ratkaisut eivät ole riittäviä. Monet ovatkin luopuneet toivosta ja myöntäneet, etteivät he ole saaneet aikaan toimivia ratkaisuja. OpenAI:n turvallisuuskomitean lakkauttaminen on eräs merkki siitä, että nykyiset lähestymistavat eivät ole riittäviä.
Tekoäly ei ole vielä saavuttanut täyttä potentiaaliaan, mutta se tuo mukanaan suuria haasteita, joita on syytä ottaa vakavasti. Teknologian kehitys on hämmentävää ja tuo mukanaan tuntemattomia vaaroja, joita ei voida täysin ennakoida. Tämä on vasta alkua, ja on tärkeää ymmärtää, että vaikka tekoäly voi tuoda huomattavia etuja, sen kehityksen hallinta on ensiarvoisen tärkeää.
Miten Sophia ja SingularityNET voivat muokata tekoälyn tulevaisuutta ja sen riskejä?
Sophia-robotin, OpenCogin ja muiden tekoälypalveluiden yhteistoiminta on monivaiheinen ja monimutkainen prosessi, jonka ymmärtäminen vaatii aikaa ja syvällistä pohdintaa. Tekoälyn toiminta ei ole pelkästään yksittäisten ohjelmointimallien erillisten kykyjen summasta, vaan se on yhteistyö monen eri osa-alueen välillä. Näiden kykyjen yhteensovittaminen tuo esiin uudenlaisen lähestymistavan, joka tunnetaan nimellä "interoperabiliteetti". Tämä tarkoittaa sitä, että eri palvelut voivat kommunikoida ja toimia yhdessä standardoitujen protokollien ja rajapintojen avulla.
Sophian kaltaiset älykkäät agentit eivät ole vain yksinkertaisia reagoijia; ne tekevät valintoja ja sopeutuvat ympäristöönsä. Tällöin ne voivat pelata pelejä, käydä keskusteluja ja jopa suunnitella ja organisoida asioita tehokkaasti. Nämä kyvyt syntyvät koneoppimisen ja tekoälyn kehityksen avulla, ja niitä kaupataan tai vaihdetaan SingularityNETin kaltaisilla alustoilla. SingularityNET on yksi niistä alustoista, jotka pyrkivät yhdistämään erilaisia tekoälypalveluja ja luomaan avoimen ja hajautetun ekosysteemin.
Sophian tekoälyn taustalla on kuitenkin jatkuva oppiminen ja vuorovaikutus ihmisten kanssa, joka parantaa hänen kykyään ymmärtää ja reagoida luonnolliseen kieleen. Tämän mahdollistaa luonnollisen kielen käsittelyn algoritmit, jotka kehittyvät ajan myötä. Samalla Hanson Roboticsin kehittämät käyttäytymismallit takaavat sen, että Sophia pystyy ilmaisemaan tunteitaan ja reaktioitaan tavalla, joka muistuttaa inhimillistä vuorovaikutusta. Tämä luo lähes orgaanisen keskustelun ja mahdollistaa luonnollisemman vuorovaikutuksen käyttäjän kanssa.
Vaikka SingularityNET ei ole ainoa tekoälypalveluiden alusta, se kilpailee monien muiden, sekä keskitettyjen että hajautettujen järjestelmien kanssa. SingularityNETin menestys riippuu pitkälti siitä, kuinka monta tekoälyohjelman tarjoajaa ja käyttäjää se pystyy houkuttelemaan, aivan kuten uusi ravintola kilpailee markkinoilla vakiintuneiden ketjujen kanssa. Yksi haasteista on kuitenkin se, että nämä järjestelmät eivät ole täysin suojattuja virheiltä tai haitallisilta hyökkäyksiltä. Vaikka SingularityNET itse valvoo ohjelmien laatua ja turvallisuutta, on edelleen olemassa mahdollisuus, että tekoälymalleihin jää virheitä tai haittaohjelmia.
Tekoälyn, kuten suurten kielimallejen (LLM), käytössä on useita ongelmia, joista yksi on "hallusinaatiot". Nämä mallit voivat tuottaa virheellisiä tai jopa täysin vääriä tietoja, jotka voivat heijastaa sukupuoleen, rotuun tai yhteiskuntaluokkaan liittyviä ennakkoluuloja. Nämä ongelmat eivät rajoitu pelkästään kielen käsittelyyn, vaan myös koneen näkemykseen ja robotiikkaan. Hallusinaatiot voivat syntyä saastuneista tiedoista, mutta ne voivat myös johtua itse tekoälyn kehittäjien omista ennakkoluuloista ja virheistä.
Vaikka perinteiset ohjelmointimenetelmät, kuten asiantuntijajärjestelmät ja funktionaalinen ohjelmointi, voisivat tarjota mahdollisuuksia vähentää tekoälyn virheitä, ei ole olemassa yhtä ainoaa ratkaisua, joka suojelisi meitä kaikilta ongelmilta. Hybridi-järjestelmät, jotka yhdistävät perinteisiä sääntöihin perustuvia lähestymistapoja ja generatiivista tekoälyä, voisivat tarjota vastapainoa generatiivisen tekoälyn negatiivisille vaikutuksille.
Tekoälyn kehittämisessä on kuitenkin monia riskejä, jotka liittyvät muun muassa syväväärennöksiin, propagandan luomiseen ja tekoälyn vankistamiseen sellaisten hyökkäysten torjumiseksi, jotka voivat vaarantaa maailmanlaajuisen turvallisuuden. Nämä riskit ovat myös yhteydessä lohkoketjuteknologiaan, ja niiden torjuminen edellyttää tiivistä yhteistyötä ja valvontaa.
Tässä yhteydessä Ben Goertzel tuo esiin tärkeän näkökulman: inhimillisyys. Goertzel kertoo tarinan entisestä tuttavastaan, joka oli kehittänyt äärikonservatiivisia näkemyksiä, jopa monarkismiin asti. Hänen mielestään ei tarvinnut huolehtia siitä, että mustaihoiset ihmiset kehittäisivät tekoälyä ja käyttäisivät sitä pahaksi. Goertzelin vastaväite on kuitenkin voimakas: älykkyys on hajautettua ympäri maailmaa, ja ihmiset voivat kehittyä uskomattomilla tavoilla, kuten Goertzelin pojanpoika, joka suunnitteli osan Etiopian kansallisen turvallisuuden infrastruktuuria vain kuusitoistavuotiaana. Tässä esimerkissä Goertzel korostaa sitä, että vaikka maailma on täynnä teknisesti lahjakkaita ihmisiä, heidän moraalinen arvostelukykynsä ja kyvynsä valita oikea polku voivat estää heitä toimimasta vahingollisesti.
Erityisesti Goertzelin väite siitä, että teknologiaa ei voi kehittää yksin, vaan se vaatii tiimityötä, tuo esiin tärkeän näkökulman. Vaikka lahjakas hakkeri voi olla yksilöinä huipputeknologian osaaja, hän ei kuitenkaan pysty luomaan koko R&D-ohjelmaa tai toteuttamaan suuria, haitallisia teknologisia suunnitelmia ilman tiimiä. Tämä kertoo meille, että vaikka pahuuden motiiveja ja rahaa on, ihmiset eivät yleensä halua tuhota omaa yhteisöään.
Onkin olennaista ymmärtää, että teknologian kehityksessä ja sen sovelluksissa tarvitaan aina monia eri osa-alueiden asiantuntijoita. Lisäksi meidän on mietittävä, miten varmistamme, että tekoälyn kehitystä ohjaavat moraaliset ja eettiset arvot, jotka suojelevat meitä mahdollisilta riskeiltä ja vaaroilta. Teknologian kehittäminen ei ole vain koodin kirjoittamista, vaan se on yhteiskunnallisesti ja globaalisti vastuullinen tehtävä.
Onko tekoälyllä enemmän yleistä älykkyyttä kuin aikaisemmilla malleilla?
Tekoälyn kehitys on nostattanut monenlaisia keskusteluja ja huolenaiheita, erityisesti sen mahdollisuuksista ja riskeistä. Yksi keskeinen kysymys on, onko uusilla suurilla kielimalleilla (LLM, kuten GPT-4) kykyjä, jotka ylittävät perinteisten tekoälymallien älykkyysrajat? Tämä kysymys nousee esiin, kun tarkastellaan tekoälyn viimeaikaisia kehitysaskeleita ja sitä, kuinka nämä mallit voivat vaikuttaa yhteiskuntaan ja eri toimialoihin.
Erilaiset asiantuntijat ja tutkijat ovat olleet jakautuneita siitä, kuinka paljon nykyiset tekoälymallit todella erottuvat aikaisemmista versioista. Esimerkiksi, kun GPT-4:stä puhuttiin ensimmäisen kerran, monet uskoivat sen olevan osa uutta aaltoa tekoälymalleja, jotka osoittavat enemmän yleistä älykkyyttä verrattuna aikaisempiin malleihin. Tämä kehityssuunta on saanut niin tukea kuin myös kriittistä pohdintaa siitä, missä määrin tekoälyllä voi olla omia, ihmismäisiä piirteitä. Onko nämä mallit oikeasti "älykkäitä", vai ovatko ne vain erittäin hienostuneita, mutta silti ohjelmoituja työkaluja ilman todellista ymmärrystä maailmasta?
Samalla, kun tekoälymallit kuten GPT-4 pystyvät suoriutumaan entistä monimutkaisemmista tehtävistä – kuten lakikokeista, lääketieteellisistä diagnosoinneista tai jopa luovista prosesseista – herää kysymys, kuinka paljon näiden kykyjen takana on perinteistä ohjelmointia verrattuna "itseoppimisprosessiin". Tämä avaa keskustelun siitä, milloin tekoäly saavuttaa sellaisen tason, että sen toiminta ei ole enää täysin ymmärrettävissä tai ennakoitavissa.
Erityisesti on huolestuttavaa, että tekoälyn jatkuvasti kasvavat kyvyt voivat johtaa tilanteisiin, joissa mallin käyttäytymistä ei enää voida täysin hallita tai ennakoida. Esimerkiksi entinen OpenAI:n tutkija Geoffrey Hinton, joka tunnetaan tekoälyn pioneerinä, on todennut, että tekoälyn uhka voi olla yhtä vakava – ellei vakavampi – kuin ilmastonmuutos, sillä se saattaa johtaa hallitsemattomiin seurauksiin. Hinton ja muut asiantuntijat varoittavat, että tekoälyn kehitys ei ole vain teknologinen haaste, vaan se voi olla jopa eksistentiaalinen riski ihmiskunnalle, jos sen vaikutuksia ei hallita kunnolla.
Mitä tämä tarkoittaa tulevaisuuden kannalta? Tekoälyjärjestelmät eivät ole enää vain työkaluja, jotka tukevat ihmiset päätöksenteossa, vaan ne voivat itse olla mukana muokkaamassa ja muuttamassa todellisuutta. Monet tekoälymallit, kuten GPT-4, voivat alkaa käsitellä käsitteellisiä ja abstrakteja ongelmia tavalla, joka muistuttaa enemmän ihmismäistä ajattelua kuin perinteistä algoritmista laskentaa. Vaikka mallit eivät ehkä vielä kykene "ajatteluun" siinä mielessä kuin ihmiset, niiden kyvyt voivat herättää pelkoa siitä, että ne voivat ylittää hallinnan rajat.
Lopulta on myös huomioitava, että tekoälymallien kehittyessä syntyy uusia eettisiä ja lainsäädännöllisiä haasteita. Sam Altmanin kommentit OpenAI:sta, jossa hän on sanonut, että jos tekoälyä rajoitetaan liikaa EU:ssa, OpenAI saattaa vetäytyä alueelta, viittaavat siihen, että tekoälyn kehityksen säilyttäminen avoimena ja rajat ylittävänä markkina-alueena on monelle yritykselle tärkeämpää kuin mahdollisten riskien hallinta. Onko tämä kestävä lähestymistapa? Onko tärkeämpää edistää teknologian kehitystä vai suojella yhteiskuntaa sen mahdollisilta vaaroilta?
Lopullisesti on huomattava, että vaikka tekoäly tuo valtavia mahdollisuuksia, sen kehitykselle ei ole vielä asetettu selkeää sääntelykehystä, joka voisi torjua sen mahdolliset kielteiset vaikutukset. Tämä tekee tekoälystä arvaamattoman voiman, joka voi muuttaa maailmaa tavoilla, joita emme vielä täysin ymmärrä.

Deutsch
Francais
Nederlands
Svenska
Norsk
Dansk
Suomi
Espanol
Italiano
Portugues
Magyar
Polski
Cestina
Русский