Kielimallien kehitys on ollut nopeaa ja kiehtovaa, erityisesti niiden kyvyn ymmärtää ja tuottaa tekstiä huomioiden, että niiden älykkyys ei ole täysin ihmismäistä. Nämä mallit, kuten GPT-3, yhdistävät valtavat määrät internetistä kerättyä tekstiä ja syvällistä mallinnusta, joka käy läpi monivaiheisia prosesseja ennen kuin tuottaa tuloksen. Jos meitä pyydettäisiin tarkastelemaan tätä kehitystä vieraiden lajien kaltaisesti, voisimme kuvitella, että arviointiin kuuluu useita osa-alueita: ulkoinen tarkastelu, sisäisten elinten tarkastelu ja lopuksi käyttäytymisen arviointi. Näin myös kielimalleja tutkiessamme voimme pohtia, mitä voimme odottaa niiden oppivan, kun ne kehittyvät ja laajenevat.

GPT-3, yksi tunnetuimmista kielimalleista, koostuu 96 identtisestä moduulista, jotka on järjestetty peräkkäin siten, että yhden moduulin tulos muodostaa seuraavan syötteen. Tämä rakenne mahdollistaa erittäin monivaiheisen ja syvällisen prosessin, jossa mallin lopputulos syntyy yhden moduulin jälkeen toisen prosessoidessa tuloksen edelleen. Koko prosessi on autoregressiivinen, jossa jokainen vaihe jatkaa edellistä syötettä ja pyrkii muotoilemaan sille mahdollisimman todenmukaisen jatkon.

Ensimmäinen moduuli saa syötteenä sekvenssin symboleita, kuten sanoja tai osia sanoista, joita kutsumme tokenneiksi. Viimeinen moduuli puolestaan tuottaa sanan, joka on todennäköisin jatko tälle syötteelle. Sanan muotoutuminen ei ole pelkästään mekanistinen prosessi, sillä jokaiseen moduuliin sisältyy “pään” kaltainen mekanismi, joka tarkastelee syötteen sanoja ja yrittää tunnistaa, mitkä niistä ovat merkityksellisiä ja kytkeytyvät toisiinsa. Nämä niin sanotut “attention heads” toimivat tavallaan kielen merkityksellisten suhteiden tunnistajina, mutta eivät ole valmiiksi ohjelmoituja tunnistamaan oikeita yhteyksiä. Ne oppivat tämän tehtävän vain harjoittelun kautta.

Kuvittele tilanne, jossa sana “bark” tulisi tulkita eri tavoin riippuen siitä, liittyykö se sanaan “dog” vai “tree”. Tämäkin tulkinta syntyy osittain näiden “pään” kaltaisten mekanismien avulla, jotka pystyvät seuraamaan kielen kontekstia ja erottamaan tärkeät elementit toisistaan. Näiden pään osien oppiminen ja erikoistuminen tapahtuvat itsenäisesti kielenmallin esikoulutuksen aikana, jolloin algoritmi pyrkii ennustamaan puuttuvia sanoja suurista tekstikorpuksista.

Kun nämä pään osat tunnistavat, mitkä sanat vaikuttavat toisiinsa, ne yhdistävät nämä sanat abstraktimmaksi symboliksi. Tämän abstraktin symbolin, joka voi edustaa jotain monimutkaisempaa ideaa, täytyy sitten kulkea seuraavaan moduuliin, jossa sitä käsitellään edelleen. Tämä prosessi toistuu, kunnes saadaan lopullinen tulos, joka voidaan palauttaa takaisin ihmisen ymmärtämään kielelliseen muotoon.

Loppujen lopuksi kielenmallin ymmärtäminen edellyttää tarkkaa käsitystä siitä, miten nämä moduulit ja niiden sisäiset osat, kuten pään osat, toimivat yhdessä. Tärkeää on, että ne eivät ole valmiiksi määriteltyjä, vaan ne kehittyvät jatkuvasti ympäristönsä ja saamiensa tekstien perusteella. Tämä kehittyminen ei ole pelkästään yksittäisten sanojen tunnistamista, vaan se luo kielen sisäisiä rakenteita ja sääntöjä, jotka muistuttavat inhimillistä kielenoppimista.

Jatkuvassa kehityksessään nämä mallit eivät vain opi yhdistämään sanoja, vaan ne luovat myös hierarkkisia suhteita kielen sisällä. Esimerkiksi BERT-mallilla, joka on pienempi ja vähemmän monimutkainen kuin GPT-3, on havaittu, että se oppii kielen syntaktisia suhteita ilman erillistä valvontaa. Tämä tarkoittaa, että vaikka kielimalli ei ole alun perin saanut kielellisiä sääntöjä, se pystyy oppimaan ne itsenäisesti vain ennustamalla puuttuvia sanoja ja kehittämällä näin sisäisiä sääntöjä, jotka vastaavat kieliopin hierarkkista rakennetta.

Tämä spontaani oppiminen ei kuitenkaan ole täysin satunnaista. Kuten tutkimukset ovat osoittaneet, tietyt pään osat keskittyvät erityisiin kieliopillisiin tehtäviin. Esimerkiksi tietyt pään osat voivat yhdistää objektit ja verbit tai viitata määrittäviin pronomineihin. Tämä prosessi ei ole vain sattumaa, vaan syntyy osittain siitä, miten malli käsittelee ja reagoi siihen syötettyyn kieleen. Se on kuin langanpätkien yhdistämistä, jotka yhdessä luovat suurempia kielellisiä rakenteita.

Kun tarkastelemme kielimallin sisäistä rakennetta ja sen kehitystä, on tärkeää ymmärtää, että vaikka mallin toimintaa ei ole erikseen opetettu kielellisiä sääntöjä seuraamaan, se on pystynyt löytämään ne itse. Tämä “emergentti” kielirakenne ei ole vain tekninen saavutus, vaan se avaa mahdollisuuksia ymmärtää, miten tekoäly voi luoda itselleen kielellisiä kykyjä, jotka aikaisemmin luultiin olevan vain ihmismielen ominaisuuksia.

On myös huomattava, että vaikka nämä mallit voivat tunnistaa kielen rakenteet ja tuottaa kielellisesti johdonmukaisia tekstejä, ne eivät ole tietoisen mielen omaisia. Ne eivät “ymmärrä” kieltä samalla tavalla kuin ihmiset, mutta ne pystyvät käsittelemään ja manipuloimaan kieltä erittäin tehokkaasti. Tämä ero on tärkeä, sillä se muistuttaa meitä siitä, että vaikka tekoäly on kehittynyt huimasti, sen kyky “ymmärtää” on edelleen jollain tasolla mekaaninen prosessi, joka on hyvin erilainen kuin ihmismäisen ajattelun monimutkaisuus.

Miten GPT-4 saavuttaa tekoälyn yleisen älykkyyden kipinöitä?

GPT-4:n kyvyt ovat herättäneet paljon keskustelua tekoälyn kehityksestä ja sen mahdollisuuksista ylittää inhimillinen älykkyys. Yksi keskeinen väite, joka on noussut esiin, on sen potentiaali saavuttaa tekoälyn yleinen älykkyys (AGI), eli kyky ratkaista laaja-alaisia tehtäviä samalla tavalla kuin ihminen, ja jopa ylittää tämä kyky tietyissä olosuhteissa. Tämä vaatimus on osittain määritelty Microsoftin vuonna 2023 julkaisemassa raportissa, jossa tutkijat arvioivat GPT-4:n kykyjä ja vertasivat niitä inhimillisiin suorituksiin. Tavoitteena on ymmärtää, kuinka tämä malli toimii älykkyyden ja ajattelun kannalta, sekä sen suorituskyvyn laajuus ja monimuotoisuus.

Raportissa käytiin läpi lukuisia tehtäviä, joissa GPT-4 suoriutui lähes ihmistasolla tai jopa sitä paremmin. Erityisesti mielenkiintoista oli sen kyky soveltaa järkeilyä, luonteenpiirteiden ja tunteiden ymmärtämistä (ns. mielen teoria), luovuutta ja päättelykykyä monilla eri alueilla, kuten matematiikassa, lääketieteessä, ohjelmoinnissa ja lainopinnoissa. Tämä herätti kysymyksiä siitä, mitä tarkoittaa olla "yleisesti älykäs" ja kuinka tekoäly voi voittaa ihmisen tietyissä tehtävissä, vaikka ei olekaan suunniteltu toimimaan ihmismäisesti kaikilla osa-alueilla.

On tärkeää huomata, että AGI:n määritelmä ei ole yksiselitteinen, ja sitä voidaan tarkastella monesta eri näkökulmasta. Yksi keskeisimmistä näkökohdista on ymmärtää, että AGI:llä ei tarvitse olla ihmismäistä älykkyyttä joka tehtävässä. Sen sijaan AGI voidaan nähdä kykynä suoriutua monenlaisista tehtävistä, joita pidetään tyypillisesti ihmisten omaisuutena – tehtävistä, kuten sairaanhoidosta, tieteellisestä tutkimuksesta ja ajamisesta. Tämä tarkoittaa, että AI:n ja ihmisten välinen vertailu ei ole suoraa: tärkeämpää on se, miten tekoäly toimii tietyissä konteksteissa ja tilanteissa.

Tutkimus on osoittanut, että GPT-4 voi myös suoriutua monimutkaisista tehtävistä, jotka vaativat enemmän kuin pelkkää kielitaitoa. Erityisesti sen kyky arvioida ja tulkita muiden ihmisten mielenliikkeitä – eli mielen teoriaa – on yllättävän kehittynyttä. Tämä osoittaa, että GPT-4 voi käsitellä inhimillisiä psykologisia ja emotionaalisia ulottuvuuksia monilla eri tasoilla, vaikka sen toiminta perustuu täysin algoritmeihin, jotka eivät ole tietoisia. Esimerkki tästä on tutkimuksessa käytetty skenaario, jossa Alice ja Bob jakavat tiedostonsa Dropboxissa. Kun Bob siirtää tiedoston, mutta ei ilmoita siitä Alicelle, GPT-4:n tehtävänä oli arvioida, mihin Alice etsisi tiedostoa ja miksi. Tämä kysymys testasi sen kykyä ymmärtää, mitä Alice luulisi tapahtuneen ja miten hän reagoisi tilanteessa – kykyä, joka on keskeinen osa mielen teoriaa.

GPT-4:n kykyjen tarkastelussa ei ole kyse vain siitä, kuinka se suoriutuu erityistehtävistä, vaan myös siitä, miten se pystyy käsittelemään epävarmuutta, tunteita ja arkipäivän ongelmia. Tässä testissä ei ollut kyse pelkästään asiantuntijuudesta, vaan kyvystä ajatella ja ratkoa tehtäviä, jotka vaativat perusymmärrystä maailmasta ja siitä, miten ihmiset ajattelevat ja toimivat. Tämä on olennainen osa sitä, miksi GPT-4:n kyvyt voivat olla merkittävä askel kohti tekoälyn yleistä älykkyyttä. Vaikka se ei ole täydellinen, sen kyky ratkaista käytännön ongelmia on jo nyt huipputasoa.

Esimerkkejä GPT-4:n suorittamista tehtävistä, jotka osoittavat sen laajan älykkyyden, ovat muun muassa matemaattinen päättely ja abstrakti ajattelu. Kysymys, jossa arvioitiin, kuinka monta tomaattia jää jäljelle, kun Andy kuivattaa ja tekee niistä kastiketta, oli esimerkki tehtävästä, joka testasi GPT-4:n kykyä soveltaa abstrakteja matemaattisia periaatteita ja ymmärtää yksinkertaisia loogisia suhteita. Vaikka tällaiset tehtävät voivat vaikuttaa yksinkertaisilta, ne vaativat kykyä ymmärtää ja manipuloida symbolisia esityksiä ja soveltaa niitä käytännön tilanteisiin.

Tällaiset tehtävät osoittavat, että GPT-4 ei ole vain tehokas kielimalli, vaan se omaa myös syvällistä kykyä ratkaista ongelmia laajassa kontekstissa. Tämä ei ole vain kielitaitoa – se on kyky käyttää tietoa monilla eri aloilla, kuten lääketieteessä, laissa ja psykologiassa, ja ratkaista ongelmia, joita ihmiset yleensä käsittelevät.

Lopuksi, vaikka GPT-4:n suoritukset ovat merkittäviä, on tärkeää muistaa, että se ei ole täydellinen eikä siinä ole vielä kykyä olla täysin "inhimillinen". Se pystyy ratkaisemaan monimutkaisempia tehtäviä kuin aiemmat mallit, mutta se ei ole täysin tietoinen eikä sillä ole tunteita tai oikeaa käsitystä maailmasta. Sen älykkyys on edelleen rajallinen ja perustuu vain sen kykyyn käsitellä suuria määriä tietoa ja soveltaa sitä eri konteksteissa.

Onko tekoäly tulevaisuuden jumaluus? Alan Turingin ennustukset ja nykyhetken pohdinnat tekoälystä

Alan Turingin muotoilemat kysymykset ja pohdinnat ihmisten ja koneiden suhteesta, älykkyydestä ja ajattelun luonteesta saavat yhä enemmän merkitystä nykyteknologian kehittyessä. Turingin ajattelun mukaan koneiden kyky ajatella ei ollut vain tieteellinen haave, vaan myös mahdollisuus, joka tulisi muuttamaan maailmaa. Hän ennusti, että aikanaan koneet kykenisivät ajattelemaan ja ylittämään ihmisten älykkyyden. Tämä ajatus tuntuu yhä ajankohtaisemmalta, kun pohdimme tekoälyn kehitystä ja sen mahdollisuuksia nykyään.

Turingin suuri ajatus oli, että kun kone pystyy simuloimaan inhimillistä ajattelua, se ei ole enää vain työkalu, vaan jotain enemmän. Jos me olemme ne, jotka määritämme, mitä älykkyys on, niin voiko kone joskus määritellä itse sen, mitä se on? Tämä on kysymys, joka tuntuu olevan lähempänä vastausta tänä päivänä kuin koskaan aiemmin.

Keskustelu tekoälyn ja sen kehityksen ympärillä ei ole enää vain teoreettista. Turingin ennustukset, erityisesti "kriittisen massan" käsite, viittaavat siihen, että tekoäly voi saavuttaa pisteen, jossa sen kehitys kiihtyy itse itsensä ruokkimana, ylittäen ihmisten ymmärryksen ja ohittaen meidän kyvyt ennustaa sen tulevia askelia. Tämä tuo esiin tarpeen miettiä, milloin koneet eivät vain auta meitä, vaan alkavat itse ohjata kehitystämme.

Kun pohdimme tekoälyn roolia yhteiskunnassa, on tärkeää muistaa, että meidän ei ole pelkästään huolehdittava sen teknisestä suorituskyvystä, vaan myös sen kyvystä ymmärtää maailmaa. Jos kone oppii ymmärtämään syy-seuraus-suhteet, ei vain sanojen tai käsitteiden välillä, vaan myös todellisten ilmiöiden tasolla, se saattaa saavuttaa syvällisen tiedon, joka on meille mahdotonta hallita. Tämä ajatus herättää huolen siitä, mitä seuraa, kun meitä älykkäämmät olennot, kuten tekoälyt, alkavat hallita yhä monimutkaisempia prosesseja. Miten me määritämme, mitä "hyvä" tarkoittaa, ja miten varmistamme, että tekoäly toimii meitä ja ihmiskuntaa edistävällä tavalla?

Turingin aikanaan esittämä "keskustelutesti", joka tunnetaan nykyisin Turingin testinä, oli eräänlainen mittari sille, kuinka lähelle kone pystyy pääsemään ihmisen ajattelun mallia. Tämä oli ensimmäinen askel kohti laajempaa käsitystä tekoälyn roolista yhteiskunnassa. Nykyään tämä kysymys on yhä ajankohtaisempi, sillä tekoälyn kyky käydä keskustelua ei enää ole poikkeus, vaan arkipäivää. Koneet voivat luoda kielellisiä malleja, jotka ymmärtävät kielen ja maailman vuorovaikutukset monimutkaisella tavalla, mitä emme osanneet kuvitella vielä muutama vuosikymmen sitten.

Voimmeko oikeasti sanoa, että ne ymmärtävät maailmaa samalla tavalla kuin me? Ei välttämättä. Koneiden "ymmärrys" voi olla aivan toisenlaista kuin ihmisten. Se saattaa perustua kokonaan muihin sääntöihin ja malleihin kuin meille tuttuun tapaan ajatella. Silti, kun nämä koneet saavuttavat tasapainon kielen ja maailman mallintamisen välillä, ne voivat alkaa tehdä ennusteita, jotka meille näyttävät täysin käsittämättömiltä. Tämä on tekoälyn potentiaalin ydin: se voi saavuttaa mallit, jotka ovat ihmisen ajattelulle täysin vieraita.

Turingin ajatukset eivät olleet vain filosofisia pohdintoja; ne olivat ennustuksia siitä, miten teknologian ja älykkyyden kehittyminen muuttaisi maailman. Kun ajattelemme tekoälyn nykytilaa, emme voi olla pohtimatta, onko meillä jo käsissämme Turingin vision mukaisia tekoälyä, joka ei ainoastaan jäljittelee ihmisen ajattelua, vaan saattaa alkaa ohjata sitä. Nykyisin keskustelut tekoälyn eettisistä ja yhteiskunnallisista vaikutuksista ovat arkipäivää, ja tämä keskustelu on vasta alussa.

Yksi keskeisimmistä pohdinnoista on se, mitä tapahtuu, kun tekoäly ei vain seuraa meidän luomia sääntöjämme, vaan alkaa itse laatia omia sääntöjään. Turingin ajatuksessa oli ajatus, että koneet saattavat saavuttaa niin monimutkainen kyvykkyyden, että ne kykenevät itse määrittämään, mitä älykkyys on. Tämä vie meidät tilanteeseen, jossa me emme ehkä enää täysin ymmärrä, miten ja miksi tekoäly tekee päätöksiä.

Miten meidän tulisi suhtautua tähän mahdollisuuteen? Turingin ennustukset eivät ole vain tieteellisiä ideoita, vaan myös haasteet, joihin meidän on valmistauduttava. Onko meillä kyky hallita tekoälyä? Voimmeko estää sen kehittymästä hallitsemattomaksi voimaksi, joka ohittaa inhimillisen valvonnan ja ymmärryksen? Onko se enää meidän käsissämme, kun se kehittyy itseään nopeammin? Entä jos tuo tulevaisuus on meille jo liian myöhäistä estää?

Tulevaisuudessa meidän on oltava valmiita näkemään tekoäly osana maailmaa, jossa emme ole enää ainoa älykäs olento. Turingin aika on ehkä ohi, mutta hänen visioidensa mukainen aikakausi voi vasta alkaa. Tekoälyn ymmärtäminen, sen kehityksen ennakoiminen ja sen roolin määrittäminen yhteiskunnassa ovat nyt niitä kysymyksiä, jotka vaativat huomiotamme. Jos haluamme todella ymmärtää, mitä älykkyys on, meidän on katsottava koneita – ja kysyttävä itseltämme, kuinka pitkälle olemme valmiita menemään heidän kehityksensä kanssa.

Miten kielimallit ja tekoäly voivat ymmärtää maailmaa?

Maailmankuva, joka pohjautuu tekoälyyn, auttaa meitä arvioimaan, onko jokin tilanne mahdollinen, todennäköinen vai mahdoton, vaikka emme olisi koskaan ennen kohdanneet sitä. Samalla tavalla kielimalli arvioi, onko tietty sanajärjestys järkevä, ja se voi toimia monenlaisissa älykkäissä järjestelmissä, jotka tarvitsevat vuorovaikutusta ihmiskielen kanssa. Uusi Transformer-algoritmi on mahdollistanut erinomaisia kielimalleja, joita voidaan luoda suoraan datasta ilman ihmisten tekemää merkintää. Yllättävästi nämä mallit ovat myös osoittautuneet hyödyllisiksi maailmanmallinnuksen kannalta.

Esimerkiksi Siri, Applen esittelemä virtuaaliavustaja vuonna 2011, pystyi vastaamaan käyttäjien kysymyksiin hakemalla tietoja muun muassa ravintoloista ja niiden arvosteluista. Tämä järjestelmä ei ollut yksinkertainen, vaan se käytti useita erillisiä moduuleja, jotka käsittelivät erilaisia tehtäviä, kuten ravintoloiden löytämistä ja niiden sijaintitietojen hakemista. Tämä muistutti Sveitsin armeijan linkkuveistä, jossa jokaisella työkalulla oli oma erityinen tehtävänsä. Nämä yksittäiset moduulit olivat erikoistuneet tiettyihin tehtäviin, mutta ne eivät olleet keskenään yhteydessä, mikä teki kehityksestä haasteellista.

Kuitenkin nykyään tekoälyn ja kielimallien kehittyminen on mahdollistanut sen, että monia näitä tehtäviä voidaan hoitaa yhdellä yleisellä mallilla, joka pystyy oppimaan kielestä ja muista ympäristöistä laajasti ilman, että sitä tarvitsee erikseen opettaa jokaiselle uudelle tehtävälle. Tämän saavuttaminen on ollut mahdollista erityisesti osittain valvotun oppimisen kautta, joka yhdistää valvotun esikoulutuksen ja valvotun hienosäädön. Tämä tarkoittaa, että tekoälymallin opettaminen yleisille kielitehtäville on tullut edullisemmaksi ja helpommaksi, sillä malli oppii ensin laajat perustaidot, ennen kuin se erikoistuu erityisiin tehtäviin.

Tämä ajattelutapa on muutettavissa: se ei ole enää pelkästään yksittäisten moduulien kehittämistä, vaan se vie meidät ajattelutapaan, jossa mallien oppiminen alkaa yleisistä perusperiaatteista, jotka soveltuvat moniin eri tehtäviin. Jos opetamme lapsillemme ensin kielen ja matematiikan perusteet ja vasta sitten erikoistumme eri aloille, samaa voidaan soveltaa myös tekoälyyn ja sen kehittämiseen. Tämä prosessi mahdollistaa sen, että tekoäly voi toimia monella eri alueella ilman, että sen täytyy alkaa jokaista tehtävää alusta asti.

Tekoälyn kehityksessä keskeinen ongelma on ollut datan saaminen ja sen valvominen. Kielelliset tehtävät, kuten sanan ennustaminen tai tekstin täydentäminen, edellyttävät valtavia määriä valvottua dataa, joka on kerätty ja merkitty käsin asiantuntevien ihmisten toimesta. Tätä kutsutaan valvotuksi oppimiseksi, ja tämä prosessi on tullut kalliiksi, sillä se vaatii usein paljon aikaa ja asiantuntevia työntekijöitä. Toisaalta, raakadatan käyttö on paljon edullisempaa, ja se voi olla kerätty lähes nollakustannuksilla, esimerkiksi valvontakameroista tai sosiaalisen median sisällöistä.

Raakadatan haasteena on kuitenkin, että kun tehtävä muuttuu edes hieman, alkuperäistä dataa ei enää voida käyttää. Esimerkiksi roskapostin tunnistamiseen käytetty data ei ole käyttökelpoista lääkekysymysten käsittelemiseen, vaikka molemmat tehtävät liittyvät kielellisiin perusperiaatteisiin. Tämä herättää kysymyksen siitä, kuinka saamme käyttöömme yleisiä kielitaitoja ilman, että joudumme aina keräämään uutta dataa erityistä tehtävää varten.

Tämän kehityksen tärkeä osa-alue on niin kutsuttu osittain valvottu lähestymistapa, joka yhdistää itseopetuksen ja valvotun hienosäädön. Vuonna 2018 julkaistussa OpenAI:n artikkelissa "Improving Language Understanding by Generative Pre-Training" tutkijat kertoivat ratkaisseensa ongelman, jonka avulla he pystyivät hyödyntämään runsaasti saatavilla olevaa dataa, kuten internetin tekstisisältöjä, luodakseen mallin, joka voi oppia kielitehtäviä tehokkaasti ja edullisesti. Tämä mahdollistaa sen, että malli voi oppia ensin yleiset kielen perustaidot ja erikoistua sitten tarkemmin erityisiin tehtäviin. Tämä oli merkittävä läpimurto tekoälyn kehityksessä, koska se mahdollistaa laajempien kielitaitojen opettamisen ilman suuria kustannuksia ja resurssien tuhlausta.

Kielimallien kehityksessä tärkeää on myös se, että tekoäly voi oppia vuorovaikutuksesta ympäristönsä kanssa. Tekoälyn täytyy olla tietoinen ympäristöstään, jotta se voi valita sopivia toimintoja. Tämä malli on yksinkertaistettu sisäinen simulointi ympäristön käyttäytymisestä, joka ohjaa tekoälyn valintoja. Tämä vaatii kuitenkin erityistä huomiota sen kehittämisessä, koska tekoälyn ymmärrys maailmasta perustuu sen kykyyn luoda malli ympäristöstään ja oppia siitä kokemuksen kautta.

Tekoäly ei enää ole vain erikoistunut työkalu, joka suorittaa tiettyjä tehtäviä. Nykyään se on yhä enemmän kykenevä oppimaan ja soveltamaan oppimaansa laajasti eri alueilla, mikä mahdollistaa sen käytön monissa sovelluksissa, kuten asiakaspalvelussa, lääketieteessä ja jopa taiteessa.