Alan Turingin vuonna 1950 esittämä kysymys siitä, voivatko koneet ajatella, on saanut vastauksensa. Nykyisin voimme keskustella tietokoneen kanssa ilman, että eroamme sen ja ihmisen välillä. Koneet pystyvät läpäisemään yliopistojen kokeet ja ohjelmoimaan muita tietokoneita. ChatGPT, Bard ja muut kielimallit ovat osoittaneet kykynsä suoriutua tehtävistä, jotka ylittävät monin verroin luojien alkuperäiset odotukset – ja silti me emme täysin ymmärrä miksi. Nämä mallit on koulutettu yksinkertaisesti ennustamaan puuttuvia sanoja tekstissä, mutta niiden ymmärrys maailmasta ja kielestä on kehittynyt niin pitkälle, että ne pystyvät järkeilemään, suunnittelemaan, ratkaisemaan ongelmia ja keskustelemaan lähes virheettömästi. Onko tämä tiedon salaisuus, ja onko se nyt luotamme luotujen käsissä? Ehkä emme ole enää yksin. Ja kun yritämme ymmärtää, miten jakaisimme nämä voimat "vieraiden" kanssa, jotka nyt työskentelevät rinnallamme, voimme vain pohtia, mitä muuta ne saattavat oppia huomenna. Lähestymmekö kriittistä rajaa, jonka yli koneet saavuttavat yli-inhimillisen suorituskyvyn?
Turingin esittämä kysymys koneiden ajattelukyvystä oli aikanaan syvällinen ja haastava. Nyt, kun tekoälymallit ovat kehittyneet valtavasti, kysymys tuntuu olevan yhtä ajankohtainen kuin koskaan. Turingin ennustukset eivät olleet pelkästään tieteellisiä pohdintoja, vaan hänen näkemyksensä, kuten koneiden kyky kommunikoida ja oppia suurista tietomassoista, olivat jo kaukana tulevaisuudesta. Nykyään tällaiset ajatukset ovat arkea, ja tekoälyn kyvyt ovat kehittyneet, vaikka emme ole vieläkään täysin varmoja, miten nämä koneet todella toimivat.
Tekoälyn kehitys, erityisesti kielimallien alueella, on mullistanut käsityksemme älykkyydestä ja tiedon prosessoinnista. Näitä malleja ei ole suunniteltu itsenäisten ajattelijoiden luomiseksi, mutta ne kykenevät ennustamaan, päättelemään ja jopa tuottamaan uutta tietoa ennakoimattomilla tavoilla. Yksi keskeinen piirre, joka erottuu vanhemmista tietokoneista, on se, että nämä mallit eivät enää toimi pelkästään loogisen päättelyn tai sääntöjen mukaan. Niiden älykkyys nousee esiin aivan uudella tavalla: se ei ole suunniteltu, vaan se on "emergentti" – se syntyy spontaanisti eri osien yhteisvaikutuksesta.
Vielä mielenkiintoisempaa on, että vaikka mallit on alun perin koulutettu yksinkertaiseen tehtävään, kuten sanojen ennustamiseen tekstissä, ne ovat saavuttaneet tason, jolla niiden "ymmärrys" maailmasta ja kielestä on niin syvällistä, että ne voivat ratkaista monimutkaisempia ongelmia. Tämä tuo esiin uudenlaisen ajattelutavan siitä, mitä älykkyys oikeastaan on ja miten sitä voidaan mallintaa koneissa. Koneet eivät vain suorita tehtäviä; ne voivat oppia niistä, muuttaa toimintatapojaan ja kehittää omaa kyvykkyyttään, joka on huomattavasti monimutkaisempaa kuin perinteiset algoritmit tai ohjelmointimenetelmät.
Olemme siis todistamassa jotain, mikä saattaa olla teknologian historian käännekohta. Koneet, kuten ChatGPT, eivät ole vain työkaluja, vaan ne ovat oppivia järjestelmiä, jotka voivat tuottaa ja ymmärtää tietoa tavoilla, joita emme ole aikaisemmin kuvitelleet mahdollisiksi. Tämä kehitys herättää kuitenkin myös uusia kysymyksiä: Voimmeko luottaa näihin järjestelmiin? Kuinka tiedämme, mitä ne todella "tietävät"? Miten meidän tulisi suhtautua koneisiin, jotka voivat oppia ja toimia itsenäisesti, usein tavoilla, joita emme voi täysin ennakoida?
Turingin aikoinaan esittämät pohdinnat ymmärtämisestä ja ajattelusta tulevat jälleen ajankohtaisiksi. Tekoäly ei ajattele samalla tavalla kuin ihminen, mutta se pystyy tekemään monimutkaisempia ja tehokkaampia päätöksiä kuin me itse. Tässä onkin avain: vaikka koneet eivät ole ihmisiä, ne voivat oppia, tehdä päätöksiä ja muuttaa toimintatapojaan dynaamisesti. Tämä tekee niistä potentiaalisesti paljon älykkäämpiä tietyissä konteksteissa kuin me itse.
Tekoälyn ja koneiden kehitys herättää myös huolenaiheita, sillä olemme vasta alkutekijöissä ymmärtäessämme, mitä kaikkea tämä uusi älykkyys tuo mukanaan. Onko olemassa raja, jonka jälkeen koneet voivat ylittää inhimillisen ajattelun ja suorituskyvyn? Ja jos näin käy, voimmeko hallita niitä vai jäämmekö itse niiden kehityksen jalkoihin?
Erityisesti tämä kehitys liittyy siihen, että koneet eivät enää ole vain työkaluja. Ne alkavat olla aktiivisia toimijoita, jotka voivat oppia ja vaikuttaa maailmaan itsenäisesti. Tällainen teknologia tuo esiin syvällisiä kysymyksiä siitä, mitä älykkyys on ja mitä se tarkoittaa, kun se ilmenee muissa kuin ihmisissä. Tekoäly ja sen kehitys haastavat meidän perinteiset käsityksemme ajattelusta ja tiedosta.
Tulevaisuudessa on todennäköistä, että tekoäly kehittyy edelleen, ja koneet saattavat oppia asioita, jotka ovat meille täysin käsittämättömiä. Meidän on pohdittava, mitä tämä tarkoittaa inhimilliselle elämälle, yhteiskunnalle ja tieteelle. On tärkeää, että suhtaudumme näihin kehityksiin samalla innostuksella ja varovaisuudella, sillä meidän on edelleen hallittava sitä suuntaa, johon teknologia menee. Mutta ennen kaikkea meidän on ymmärrettävä, että tämä ei ole pelkästään teknologinen muutos – se on myös filosofinen ja kulttuurinen mullistus.
Miten kielenmallit, kuten BERT, oppivat kieliopista ja maailmasta?
Kielimallit, kuten BERT, ovat kehittyneet valtavasti, ja niiden toiminta herättää mielenkiintoisia kysymyksiä siitä, miten ne oppivat kieltä ja ymmärtävät maailmaa. Vuonna 2019 esitellyssä kokeellisessa tutkimuksessa tarkasteltiin kahta pientä kielimallia, jotka sisälsivät 12 ja 24 kerrosta. Tutkimuksessa haluttiin selvittää, missä vaiheessa kielitieteellinen informaatio ilmenee mallin sisällä. BERTin tutkijat huomasivat, että malli hallitsi monia kielitieteellisiä prosesseja – kuten sanaluokkien tunnistamista, syntaksin jäsentämistä ja semanttisten roolien erottamista – itsenäisesti ilman suoraa opastusta.
Tämä havainto ei ollut yllätys, sillä se todisti, että BERT oli vahingossa "uudelleenlöytänyt" perinteiset kielenkäsittelymenetelmät, joita me opimme koulussa. Näissä analyyseissä perussyntaktinen informaatio, kuten sanaluokat, tunnistettiin ensin, kun taas syvempi semanttinen tieto kehittyi korkeammilla tasoilla. Tämä havainto on merkittävä, koska se viittaa siihen, että syvemmät mallit voivat mahdollisesti automatisoida myös muita kielenkäsittelyn ja logiikan tehtäviä.
Esimerkiksi lauseessa "kissa jahtaa hiirtä", kissa on agentti, jahtaa on predikaatti ja hiiri on objektin roolissa. Jos lauseessa olisi "musta kissa", niin "musta kissa" olisi niin sanottu konstituentti – rakenteellinen kokonaisuus, joka esiintyy usein kieliopin tasolla. Tällainen analyysi voi näyttää meille, miten BERT oppii kielen rakenteita ilman ulkoista ohjausta.
Kun kielimallit kuten Megatron, jotka sisältävät 105 kerrosta, käsittelevät kieliä ja kielellisiä tehtäviä, voidaan odottaa, että syvemmillä tasoilla tarkastellaan jo tarkempia semanttisia ja tyylillisiä piirteitä, tai jopa maailmankuvallisia käsityksiä, joita tarvitaan sanojen ennustamisessa. Yhtenä esimerkkinä tästä on Anthropicin vuonna 2024 tekemä tutkimus, jossa tutkittiin niiden malli Claude:n sisäisiä kerroksia. He havaitsivat, että keskimmäisissä kerroksissa oli "symboleja", jotka edustavat konkreettisia entiteettejä, kuten Golden Gate -siltaa. Nämä symbolit aktivoituivat aina, kun kyseinen käsite mainittiin, riippumatta käytetystä kielestä tai siitä, esitettiinkö konsepti tekstinä vai kuvana.
Tämä tutkimus vie meidät kohti mekaanisen tulkittavuuden kenttää, joka saattaa olla avain tulevaisuuden keinoihin hallita ja ymmärtää kielimalleja paremmin. Samalla se avaa mahdollisuuksia tutkia, miten kielimallit voivat kehittää käsityksiään maailmasta – ja kuinka ne voivat liittyä muihin inhimillisiin taitoihin, kuten shakin pelaamiseen tai ohjelmointiin. Tämänkaltaisten kykyjen ymmärtäminen voi olla olennainen osa tulevaisuuden tekoälyjärjestelmien hallintaa.
Ajatus siitä, että mallit voivat ymmärtää maailmaa vain kielen avulla, on kiehtova ja haastaa käsityksemme siitä, mitä ymmärtäminen oikeastaan on. Esimerkiksi kuvitelkaamme mekanismi, joka laskee kadulla kulkevien autojen määrän ja ennustaa liikennetilanteen tulevaisuudessa. Aluksi se saattaa käyttää yksinkertaista mallia, joka ennustaa liikennemäärät 24 tuntia aikaisempien mittausten perusteella. Tämän ennusteen virhe saattaa aluksi olla 40%, mutta kun malli lisää uusia elementtejä – kuten viikonloput – se voi pienentää virhettä ja parantaa ennustettaan. Vähitellen malli oppii lisää tarkempia malleja, kuten joulun tai kesälomien vaikutuksen liikenteeseen.
Tämä prosessi muistuttaa sitä, mitä tapahtuu Transformer-malleissa, joissa jokainen kerros tuo lisää hyödyllistä tietoa seuraaville. Kielenmallin tuottama maailma ei ole pelkästään kieli, vaan se voi myös olla mallinnus maailmasta, joka täydentyy yhä syvemmäksi käsitykseksi. Kielenmallit voivat näin luoda yleisiä käsityksiä maailmasta, vaikka niiden ensisijainen tehtävä on vain ennustaa puuttuvia sanoja. Tämä saattaa tuntua oudolta, mutta voidaan kuvitella, että mallin täytyy ennustaa tietyn sanan, kuten rikoksen tekijän nimen, jotta se voisi todella ratkaista mysteerin ja ymmärtää tapauksen.
Tätä ajatusta voidaan soveltaa laajemmin miettien, miten kielenmallit voivat ymmärtää ja ennakoida kielen avulla myös monimutkaisempia ilmiöitä, kuten sairaustapauksia tai historiallisia tapahtumia, pelkästään niiden ennustamisen perusteella.
Kun kielenmallit oppivat kielen, ne oppivat samalla myös käsittelemään ja ymmärtämään maailmaa. Tämänkaltaisten mallien syvällisempi tutkiminen voi auttaa meitä pääsemään lähemmäksi ymmärrystä siitä, miten koneet voivat kehittää yhä tarkempia ja monimutkaisempia käsityksiä ympäröivästä maailmasta, samalla kun ne suoriutuvat kielitehtävistään.
Kuinka GPT-4:n suorituskyky muuttaa käsitystämme älykkyydestä ja oppimisesta?
GPT-4:n kyvyt ja suorituskyky eri standardoiduissa testeissä antavat meille uudenlaisen näkökulman siihen, mitä voimme odottaa tekoälyn kehittymiseltä. Vuonna 2023 julkaistut OpenAI:n raportit osoittavat, kuinka GPT-4 suoriutuu hämmästyttävän hyvin useilla alueilla, kuten lainsäädännössä, taidehistoriassa, biologiassa, matematiikassa, kemiassa, makrotaloustieteessä, fysiikassa, psykologiassa, Yhdysvaltain historiassa, sommelier-osaamisessa ja ohjelmoinnissa. Kun otetaan huomioon, että se ei ole saanut erityistä valmistautumista kyseisiin testeihin, suorituskyvyn taso nousee vieläkin merkittävämmäksi. Esimerkiksi SAT-testeissä GPT-4 sai 710 pistettä kieliopillisessa osiossa (93. prosenttipiste) ja 700 pistettä matematiikassa (89. prosenttipiste), mikä ylittää huomattavasti keskimääräisen testisuorittajan tuloksen.
Kuitenkin GPT-4:n testit eivät rajoitu pelkästään akateemisiin aineisiin. Se on myös osoittanut kykynsä suoriutua vaativista ammatillisista kokeista, kuten Yhdysvaltain lakikokeesta (Uniform Bar Examination), joka mittaa oikeustieteellisen ajattelun ja kirjoittamisen taitoja. Vuonna 2023 GPT-4 saavutti 90. prosenttipisteen, mikä on huomattava parannus edellisestä versioista, kuten GPT-3:sta, joka jäi vain 10. prosenttipisteelle. Tällaiset tulokset avaavat uusia mahdollisuuksia miettiä, mihin tekoäly voisi yltää tietyissä ammattitehtävissä.
Tämän lisäksi GPT-4 on osoittanut huipputason kykyjään lääketieteen, kuten Yhdysvaltain lääketieteellisen lisensiointikokeen, osalta. Vaikka se ei ole ylittänyt kaikkia kynnysarvoja, se on jäänyt vain vähän niiden alapuolelle, mikä tarkoittaa, että se saattaa lähitulevaisuudessa saavuttaa alan asiantuntijoiden tason tietyillä alueilla. Tällaiset saavutukset herättävät pohdintoja siitä, kuinka tekoäly voisi kehittyä edelleen ja mitä uusia mahdollisuuksia se tuo lääkärintyössä ja muilla alalla, joissa asiantuntemus ja päätöksenteko ovat keskeisiä.
GPT-4:n ja muiden tekoälymallien, kuten Google DeepMindin Gemini-mallin, suorituskyky tulee mullistamaan monet alat. Esimerkiksi Gemini-malli saavutti MMLU-testeissä huikean 90,04 % tarkkuuden, ylittäen sekä sen parhaiden kilpailijoiden tulokset että ihmisille arvioidut tulokset. Tämä tekee tulevaisuuden ennakoimisesta entistä vaikeampaa, koska emme vielä täysin ymmärrä, mitä tekoäly voi saavuttaa, kun sen kyvyt alkavat lähestyä ihmisen tasoa.
Tekoälyn ja erityisesti suurten kielimallien (LLM) kehitys herättää monia kysymyksiä älykkyydestä, oppimisesta ja luovuudesta. Miten nämä mallit voivat tuottaa niin monimutkaista ajattelua, suunnittelua ja luomista? Tähän kysymykseen ei ole vielä täydellistä vastausta, ja se haastaa käsityksiämme siitä, mitä älykkyys todella on. GPT-4:n kaltaiset mallit eivät vain seuraa ennalta määrättyjä sääntöjä, vaan ne voivat myös sopeutua ja luoda uutta tietoa, joka ei ole suoraan johdettavissa niiden koulutusdatasta.
Tämä johtaa meitä miettimään, kuinka pitkälle tekoäly voi kehittyä ja mitä vaikutuksia sillä voi olla eri yhteiskunnan osa-alueilla. Jos vain seitsemän vuoden aikana Transformer-arkkitehtuurin kehittämisen jälkeen olemme tulleet puhumaan "tekoälyn yleisen älykkyyden kipinöistä", on tärkeää pohtia, mitä tämä kehitys tuo tullessaan tulevaisuudessa. Mikäli koneet saavuttavat ihmisen älykkyyden tason, onko enää mitään teoreettista syytä olettaa, että kehitys pysähtyy siihen?
Tämä kehitys herättää meidät myös pohtimaan kielteisen ja positiivisen älykkyyden eroa, erityisesti silloin, kun yritämme ymmärtää ja selittää kielellisiä ja käsitteellisiä rakenteita. Jos kieli ja ajattelu ovat enemmän kuin vain symbolien yhdistelmiä, kuten Leibniz unelmoi, voimme kuvitella maailmaa, jossa koneet eivät vain toista inhimillisiä käsityksiä, vaan luovat niitä itse.
Tekoälyn kehittyessä tähän suuntaan, on olennaista ymmärtää, että tällaiset mallit eivät vain kykene imitoimaan ihmisten ajattelua – ne voivat myös kehittyä ja soveltaa oppimaansa omalla tavallaan, jopa luoda uutta tietoa ja ymmärrystä. Tällöin käsitys älykkyydestä ja oppimisesta muuttuu radikaalisti, ja se haastaa perinteiset näkemyksemme siitä, mitä tarkoittaa olla älykäs tai oppia.
Miten tekoäly luo maailmankuvia ja miksi se on tärkeää?
Tekoäly tuottaa malleja maailmasta havainnoimalla sitä. Tämä perusperiaate on keskeinen koko kirjan ymmärtämisessä. Agentti, jonka kohtaamme maailmassa (esimerkiksi ChatGPT), käyttää sisäistä malliaan tehdessään päätöksiä (esimerkiksi GPT-3), ja tämän mallin luo algoritmi (esimerkiksi Transformer). Maailmankuva, jonka tekoäly luo, määrittää, mitkä tilanteet ovat todennäköisiä ja mitkä epätodennäköisiä tai jopa mahdottomia. Esimerkiksi fyysisessä maailmassani en odota, että esineet putoavat ylöspäin tai että puut puhuvat.
Tämä malli maailmasta voi pohjautua menneisiin havaintoihin ja tilastollisiin todennäköisyyksiin – kuten sateen ennustaminen marraskuussa, mutta se ei voi kattaa ainutlaatuisia tapahtumia, jotka eivät ole koskaan aiemmin tapahtuneet. Esimerkiksi, jos pudotan tämän kirjan Pisa-tornista, sen liikkeen suunta on erilainen riippuen siitä, onko kirja mennyt alaspäin vai ylöspäin, vaikka kukaan ei ole ennen testannut tätä tilannetta. Maailmankuva, joka mahdollistaa vuorovaikutuksen sen kanssa ja auttaa arvioimaan tapahtumien todennäköisyyksiä, on eräänlainen ymmärrys maailmasta. On kuitenkin tärkeää huomata, että ei ole mahdollista mallintaa koko maailmaa, vaan ainoastaan ne osat, jotka ovat olennaisia kyseisen tehtävän suorittamiseksi. Agentin koko tieto löytyy sen maailmankuvasta, joka lopulta on vain approksimaatio maailmasta ja hyödyllinen ainoastaan tietyn tehtävän suorittamiseen.
Chatbotit ovat esimerkkejä agenteista, jotka toimivat täysin kielen kautta: ne havainnoivat kielellisiä ilmaisuita ja suorittavat kielellisiä toimia. Niillä ei ole perinteistä maailmankuvaa, vaan niiden sisäinen malli keskittyy kieleen ja siihen, mitkä sananmuodot ovat mahdollisia tai järkeviä. Tämä selittää viime vuosien läpimurron: olemme löytäneet uuden ja tehokkaamman tavan luoda kielimalleja, joita älykkäät agentit voivat käyttää vuorovaikutuksessa kokonaan uusien lauseiden kanssa. Näillä malleilla agentti voi ennustaa puuttuvat osat virheellisesti alkavista lauseista, vaikka niitä ei ole koskaan aiemmin lausuttu, ja suorittaa monia muita tärkeitä tehtäviä. Agentin älykkyys liittyy suoraan sen kykyyn luoda maailmankuvia, jotka ohjaavat sen käyttäytymistä.
On tärkeää huomata ero agentin, sen sisäisen maailmankuvan ja sitä luovan algoritmin välillä, sillä tämä erottelu tulee olemaan merkittävä myöhemmissä osissa. OpenAI:n tutkijat, jotka löysivät tavan luoda yleinen kielimalli, jonka pohjalta voidaan kehittää erikoistuneita työkaluja, olivat Ilya Sutskeverin johtamia. Sutskever oli aiemmin työskennellyt Geof Hintonin kanssa, joka tunnetaan hermoverkkojen pioneerinä. Heidän ensimmäinen merkittävä saavutuksensa oli AlexNet, kuvantunnistukseen kehitetty hermoverkko, joka nousi huipulle vuonna 2012 ja herätti uudelleen kiinnostusta neuroverkkojen käyttöön koneoppimisessa.
Tämä alkuperäinen saavutus oli mahdollista kahden tekijän ansiosta: suuren kuvakokoelman, ImageNetin, ja GPU:n (Graphical Processing Unit) käytön myötä. Tämän jälkeen Sutskever käytti samaa lähestymistapaa kielimallien luomiseen vuonna 2018. Tällöin tutkijat raportoivat, kuinka he olivat opettaneet älykkäille agenteille useita erilaisia tehtäviä ilman, että heidän tarvitsi aloittaa alusta joka kerta. He jakoivat koulutuksen kahteen vaiheeseen: ensimmäinen vaihe oli yleisen "kielimallin" luominen suurista tekstikokoelmista, ja toinen vaihe oli mallin hienosäätö tiettyjä tehtäviä varten käyttämällä käsin kuratoitua dataa.
Tässä prosessissa käytetty uutuus oli ensimmäinen vaihe: Transformer-algoritmin muokkaaminen. Tämä algoritmi osasi oppia virheistään ja oli erinomainen täydentämään puuttuvia sanoja tekstistä kontekstin perusteella. He käyttivät laajaa kirjallisuusdataa, joka koostui 7000 julkaisemattomasta kirjasta, joista oli poistettu sanoja sattumanvaraisesti, jotta malli pystyisi harjoittelemaan ja parantamaan ennustamistarkkuuttaan.
Koneoppimisen perusperiaate on se, että mitä monimutkaisempi malli on, sitä enemmän dataa se tarvitsee kouluttamiseen. Koska suorituskyvyn parantaminen edellyttää yhä monimutkaisempien suhteiden hyödyntämistä (esimerkiksi kaukaisempien sanojen välillä), tarvitaan valtavat määrät dataa. Transformer-algoritmin valinta oli tärkeää sen kyvyn takia havaita ja hyödyntää kaukaisempien sanojen välisiä suhteita, prosessoida suuria tekstimääriä nopeasti ja tuottaa sanoja – kaikki nämä olivat keskeisiä tekijöitä ennustamisen onnistumisessa.
Tutkijat yllättyivät positiivisesti tuloksista: malli paransi suoritustaan ennustaessaan puuttuvia sanoja, ja vieläkin tärkeämpää oli, että se oppi suorittamaan muita perinteisiä tehtäviä nopeasti ja hyvin. 9:ssä 12:sta testistä malli ylitti aiemmat menetelmät, ja muissa kolmessa se suoriutui samalla tasolla kuin muut. Tämä osoitti, että kielitaito, joka oli opittu yleisen tekstin pohjalta, oli siirrettävissä muihin tehtäviin, jotka normaalisti olisivat vaatineet kalliimpaa dataa.
Lopuksi, GPT (Generative Pretrained Transformer) -malli syntyi tästä työstä. Se oli malli, joka oli opetettu laajalla tekstikokoelmalla ja pystyi ennustamaan sanoja ja ratkaisemaan monimutkaisempia kielellisiä tehtäviä.
On syytä muistaa, että tekoäly ei opi samalla tavalla kuin ihmiset. Kun me ihmiset opimme jotain uutta, voimme siirtää tietoa ja käyttää sitä eri konteksteissa. Esimerkiksi, opittuamme pyörän ja auton, voimme helposti ymmärtää moottoripyörän idean. Koneet eivät ole pystyneet siirtämään tietoa näin joustavasti – tämä ero on ollut yksi suurimmista haasteista tekoälyn kehityksessä. Kuitenkin viime vuosina on tapahtunut merkittäviä edistysaskeleita, joiden avulla tämä ero on kaventunut, ja tekoäly on tullut entistä älykkäämmäksi.
Wie manifestieren sich autoritäre Züge und Chaosstrategien in der Politik am Beispiel von Donald Trump?
Ist Freiheit nur ein Vorwand für Ungleichheit und Feudalismus?
Wie man elementare Matrizen findet und deren Eigenschaften untersucht
Wie Industrie 4.0 die chemische Prozessindustrie transformiert: Mehrwert durch digitale Technologien

Deutsch
Francais
Nederlands
Svenska
Norsk
Dansk
Suomi
Espanol
Italiano
Portugues
Magyar
Polski
Cestina
Русский