Suuren kielimallin kouluttaminen on prosessi, joka vaatii huomattavia resursseja, erityisesti laskentatehon ja muistin suhteen. Tällöin kustannukset nousevat usein suuriksi ja voivat olla esteenä mallien kehittämiselle pienempien organisaatioiden tai resurssien rajoitusten vuoksi. Kuitenkin, erilaisten tekniikoiden ja menetelmien, kuten parametrien säästämisen hienosäädön (PEFT), käyttö voi merkittävästi pienentää näitä kustannuksia samalla, kun mallin suorituskyky säilyy.

Yksi keskeisimmistä lähestymistavoista on käyttää tehokkaita tietotyyppivaihtoehtoja (dtypes), kuten 16-bittisiä ja 8-bittisiä esityksiä, jotka voivat pienentää mallin kokoa ja vähentää tarvittavaa muistia. Yleisesti ottaen, täysimittainen mallin koulutus, kuten Falcon 40B -mallilla, vaatii valtavat muistivaatimukset. Esimerkiksi 32-bittinen liukulukumuoto (float32) vie lähes 150GB muistia pelkälle mallin parametrille, mutta kokonaiskustannukset voivat nousta jopa 600GB:iin, kun otetaan huomioon optimointivaiheet ja muiden tilojen tarpeet. Kuitenkin pienemmät esitykset, kuten int8 tai int4, voivat vähentää muistivaatimuksia huomattavasti. Tämä tarkoittaa sitä, että LoRA (Low-Rank Adaptation) -menetelmällä voidaan kouluttaa mallia vain pienen osan parametreista, mikä edelleen pienentää muistivaatimuksia ja vähentää kustannuksia.

Erityisesti LoRA tarjoaa mahdollisuuden hienosäätää vain mallin osia sen sijaan, että jouduttaisiin kouluttamaan koko 40 miljardin parametrin mallia. Esimerkiksi, int8-muodossa LoRA-viritys vie vain noin 50GB muistia, mikä on merkittävä säästö verrattuna täyteen koulutukseen. Tämäntyyppinen säästö on erityisen tärkeää, kun otetaan huomioon, että monilla organisaatioilla ei ole varaa suuriin laskentatehoihin. LoRA:n avulla voidaan kouluttaa suuret mallit paljon vähemmillä resursseilla ja edelleen saavuttaa hyvä suorituskyky.

Valittaessa käytettävää GPU:ta on tärkeää ottaa huomioon sen läpimeno ja hinnan ja käytettävyyden suhteen. Erityisesti A100- ja V100-GPU:t tarjoavat erilaisia etuja, kuten suuremman läpimenon uudemmilla Tensor Float (TF) tarkkuuksilla. A100:n läpimeno voi olla jopa 20 kertaa suurempi kuin V100:n, vaikka V100:llä voi olla pienempi tuntihinta. Näin ollen on taloudellisesti järkevää valita suurempi GPU, vaikka sen tuntihinta saattaa olla korkeampi. Tämä on erityisen tärkeää silloin, kun koulutetaan suuria malleja, sillä isommat laitteet pystyvät suoriutumaan tehtävästään nopeammin ja vähentämään kokonaiskustannuksia.

Keskustelussa on tärkeää ymmärtää myös mallin koko ja sen vaikutus sen käsittelyyn. Suurilla kielimalleilla, kuten Falcon 40B:llä, malli koostuu 40 miljardista parametrista, ja jokainen parametri vaatii oma muistialueensa. Täysimittainen koulutus on kallista, mutta LoRA ja kvantifiointi tarjoavat keinoja vähentää resursseja, joita tarvitaan mallin säilyttämiseen ja optimointiin.

Kvantifiointi, erityisesti siirtyminen kohti pienempiä bittiesityksiä, on toinen tapa pienentää koulutuksen kustannuksia. Tämä prosessi muuntaa mallin painot korkeata täsmällisyysliukulukumuodosta matalampiin tarkkuuksiin, kuten 16-bittisiin tai 8-bittisiin kokonaislukuformaatteihin. Kvantifiointi ei pelkästään pienennä muistivaatimuksia, vaan se voi myös nopeuttaa laskentaa ja vähentää tarvittavaa prosessointiaikaa.

Skaalautuvuus on toinen tärkeä tekijä suurten kielimallien koulutuksessa. Kun malli kasvaa ja sen parametrit lisääntyvät, on todennäköistä, että tarvitset useita GPU:ita. Tässä tapauksessa on tärkeää tutkia GPU-klaustereiden käytön mahdollisuuksia ja kustannuksia. Koko mallin koulutuksessa voidaan käyttää mallin jakamista (model sharding), mutta tämä voi lisätä monimutkaisuutta ja vaatia lisäresursseja, kuten hajautettuja laskentatehoja.

Tulevaisuudessa odotettavissa on, että yhä tehokkaammat ja erikoistuneet piirit, kuten LLM-koulutukseen optimoidut sirut, tulevat helpottamaan ja nopeuttamaan suurten kielimallien koulutusta. Lisäksi pienempien, mutta tehokkaampien mallien kehittäminen voi tuoda etuja, jotka tekevät niiden kouluttamisesta ja käyttämisestä entistäkin kannattavampaa.

Käytettävien menetelmien valinta ja tehokkuus ovat ratkaisevia, kun halutaan vähentää suurten kielimallien koulutuksen kustannuksia. Parametrien hienosäätö, LoRA ja kvantifiointi tarjoavat huomattavia säästöjä muistissa ja laskentatehossa, ja oikean GPU:n valinta voi vaikuttaa merkittävästi kustannusten optimointiin. Kaikki nämä tekijät yhdessä voivat auttaa maksimoimaan malli-investoinnin tuoton, erityisesti kun suurten mallien käyttöönotto on yhä suositumpaa ja kilpailu niiden kehittämisessä tiukempaa.

Miten Vector-tallennus ja Ketjutus Optimoivat LLM-järjestelmien Kustannustehokkuutta ja Suorituskykyä?

Kun pohditaan LLM-järjestelmiä (kuten suuria kielimalleja) ja niiden kustannustehokkuuden optimointia, on tärkeää ymmärtää, miten ne voivat käsitellä usein toistuvia kyselyitä ilman tarpeetonta laskentatehoa. Tämä on erityisen relevanttia, kun käytetään esimerkiksi lääketieteellisissä sovelluksissa tai muissa asiantuntijajärjestelmissä, joissa vastaukset voivat olla ennalta määritettyjä ja toistuvia. Tällöin kyselyn ja vastauksen tallentaminen vektoritallennukseen tarjoaa merkittäviä etuja.

Oletetaan, että lääketieteellinen tutkija haluaa tietoa lääkkeiden yhteisvaikutuksista. Hän syöttää järjestelmään kyselyn "Mitkä ovat lääkkeiden A ja B yhteisvaikutukset?". Tässä tapauksessa järjestelmä ohjaa kyselyn vektoritallennukseen etsimään aiempia vastauksia, jotka on tallennettu sinne vektorimuodossa. Järjestelmä laskee uuden kyselyn vektorin ja vertaa sitä aiempien kyselyiden vektoreihin, käyttäen kosinimittausta semanttisen samankaltaisuuden arvioimiseen. Mikäli aiemmin on kysytty samanlaista kysymystä, kuten "Kerro lääkkeiden A ja B yhteisvaikutuksista", ja tämä kysymys on aiemmin käsitelty ja tallennettu LLM:ssä, vektoritallennus tunnistaa yhteyden.

Kun kyselyiden välillä on korkea kosinimittauspiste, järjestelmä palauttaa tallennetun vastauksen suoraan ilman, että kyselyä tarvitsee prosessoida uudelleen. Tämä ei ainoastaan nopeuta vastauksen saamista, vaan myös säästää laskentatehoa ja kustannuksia, koska uudelleenkäsittelyä ei tarvita. Useiden käyttäjien esittämät samanlaiset kysymykset voivat myös johtaa siihen, että järjestelmä valitsee vastauksen, joka on saanut korkeimman pisteytyksen.

Tämä vektoritallennusten hyödyntäminen on keskeinen tekijä kustannusoptimoinnissa, erityisesti silloin, kun käytössä on useita LLM:jä. Tämä vähentää samanlaisten kyselyiden käsittelyyn vaadittavia resursseja ja tuo merkittäviä säästöjä erityisesti tilanteissa, joissa käytetään maksullisia LLM-palveluja. Esimerkiksi reaaliaikaisten suositusten antaminen voi olla kallista, mutta tallentamalla useimmin kysytyt kysymykset ja niiden vastaukset vektoritallennukseen voidaan pienentää suositusten antamiseen kuluvaa kustannusta. Tällöin käyttäjälle voidaan tarjota laadukkaita ja tarkistettuja vastauksia ilman, että koko LLM-prosessia tarvitaan joka kerta.

Vektoritallennusten käyttö on laajentunut, ja se on nykyään yleisesti käytössä eri toimialoilla, sillä se tuo merkittäviä etuja sekä kustannustehokkuudessa että suorituskyvyssä. Tässä yhteydessä on kuitenkin muistettava, että vektoritallennuksen ylläpitäminen tuo omat haasteensa. Tällöin tärkeäksi nousevat mm. välimuistin poistopolitiikat ja se, kuinka varmistetaan tallennettujen tietojen tarkkuus ja ajantasaisuus. Samoin on pohdittava, kuinka ylläpitää vektoritallennusta niin, että sen käyttö ei itse aiheuta ylimääräisiä kustannuksia.

Ketjutuksen tekniikka, joka liittyy pitkien asiakirjojen käsittelyyn, on toinen keskeinen osa kustannustehokkuuden optimointia LLM-järjestelmissä. LLM:llä on usein token-rajoituksia, jotka estävät pitkien asiakirjojen käsittelyn yhdellä kertaa. Esimerkiksi GPT-3.5:n 8 192 tokenin raja voi olla riittämätön, jos käsiteltävä asiakirja on huomattavasti pidempi. Tällöin on hyödyllistä jakaa asiakirja pienempiin osiin, joita voidaan käsitellä erikseen.

Ketjutuksen perusajatus on jakaa pitkä asiakirja pienemmiksi osiksi, kuten kappaleiksi tai osioiksi, jotka voidaan käsitellä itsenäisesti LLM:llä. Tämä mahdollistaa asiakirjan käsittelyn osissa, jolloin jokaisen osan analyysi voidaan yhdistää aikaisempien osien tuotoksiin. Näin pyritään säilyttämään asiakirjan kontekstuaalinen ymmärrys, vaikka käsittely on jaettu useaan osaan. Esimerkiksi, jos käsiteltävänä on 20 000 tokenia sisältävä oikeudellinen asiakirja, se voidaan jakaa 2 000 tokenin osiin ja käsitellä yksi osa kerrallaan.

Ketjutuksen avulla voidaan myös optimoida kustannuksia. Kun asiakirja on jaettu osiin, voidaan osien käsittelyä suorittaa rinnakkain, hyödyntäen moniprosessointimahdollisuuksia, jolloin kokonaiskäsittelyaika lyhenee. Lisäksi, kun aiemman osan käsittely antaa tuloksia, voidaan seuraavan osan käsittelyä optimoida siten, että vain relevantit osat otetaan mukaan, mikä vähentää tarpeetonta prosessointia ja parantaa kustannustehokkuutta.

Ketjutuksen haasteena on, että asiakirjan jakaminen ei saa estää LLM:ää ymmärtämästä asiakirjan kokonaistarkoitusta. Jakamispisteet on valittava huolellisesti, jotta konteksti säilyy. Samoin välivaiheiden tallentaminen ja hakeminen voi lisätä monimutkaisuutta ja kustannuksia, joten tämäkin on otettava huomioon ketjutusta käytettäessä.

On tärkeää ymmärtää, että pitkien asiakirjojen käsittelyssä sekä vektoritallennuksen että ketjutuksen avulla voidaan paitsi parantaa suorituskykyä myös merkittävästi alentaa kustannuksia. Tämä on avainasemassa, kun otetaan huomioon LLM-järjestelmien korkeat käyttö- ja ylläpitokustannukset. Samalla on otettava huomioon tasapaino datan tuoreuden ja tallennuksen tehokkuuden välillä, jotta varmistetaan, että vastaukset eivät jää vanhentuneiksi, mutta järjestelmän käyttö pysyy kustannustehokkaana.

Miten arvioida ja hienosнадzäs domain-spesifisiä malleja verrattuna yleiskäyttöisiin malleihin?

Domain-spesifiset mallit ovat yhä suositumpia, koska ne kykenevät paremmin mukautumaan tietyn alueen vaatimuksiin, hyödyntämään resursseja tehokkaammin ja tarjoamaan tehokkaita kielentunnistustyökaluja erityisten haasteiden ja tehtävien käsittelyyn. Ne edustavat merkittävää kehitystä tekoälyn alalla, sillä ne tarjoavat tarkempia ja tehokkaampia ratkaisuja verrattuna yleiskäyttöisiin malleihin. Tärkeää on kuitenkin muistaa, että domain-spesifisten mallien arviointi on yhtä tärkeää kuin mallin hienosäätö.

Perinteisesti domain-spesifisten mallien kehittäminen on ollut hyvin haasteellista. Suurten organisaatioiden on luotava vahva horisontaalinen tietostrategia kerätäkseen, kuratoiakseen ja käyttäessään alueen erityistietoja mallin kouluttamiseen ja arviointiin. Useilla aloilla nämä tiedot voivat olla arkaluontoisia, suojattuja tai molempia. Tämä pätee erityisesti rahoitus- ja lääketieteellisiin aloihin. Toinen suuri haaste on erikoistuneen asiantuntemuksen ja tiedon tarve, sekä itse alueella että tekoälyn mallintamistekniikoissa. Alan asiantuntijat ovat välttämättömiä, jotta he voivat tulkita tiedot tarkasti, ymmärtää alueen hienovaraisuuksia ja ohjata mallin koulutusta varmistaakseen, että se pystyy sieppaamaan tarvittavat yksityiskohdat ja vivahteet.

Domainin monimutkaisuus voi myös aiheuttaa vaikeuksia mallin validoinnissa ja vaatia vahvoja, aluekohtaisia mittareita mallin suorituskyvyn arvioimiseksi. Kun mietitään, kuinka domain-spesifiset mallit arvioidaan, on tärkeää huomioida, että malli on tehokas vain, jos se on luotu tietylle alueelle. Esimerkiksi talousaiheisten tweetien ostopäätöksistä ennustaminen on täysin eri asia kuin yleisten tweettien ostopäätösten ennustaminen.

Erilaisia tapoja arvioida domain-spesifistä mallia on kolme pääasiallista:

Ensimmäinen on arvioida koulutettua mallia kultastandardina pidetyn, huolellisesti kuratoidun testidatan avulla. Nämä datat luodaan merkittävällä vaivalla asiantuntijoiden toimesta, jotka tuntevat valitun alueen. Jokainen suuri pilvipalveluntarjoaja, joka mahdollistaa mukautetun mallin kouluttamisen, kuten olemme käsitelleet, tarjoaa mahdollisuuden luoda ja testata mallia arviointidatan avulla.

Toinen tapa on arvioida mukautettu malli, joka on tehtäväspesifi, mutta käyttää tehtäväriippumatonta mutta alueellisesti yhteensopivaa perustason mallia. Perustason mallit, kuten GPT-4, voivat myös toimia mallin arvioijina ja pisteyttää mallit tarkkuuden, hyödyllisyyden, puolueettomuuden ja toksisuuden perusteella.

Kolmas vaihtoehto on käyttää asiantuntijoita arvioimaan valikoituja vastauksia. Tämä tapahtuu siten, että asiantuntijat äänestävät, minkä mallin antama vastaus he katsovat paremmaksi ilman tietoa siitä, mikä malli on tuottanut vastauksen (yksinkertainen sokkokoekoe).

Esimerkiksi BloombergGPT-malli, joka on kehitetty erityisesti rahoitusalalle, on suunniteltu käyttämään rahoitukseen liittyvää dataa ja täten se on erikoistunut ja tehokas rahoitustehtävissä. BloombergGPT on koulutettu sekoituksella rahoitusalakohtaisia tietoja Bloombergin laajoista finanssidatasta ja yleiskäyttöisiä tietokantoja, mikä takaa mallin suorituskyvyn sekä rahoitusaiheisissa tehtävissä että yleisissä LLM-testeissä.

Kun siirrymme rahoitusalasta lääketieteelliseen alaan, on tärkeää huomioida, että tällaisessa arvioinnissa asiantuntijoiden kollektiivinen panos on ratkaisevaa. Lääketieteellisten mallien arviointi vaatii mittavaa asiantuntija-apua, jotta mallin antamat vastaukset voidaan arvioida ja verrata oikeisiin vastauksiin. Tämä prosessi voidaan parantaa tekniikoilla kuten vahvistusoppiminen ihmisen palautteen avulla (RLHF) tai suora preferenssien optimointi (DPO), jotka auttavat mallihaasteiden ratkaisemisessa ja mallin suoritustason parantamisessa.

Domain-spesifisten mallien kehittämisessä on tärkeää, että malli ei pelkästään pärjää omalla alueellaan, vaan sen tulee säilyttää hyvä suorituskyky myös laajemmassa yleiskäytön testauksessa. Tällöin malli pystyy tarjoamaan tehokasta ja tarkkaa tietoa, mutta samalla se kykenee myös säilyttämään universaalit kyvyt, jotka tekevät siitä monikäyttöisen ja joustavan.

Tämän lisäksi, vaikka mallin arviointi on monivaiheinen prosessi, on hyvä muistaa, että tehokas malli on aina tulosta niin datan laadusta kuin asiantuntijoiden osallistumisesta. Jos malli ei ole hyvin validointivaiheessa, sen käytettävyys ja tarkkuus voivat heikentyä, ja näin ollen se ei täytä vaadittuja odotuksia.

Hugging Face ja Bloomberg GPT: Suurten kielimallien skaalaus ja taloudellinen kestävyys

Hugging Face, joka perustettiin vuonna 2016, mullisti luonnollisen kielen käsittelyn (NLP) ekosysteemin tarjoamalla avoimen alustan, jossa jaettiin ennakkokoulutettuja malleja. Vuoteen 2022 mennessä sen verkkosivustolla oli yli 100 000 päivittäistä aktiivista käyttäjää, jotka pääsivät käsiksi laajaan valikoimaan tekoälyominaisuuksia. Kuitenkin suurten kielimallien (LLM), jotka sisältävät miljardeja parametreja, kehittyminen uhkasi Hugging Facen kykyä tukea käyttäjämäärän kasvua taloudellisesti. Tämä tapaus tutkii, kuinka Hugging Face mukautti alustansa arkkitehtuuria ja toimintojaan skaalatakseen käyttäjätarpeet ja pitääkseen kustannukset hallinnassa, vaikka mallien koko kasvoi räjähdysmäisesti.

Viime vuosina tekoälymallien koko on kasvanut eksponentiaalisesti. Esimerkiksi OpenAI:n GPT-3, joka sisälsi 175 miljardia parametreja, oli merkittävä virstanpylväs vuonna 2020. Tämä kehitys kiihtyi vuosina 2021 ja 2022, jolloin mallit saavuttivat triljoonien parametrien rajan. Tämä suuntaus osoittaa, että mallien jatkuva koon kasvattaminen ei välttämättä ole kestävää pitkällä aikavälillä, ja monet yritykset harkitsevat suurten mallien sijaan useiden pienempien mallien käyttöä. Hugging Facelle LLM-mallien tarjoaminen oli dilemma, sillä niiden ajaminen vaati valtavia pilvilaskentaresursseja. Koska Hugging Face oli pieni startup-yritys, sen kyky imeä nämä kustannukset oli rajoitettu, erityisesti kun käyttäjämäärät lähestyivät kuuden numeron rajaa.

Hugging Facen alkuperäinen infrastruktuuri, jossa mallit ja koodi oli tallennettu yhteen GitHub-repositorioon, ei mahdollistanut laskentatehon ja tallennustilan eriyttämistä. Tämä asetti rajoituksia. Tiimi kehitti ratkaisun, joka erotti tallennuksen ja laskennan mikropalveluiksi. Mallit siirrettiin skaalautuvaan pilvitallennustilaan, kuten S3:een, ja laskenta tapahtui eristyksissä olevissa konttien pyörittämissä ympäristöissä. Tämän ansiosta tallennustilaa ja laskentatehoa voitiin skaalata itsenäisesti, ja suuret mallit voitiin säilyttää kohtuullisin kustannuksin samalla, kun laskentateho skaalautui käyttäjien tarpeiden mukaan.

Seuraavaksi Hugging Face keskittyi parantamaan itse ennustuksia. Vaikka PyTorch ja TensorFlow olivat joustavia, niiden suorituskyky ei ollut riittävän nopea suurille malleille. Insinöörit loivat optimoituja mallipalvelimia, jotka vähensivät ylimääräistä laskentakuormaa. Esimerkiksi pyyntöjen yhdistäminen vähensi kustannuksia monien ennusteiden osalta. Samalla ylimääräiset ohjelmistokehyskoodit poistettiin, mikä virtaviivaisti prosessia. Näiden optimointien seurauksena laskentatehon tarve väheni jopa kolminkertaiseksi. Tällöin mallien käyttökustannukset vähenivät lähes 80 % verrattuna perinteisiin ratkaisuihin.

Optimoinneista huolimatta LLM-mallien laskentakustannukset olivat edelleen korkeat. Hugging Facen ratkaisu tähän oli aggressiivinen välimuisti: kun malli tuotti tuloksen tietylle syötteelle, tulos tallennettiin välimuistiin. Seuraavat samanlaiset pyynnöt hyödynsivät tallennettua tulosta eikä laskentaa tarvinnut suorittaa uudelleen. Suositut mallit saavuttivat jopa yli 90 % välimuistiosumat, mikä vähensi laskentatarpeita huomattavasti. Välimuisti mahdollisti myös käyttötilastojen seurannan, joka tarjosi syvällistä tietoa käyttäjäkäyttäytymisestä. Tämä läpimurto mahdollisti kalliiden LLM-mallien demokratisaation, sillä ne olisivat olleet saatavilla vain harvoille käyttäjille ilman tätä tekniikkaa.

Viimeinen vaihe Hugging Facen skaalautuvassa ratkaisussa oli yhteisön resursseja hyödyntävä hajautettu laskentaverkosto. Käyttäjät saattoivat tarjota ylimääräistä laskentatehoa vastineeksi käyttöoikeuksista alustalla. Pyynnöt ohjattiin dynaamisesti vapaaehtoisten resursseille, ottaen huomioon kuormituksen, maantieteellisen etäisyyden ja kustannukset. Tämä federatiivinen arkkitehtuuri saavutti lähes rajattoman skaalautuvuuden matalilla kustannuksilla hyödyntämällä vajaakäytössä olevia resursseja. Vapaaehtoiset saivat hyvityksiä omien resurssiensa käytöstä, ja verkosto oli yhdistetty lohkoketjuteknologian avulla, mikä mahdollisti hajautetun orkestroinnin turvallisesti.

Hugging Facen innovatiivinen lähestymistapa, jossa yhdistettiin yhteisön resursseja ja optimoitiin infrastruktuuri, mahdollisti yli 100 000 päivittäisen käyttäjän palvelemisen vain $0.001:n kustannuksella per ennuste. Tämän skaalautuvan, avoimen lähdekoodin lähestymistavan ansiosta Hugging Face onnistui pitämään kustannukset hallinnassa samalla, kun se tarjosi tekoälyominaisuuksia laajalle käyttäjäkunnalle. Tämä esimerkki osoittaa, kuinka yhteisön voiman hyödyntäminen voi mahdollistaa suuret teknologiset hyppäykset pienemmille yrityksille ja organisaatioille, jotka eivät muuten pystyisi kilpailemaan alan suurimpien toimijoiden kanssa.

Bloomberg GPT on toinen esimerkki suurten kielimallien käytöstä, mutta tässä yhteydessä malli oli räätälöity erityisesti rahoitussektorin tarpeisiin. Bloombergin kehittämä malli, jossa oli 50 miljardia parametria, oli massiivinen investointi, joka tarvitsi valtavat laskentatehot. Koko kehitysprosessi, joka kesti miljoonia GPU-tunteja, oli tarpeen, jotta malli pystyisi ymmärtämään rahoituksen erikoissanastoa ja tekemään päätöksentekoa tukevia ennusteita.

Bloombergin lähestymistapa oli ainutlaatuinen, sillä yritys käytti vahvistusoppimista ihmisten palautteen avulla (RLHF), jotta malli pystyi parantamaan suorituskykyään ja luomaan entistä tarkempia taloustekstejä. Tämä oli merkittävä taloudellinen panostus, mutta se oli myös strateginen valinta, sillä Bloomberg pyrki pysymään kilpailun kärjessä rahoitusalalla, joka kehittyy nopeasti. Mallin kehittäminen ja infrastruktuurin luominen tähän tarvittivat satoja miljoonia dollareita, mutta se osoittautui arvokkaaksi, sillä se mahdollisti erilaisten talousanalyysien ja -raporttien luomisen, jotka antoivat Bloombergille kilpailuedun.

Tämä esimerkki vahvistaa, kuinka merkittävä rooli suurilla kielimalleilla on alakohtaisissa sovelluksissa. Erityisesti talous, jossa suuri määrä dataa on analysoitava nopeasti ja tarkasti, voi hyötyä huomattavasti kehittyneistä kielimalleista, jotka pystyvät tekemään ennusteita ja tarjoamaan syvällisiä näkemyksiä reaaliajassa. Suurten mallien taloudellinen kehitys ja teknologinen innovaatio ovat siis osa tätä kasvavaa kenttää, jossa tekoälyn mahdollisuuksia hyödynnetään entistä enemmän ja laajemmin.