Hätätilanteissa sosiaalisen median viestit voivat olla elintärkeitä tiedonhankinnan ja kriisinhallinnan kannalta. Kuitenkin suuren tietomäärän käsittely ja oikeiden tietojen erottaminen voi olla haasteellista. Yksi tapa lievittää tätä tietotulvaa on käyttää klusterointitekniikoita, jotka perustuvat viestien tekstisisältöön. Tässä yhteydessä tarkastellaan erilaisten upotusten (embeddings) käyttöä sosiaalisen median postauksien ryhmittelyyn, erityisesti hätätilanteiden aikana.

Kun käsitellään tätä aihetta, tärkeä huomio on, että useimmat kriisitilanteisiin liittyvät viestit sisältävät toistuvia teemoja, kuten rakennusten vaurioituminen tai tuhoutuminen. Tällaiset postaukset, jotka on yleensä merkitty tietyllä tunnisteella tai hashtageilla, voivat olla hyvin hyödyllisiä, koska ne sisältävät jo tarvittavat tiedot. Erityisesti, jos kyseessä on onnettomuuksien tai katastrofien raportointi, on tärkeää, että viesteistä voidaan nopeasti poimia olennaiset tiedot ilman ihmisen väliintuloa.

On kuitenkin mahdollista, että samassa klusterissa voi olla useampi etiketti, jolloin käsitellään monimutkaisempia tapauksia. Tällöin klusterit voivat liittyä useisiin eri aiheisiin ja käsitellä useita näkökulmia samaan aikaan. Esimerkiksi, jos postauksessa käsitellään sekä rakennusvaurioita että loukkaantuneita, se saattaa saada molemmat tunnisteet. Tämä lähestymistapa mahdollistaa kattavamman näkökulman, mutta se myös rikkoo perinteisen klusterointimallin, jossa jokaisella klusterilla on tarkasti määritelty ja yksilöllinen tunniste.

Sosiaalisen median viestit voivat olla hyvin dynaamisia ja nopeasti muuttuvia, mikä tekee niiden ryhmittelyn erityisen haasteelliseksi hätätilanteissa. Kysymys, jonka esitimme tutkimuksessa, oli: kuinka tehokkaita ovat eri upotusmenetelmät sosiaalisen median viestien ryhmittelyssä erityisesti kriisitilanteissa? Arvioimme yhteensä 19 erilaista upotusmallia ja vertailimme niitä kriisitilanteisiin soveltuviksi. Tulokset osoittavat, että kriisi- ja aluekohtaiset upotusmallit voivat olla tehokkaampia, erityisesti englanninkielisten viestien käsittelyssä.

Kriisidatan kanssa koulutetut mallit, kuten Word2Vec ja FastText, osoittautuivat hyviksi työkaluiksi, mutta niillä on myös rajoituksia, erityisesti silloin, kun niitä sovelletaan kieliin, joita ne eivät ole aiemmin kohdanneet. Esimerkiksi Saksan kielen käsittelyssä FastText-malli, joka oli koulutettu monilla eri kielillä, saavutti parempia tuloksia kuin englanninkieliselle datalle koulutettu malli.

Miten nämä mallit suoriutuvat aikarajoitteisessa ympäristössä, kuten hätätilanteessa, on toinen tärkeä kysymys. Nopea reagointi on elintärkeää, mutta samalla on varmistettava, että ryhmittelymenetelmät tarjoavat tarkkoja ja luotettavia tuloksia. Useimmat mallit, kuten USE (Universal Sentence Encoder), ovat nopeita, mutta niiden tarkkuus ei aina riitä. Toisaalta, mallit kuten FastText ja Word2Vec voivat olla hitaampia, mutta ne tarjoavat yleensä tarkempia tuloksia, erityisesti jos malli on koulutettu kriisitilanteisiin liittyvillä tiedoilla.

Käytännön ja teoreettiset seuraukset tästä tutkimuksesta ovat moninaiset. Ensinnäkin, mallien vertaaminen eri kielillä on tärkeää, sillä kielikohtaiset mallit eivät aina toimi yhtä hyvin toisten kielten kanssa. Tämän vuoksi on suositeltavaa käyttää malli, joka on koulutettu erityisesti kyseisen kielen datalla. Toisaalta, jos malli on liian kapea-alaista (esimerkiksi vain englanninkieliselle datalle), se ei toimi yhtä hyvin muiden kielten kanssa. Tässä tulee esiin myös tarvittava joustavuus ja räätälöinnin tarve hätätilanteiden tietovirtojen käsittelyssä.

Tämä tutkimus tarjoaa arvokkaita oivalluksia upotusmenetelmien ja klusterointitekniikoiden soveltamisesta kriisitilanteissa. Se tuo esiin, kuinka tärkeää on valita oikeat mallit ja metodit riippuen siitä, mitä kieltä ja dataa käsitellään. Sosiaalisen median viestien automaattinen luokittelu ja klusterointi voivat merkittävästi parantaa hätätilanteiden tiedonhallintaa, mutta se vaatii huolellista mallitason arviointia ja jatkuvaa optimointia erityisesti kielirajoitteiden ja ajallisten paineiden puitteissa.

Miten Adversaarinen Koulutus ja Tietojen Laajentaminen Vaikuttavat Tekstiluokitteluun ja Kielellisiin Malleihin?

Adversaarinen koulutus ja tekstin laajentamismenetelmät ovat merkittävä osa nykyaikaisia syväoppimisalgoritmeja, erityisesti luonnollisen kielen käsittelyssä. Näitä menetelmiä käytetään parantamaan mallien kykyä yleistää ja kehittää niiden suorituskykyä erityisesti pienillä tietoaineistoilla (few-shot learning). Esimerkiksi Kumar et al. [224] esittelevät neljä erilaista lähestymistapaa, jotka tähtäävät pääasiassa aikeiden luokittelun parantamiseen. Yksi näistä tekniikoista lisää satunnaista lisäys- ja kertolaskuhäiriöitä ominaisuuksien esityksiin, kuten on esitetty [226], mutta ei palauteta näitä esityksiä alkuperäiseen tietotilaan. Toiseksi, Linear Delta -menetelmä laskee kahden instanssin välisen eron ja lisää sen kolmanteen instanssiin (kaikki samasta luokasta). Kolmas menetelmä, joka interpoloidaa instansseja, käsitellään tarkemmin luvussa 8.3.2.4. Neljäs menetelmä soveltaa Delta-Encoderia Schwartz et al. [389] pohjalta tekstidatan käsittelyyn. Siinä autoenkooderi oppii instanssiparien välisten erojen (deltat) perusteella luomaan uusia, näkemättömiä luokkia. Vaikka tavanomaisessa testausasetelmassa nämä menetelmät tuovat vain lieviä parannuksia luokittelutuloksiin, ne ovat erittäin hyödyllisiä vähäisen tiedon tapauksissa.

Monet ominaisuusavaruuden laajennusmenetelmät ovat peräisin vastakkainasettelukoulutuksen (adversarial training) tutkimusalueelta. Vastakkainasetteluharjoittelu perustuu siihen, että mallit koulutetaan vastakkainasettelunäytteillä, jotka ovat pienesti muutettuja koulutustapahtumia, jotka voivat muuttaa ennustetta tai maksimoida häviötä. Virallinen kaava tälle prosessille voidaan esittää seuraavasti [538]:

minθE(z,y)D[L(fθ(x+δ),y)]\min_{\theta} \mathbb{E}_{(z,y) \sim D} \left[ \mathcal{L} (f_{\theta}(x + \delta), y) \right]
Tässä θ\theta on mallin parametrit ja δ\delta on alkuperäisiin instansseihin lisätty häiriö (joka rajoittuu tiettyyn normipallon sisään). D on tietojakauma, yy on tunniste ja L\mathcal{L} on häviöfunktio. Verkkoa (ulkoinen minimointi) voidaan yhä kouluttaa stokastisella gradienttikeskijouksella (SGD), mutta oikeiden häiriöiden etsiminen (sisäinen maksimointi) on ei-konveksi, mikä tekee siitä laskennallisesti kalliin prosessin [538].

Shafahi et al. [395] ja Zhang et al. [520] ovat kehittäneet menetelmiä, jotka laskevat gradientin syötteen suhteen samalla takaisinkytkennällä, joka lasketaan verkon parametrien gradienttien ohella koulutuksen aikana. Tämä vähentää PGD:n lisälaskentakustannuksia. Tarkemmin sanottuna Free adversarial training (FreeAT) Shafahilta [395] kouluttaa saman harjoitusjoukon K kertaa, jotta useita vastakkainasettelupäivityksiä voidaan suorittaa. You Only Propagate Once (YOPO) Zhang et al.:lta [520] kerää gradientit suhteessa parametreihin K-askelta varten ja päivittää parametrit sen mukaan. Free Large-Batch (FreeLB) [538], joka on samankaltainen kuin YOPO, kerää myös parametrigradientit ja on useilla tehtävillä ylittänyt sekä perusmallin että muut menetelmät.

Miyato, Dai ja Goodfellow [292] sekä Miyato et al. [293] muokkaavat perinteistä vastakkainasetteluharjoittelua siten, että mallin ei tarvitse käyttää tunnistetietoja. Tämä lähestymistapa tunnetaan virtuaalisena vastakkainasetteluharjoitteluna. Virtuaalinen vastakkainasettelukoulutus säännöllistää tavallisen koulutushäviön KL-divergenssihäviöllä, joka mittaa ennusteiden jakauman eroavaisuuksia häiriöiden kanssa ja ilman niitä. Virtuaalinen vastakkainasettelukoulutus parantaa valvotun DBpedia-luokittelutehtävän tarkkuutta 0.11 pisteellä verrattuna perinteiseen vastakkainasetteluharjoitteluun.

Jiang et al. [181] esittelevät SMART-menetelmän, joka hyödyntää virtuaalista vastakkainasettelukoulutusta. He tuovat mukaan Bregmanin lähentymispisteoptimoinnin, joka estää mallia tekemästä liian jyrkkiä päivityksiä [292]. Heidän kokeensa osoittavat, että tämä menetelmä parantaa huomattavasti perusmallin suorituskykyä ja tarjoaa parempia tuloksia verrattuna muihin tässä käsiteltyihin menetelmiin.

Wang, Gong ja Liu [468] sekä Liu et al. [258] ovat kehittäneet menetelmiä, jotka parantavat kielellisten mallien esikoulutusta vastakkainasetteluharjoittelulla. Liu et al. [258] ehdottavat menetelmää, joka lisää kohinaa syöteupotuksiin ja parantaa suorituskykyä suuremmilla malleilla kuten BERT ja RoBERTa. Näiden menetelmien avulla he saavuttavat merkittäviä parannuksia suurilla transformointimalleilla, kuten RoBERTa, GLUE-datasetin tehtävissä.

Näiden menetelmien hyödyntäminen edellyttää myös tarkastelua siitä, kuinka luodut esimerkit voidaan palauttaa takaisin datatilaan, jotta niitä voidaan tarkastella. Liu et al. [254] ja Wan, Wan ja Wang [462] tutkivat tätä ongelmaa transformer-autokooderirakenteiden avulla. Wan et al. [462] parantavat luokittelukäyttäytymistä kielivirheenkorjausjärjestelmissä käyttämällä vastakkainasetteluesimerkkejä, joita muokataan ja palautetaan datatilaan.

Lopuksi voidaan todeta, että vastakkainasettelukoulutuksen ja tekstin laajentamismenetelmien avulla voidaan parantaa mallien suorituskykyä erityisesti niukkojen tietoaineistojen tapauksessa. Tärkeää on kuitenkin ymmärtää, että nämä menetelmät eivät ainoastaan paranna luokittelutuloksia vaan myös lisäävät mallien robustiutta ja kykyä soveltaa tietoa uusiin, näkymättömiin luokkiin ja tilanteisiin.

Miten tunnistaa ja käsitellä haitallisia sanoja kielimallissa: Adversaarinen esimerkki

On olemassa monia sanoja, joita ei voida pitää poikkeuksina, mutta jotka toimivat luokan indikaattoreina, sillä ne esiintyvät usein kyseisessä luokassa, vaikka niillä ei ole merkitystä luokituksen kannalta (katso luku 13.4.5). Tältä kannalta tarkasteltuna lähestymistapamme nojaa säännönmukaisuuksiin ja virheellisen ennakkoluulon poistamiseen.

Vaihe 2: Suodattaminen luokan invariantteihin adversaarisiin sanoihin. [Valinnainen]
On olemassa sanoja, jotka useimmissa tapauksissa todella kuvaavat yhtä luokkaa, mutta voivat saada eri merkityksen tietyissä konteksteissa, ja joita voidaan pitää mahdollisina adversaarisina sanoina ensimmäisessä vaiheessa. Sana enjoy sentimenttitehtävässä voi olla esimerkki tästä. Vaikka se useimmissa tapauksissa esiintyy positiivisessa kontekstissa, sitä voidaan käyttää myös negatiivisissa yhteyksissä: “Hard to say who might enjoy this” (SST2:sta). Jos näemme sanan enjoy oikeana adversaarisena sanana, adversaarisessa koulutuksessa malli pakotettaisiin hylkäämään se positiivisen luokan indikaattorina. Parhaassa tapauksessa malli oppisi tukevamman indikaattorin, jakamalla sanan enjoy painon kontekstiin. Pahimmassa tapauksessa se kuitenkin hylkäisi erittäin arvokkaan indikaattorin ja oppisi jopa lisää ennakkoluuloja, mikä johtaisi huonompaan suorituskykyyn ja vähemmän robustiin malliin. Siksi yritämme suodattaa pois sanat, jotka voisivat muuttaa semantiikkaa suhteessa luokkaan. Suodatuksen lisäksi ehdotamme kahta menetelmää: yksi, joka perustuu luokan muutosten määrään, ja toinen, joka käyttää oikean luokan indikaattorisanoja.

Luokan muutosten määrä

Määräpohjaisessa menetelmässä analysoimme, kuinka monta adversaarista esimerkkiä voidaan luoda mahdollisella adversaarisella sanalla. Jos määrä ylittää tietyn kynnyksen suhteessa luokan kokoon, oletamme, että semantiikka muuttuu suhteessa luokkaan ja suljemme kaikki tällaiset luodut adversaariset esimerkit pois.

Indikaattorisanat oikealle luokalle
Toinen menetelmä hyödyntää mallin oikein ennustettua lisädataa. Tämä data selitetään XAI-menetelmällä ja saatuja sanoja verrataan mahdollisiin adversaarisiin sanoihin. Mahdolliset adversaariset sanat, jotka ovat oikean ennustuksen indikaattoreita, suljetaan pois jatkokäsittelystä, koska ne saattavat muuttaa instanssin semantiikkaa suhteessa luokkaan.

Vaihe 3: Adversaaristen esimerkkien luominen

Adversaariset sanat voivat muuttaa luokkaa vain tietyissä instansseissa sanan sijainnin tai kontekstin mukaan. Tämän vuoksi tarkastamme nyt, muuttavatko nämä sanat myös alkuperäisesti oikein ennustettujen instanssien luokkia. Toisin sanoen sijoitamme adversaariset sanat oikein ennustettuihin instansseihin lisädatan joukosta. On monia mahdollisuuksia, mihin sana voidaan lisätä, ja vaikka kokeilemme satunnaista lisäystä, pääkokeemme perustuvat sanojen etuliittämiseen (muista, että havainnollisuus ei ole kriteeri tässä työssä). Lisätietoja adversaarisen sanan lisäämisestä instanssiin löytyy luvusta 13.5.1. Instanssit, joiden luokat ovat muuttuneet adversaaristen sanojen lisäämisen seurauksena, muodostavat lopulliset adversaariset esimerkit.

Eksperimentit
Kokeilumme keskittyvät kysymyksiin: (1) kuinka usein menetelmä luo esimerkkejä, jotka eivät muuta luokkaa mutta vaikuttavat ennustukseen, (2) tekeekö malli, joka on koulutettu näillä esimerkeillä, kestävämmäksi, ja (3) voidaanko adversaariset esimerkit siirtää muihin malleihin.

Ihmisen arviointi
Arvioidaksemme kuinka usein menetelmä luo todellisia adversaarisia esimerkkejä, suoritetaan ihmisen arviointi, jossa luodut instanssit merkitään. Tätä arviointia varten valitsemme satunnaisesti 100 alkuperäistä instanssia ja 100 adversaarista instanssia jokaista tehtävää kohti, ja merkkaamme ne kahtena itsenäisenä arvioijana. Vertailu arvioijien suorituksessa kertoo, ovatko adversaariset esimerkit pääsääntöisesti kelvollisia, jos alkuperäisten ja adversaaristen tietojen tulokset ovat samanlaisia.

Adversaarinen siirto

Viimeisessä kokeiluasetelmassa ennustamme, siirtyvätkö adversaariset esimerkit toiseen malliin. Tähän käytämme distilBERT-mallia, ja mittaamme vaikutusta toiseen distilBERT-malliin, BERT:iin ja RoBERTa-malliin. Toisin kuin joissain aiemmissa töissä, emme tutki onnistumisprosenttia, koska pidämme sitä yksinään huonona indikaattorina menetelmän laadusta.

Datasarjat ja malliasetukset
Tehtävät, joihin keskitymme, ovat samoja kuin Wang et al. [466] tutkimuksessa adversaarisen testauksen osalta. Kokeet tehdään SST-2, RTE, QNLI, MNLI ja QQP -datasarjoilla GLUE-vertailussa [464]. Käytämme distilBERTiä päämallina ja arvioimme vain perinteisiä menetelmiä, kuten painon vähenemistä ja dropout-tekniikkaa ilman muita lisämenetelmiä.

Ihmisen arviointi ja analyysi

Tässä osassa tarkastelemme kvantitatiivisia kokeiden yksityiskohtia ja arvioimme joitain adversaarisia esimerkkejä. Analyysi osoittaa, että adversaariset esimerkit ovat erittäin laadukkaita ja vain harvoin muuttavat semantiikkaa, mutta huijaavat koulutettua luokittajaa 100 %:ssa tapauksista. Esimerkiksi SST2-tulokset, joissa adversaarinen data sai jopa paremmat tulokset kuin alkuperäinen, osoittavat tämän.

Miten LLM-mallit voivat parantaa kognitiivista kyvykkyyttään haasteellisten tietojen käsittelyssä?

Nykyisin kognitiivisten kykyjen ja tekoälyn välillä on monia rajapintoja, jotka herättävät kysymyksiä siitä, miten nämä järjestelmät voivat käsitellä ja reagoida poikkeuksellisiin tai ristiriitaisiin tietoihin. Yksi keskeinen tutkimusalue liittyy suuriin kielimalleihin (LLM, Large Language Models), jotka on koulutettu valtavilla tekstikokoelmilla ja pystyvät tuottamaan kielellisesti koherenttia ja relevanttia tekstiä monenlaisista lähteistä.

Yksi mielenkiintoinen lähestymistapa tähän on tutkimus, jossa tarkastellaan, kuinka LLM-mallit voivat käsitellä ulkopuolisia vastakkaisia tietoja (counterfactual knowledge). Tämä kysymys on tärkeä, koska LLM-mallit, kuten GPT-sarja, eivät vain pyri tuottamaan kielellisesti oikein muotoiltua tekstiä, vaan niiden pitäisi myös pystyä ymmärtämään ja soveltamaan laajempia kognitiivisia periaatteita, kuten loogista päättelyä ja ristiriitaisten tietojen sovittamista.

Yksi keskeinen haaste näiden mallien kehittämisessä on niin sanottu "konkreettinen virheiden hallinta" (concrete error handling), joka tarkoittaa kykyä tunnistaa ja käsitellä tilanteita, joissa saatavilla oleva tieto on virheellistä tai ristiriitaista. Esimerkiksi, jos malli saa käsiteltäväkseen kaksi täysin eriävät väitettä tietystä asiasta, sen ei tulisi yksinkertaisesti valita toista väitettä ja unohtaa toista, vaan sen pitäisi kyetä luomaan looginen konsensus, joka huomioi molemmat näkökulmat.

Tässä yhteydessä nousee esiin myös vastakkaisten tietojen tehokas käyttömalli, kuten RECALL (Robust Evaluation of Counterfactual Knowledge), joka on kehitetty erityisesti arvioimaan, kuinka hyvin mallit pystyvät selviytymään vastakkaisista väitteistä ja muuttuvista tietokonteksteista. RECALLin kaltaiset testit voivat auttaa tutkijoita arvioimaan, kuinka "älykäs" malli todella on sen lisäksi, että se tuottaa loogisia ja kielellisesti oikein muotoiltuja lauseita. Se paljastaa, kuinka hyvin malli hallitsee ristiriidat ja poikkeavat tiedot, joita se saattaa kohdata käytännön sovelluksissa.

Mielenkiintoista on myös, että LLM-mallit voivat hyödyntää ulkopuolisia tietolähteitä, kuten sosiaalista mediaa ja uutisartikkeleita, parantaakseen kykyään tunnistaa virheitä ja epäjohdonmukaisuuksia. Tämä laajentaa merkittävästi mallien kykyä soveltaa käytännön tietoa ja osittain myös parantaa niiden kykyä reagoida nopeasti muuttuviin tilanteisiin. Kun malli kykenee yhdistämään tietoisuutensa ajankohtaisista tapahtumista ja ymmärtämään sen roolin laajemmassa tiedon ekosysteemissä, se ei ole vain kielimalli, vaan eräänlainen kognitiivinen työkalu, joka voi sopeutua ympäristönsä tarpeisiin.

Tällaisilla malleilla on myös erityinen merkitys kyberturvallisuuden alalla, jossa huijaustiedot, väärät väitteet ja väärinkäytökset voivat levitä nopeammin kuin niitä voidaan seurata ja estää. LLM-mallit voivat auttaa analysoimaan suuria määriä tietoa ja havaitsemaan nopeasti poikkeamat tai epäjohdonmukaisuudet, joita ei välttämättä pysty tunnistamaan tavallisilla menetelmillä. Tässä mielessä niitä voidaan käyttää myös tehokkaina työkaluina uhkien havaitsemisessa ja estämisessä.

Erityisesti LLM-mallien soveltaminen kyberturvallisuudessa vaatii huolellista suunnittelua ja arviointia, sillä mallit voivat olla alttiita väärinkäytöksille ja manipulaatioille, jos niitä ei ole koulutettu oikein käsittelemään epäluotettavaa tietoa. Yksi keskeinen näkökohta tässä on mallien kyky käsitellä ja arvioida epäluotettavia lähteitä ja arvioida tietojen luotettavuutta dynaamisissa olosuhteissa.

Lisäksi on tärkeää ymmärtää, että vaikka LLM-mallit voivat olla tehokkaita tiedon prosessoinnissa ja synnyttävät usein vaikuttavia tuloksia, ne eivät ole täydellisiä. Niiden käyttö edellyttää huolellista valvontaa ja arviointia, erityisesti silloin, kun ne kohtaavat ristiriitaisia tai epäluotettavia tietoja. LLM-mallien kehittämisessä ja käytössä on otettava huomioon niin eettiset, tekniset kuin käytännön haasteet, jotka voivat vaikuttaa niiden toimintaan.