Matemaattinen mallintaminen pyrkii kuvaamaan ja kvantifioimaan todellisuuden ilmiöitä muuttujien ja joukkojen avulla. Perinteisesti mallinnuksessa oletetaan muuttujien olevan tarkasti määriteltyjä, mutta todellisuus harvoin on näin yksiselitteistä. Muuttujien ja joukkojen ominaisuudet eivät aina ole selkeitä tai eksakteja, vaan ne voivat olla epävarmoja, epätarkkoja tai häilyviä. Tästä syystä perinteinen deterministinen lähestymistapa ei aina riitä kuvaamaan sosiaalisia, biologisia tai ekologisia ilmiöitä, joissa epävarmuus on olennaista.

Fuzzy-joukkojen teoria tarjoaa matemaattisen viitekehyksen tämän epävarmuuden mallintamiseen. Toisin kuin klassinen joukko-oppi, jossa jäsenyys on joko kyllä tai ei, fuzzy-joukossa jäsenyys on asteittaista ja ilmaistavissa arvolla välillä 0 ja 1. Tämä mahdollistaa ilmiöiden pehmeän ja kontekstisidonnaisen luonteen huomioimisen. Fuzzy-mallinnus antaa työkalut käsitellä niin syötteen kuin mallin rakenteen epävarmuutta samanaikaisesti, mikä tekee siitä erityisen soveltuvan biologisiin ja sosiaalisiin järjestelmiin.

Epävarmuuden juuret ulottuvat filosofian historiaan aina antiikin Kreikkaan saakka, missä kysymykset olemassaolosta ja muutoksesta herättivät pohdintoja. Herakleitos kuvasi maailmaa jatkuvan muutoksen virtaamana (“panta rhei”), mikä ilmentää jatkuvaa epävarmuutta ja muutosta todellisuudessa. Nykytiede kohtaa samankaltaisia haasteita, kun se yrittää mallintaa elämän, yhteiskunnan ja ympäristön monimutkaisuutta. Epävarmuuden käsittely on siksi välttämätöntä, ei vain mahdollisuus.

Biomatemaattinen mallintaminen fuzzy-ympäristössä konkretisoi tätä lähestymistapaa. Esimerkiksi elinajanodotteen ja köyhyyden yhteyksiä voidaan tarkastella sekä tilastollisten odotusarvojen että fuzzy-odotusarvojen avulla, jolloin saadaan laajempi kuva ilmiöiden vaihtelusta ja epävarmuudesta. Epidemiologisissa malleissa, kuten SI-mallissa (Susceptible-Infected), fuzzy-teoria mahdollistaa tartunnan leviämisen dynamiikan kuvaamisen epäselvien ja osittain tuntemattomien muuttujien valossa. Tämä antaa realistisemman kuvan epidemian hallinnasta ja sen perustason lisääntymislukujen vaikutuksista.

Samoin HIV-infektion etenemisen mallintaminen fuzzy-menetelmillä tuo esiin taudin asymptooppisen ja symptomaattisen vaiheen siirtymän epävarmuudet, jotka perinteisissä malleissa jäävät usein huomiotta. Populaatiodynamiikan ja lajinsiirtojen tutkimukset, esimerkiksi kärpästen populaatioissa, hyötyvät fuzzy-mallinnuksesta, koska ne huomioivat luonnollisen vaihtelun ja epävarmuuden paremmin kuin puhtaasti deterministiset mallit.

Fuzzy-mallinnus ei rajoitu pelkästään luonnontieteisiin. Myös sosiaalitieteissä, kuten köyhyyden ja elinajanodotteen välisissä suhteissa, fuzzy-teoria tuo uuden ulottuvuuden analyysiin, jolloin tutkimustulokset eivät ole pelkkiä keskiarvoja vaan huomioivat myös vaihtelun ja epävarmuuden. Tämä auttaa päätöksentekijöitä ymmärtämään ilmiöitä kokonaisvaltaisemmin ja kehittämään joustavampia interventioita.

Mallinnuksen yhteydessä on tärkeää ymmärtää, että epävarmuus voi johtua monesta eri lähteestä: mittausvirheistä, puutteellisista tiedoista, luonnollisesta vaihtelusta tai monimutkaisista vuorovaikutuksista. Fuzzy-teoria tarjoaa mekanismin käsitellä tätä epävarmuutta systemaattisesti ja matemaattisesti johdonmukaisesti, mikä parantaa mallien luotettavuutta ja sovellettavuutta.

Endtekstinä tulee korostaa, että epävarmuuden hyväksyminen ja sen matemaattinen mallintaminen eivät tarkoita luovuttamista tarkkuudesta, vaan päinvastoin niiden avulla saavutetaan syvällisempi ja realistisempi ymmärrys monimutkaisista järjestelmistä. Lukijan on hyvä omaksua, että matemaattisen mallintamisen tehokkuus kasvaa, kun epävarmuus ja epätarkkuus otetaan tietoisesti huomioon, sillä tämä lähestymistapa heijastaa paremmin todellisuuden monimuotoisuutta ja jatkuvaa muutosta.

Voiko epäselvälle tapahtumalle määrittää todennäköisyyden?

Summaarisen todennäköisyyden käsite laajenee, kun siirrytään klassisista tapahtumista epäselviin (fuzzy) tapahtumiin. Olkoon AA epäselvä tapahtuma ja φA\varphi_A sen jäsenyysfunktio, joka määrittää jokaiselle otosavaruuden alkiolle arvon välillä [0,1], ilmaisten kyseisen alkion "kuuluvuuden asteen" tapahtumaan AA. Tämä erottaa epäselvät tapahtumat klassisista, joiden jäsenyys on aina yksiselitteisesti 0 tai 1.

Tässä kehikossa todennäköisyys P(A)P(A) määritellään jäsenyysfunktion odotusarvona. Äärellisissä tapauksissa tämä tarkoittaa summausta eri α\alpha-tasojen yli:

P(A)=i=1k(αiαi+1)P([ ⁣[A] ⁣]αi),P(A) = \sum_{i=1}^{k} (\alpha_i - \alpha_{i+1}) P([\![A]\!]_{\alpha_i}),

missä [ ⁣[A] ⁣]αi[\![A]\!]_{\alpha_i} on klassinen joukko, joka sisältää kaikki ne alkiot, joiden jäsenyys φA(x)αi\varphi_A(x) \geq \alpha_i, ja α1>α2>>αk>0\alpha_1 > \alpha_2 > \dots > \alpha_k > 0.

Tämä lauseke voidaan tulkita niin, että epäselvän tapahtuman todennäköisyys saadaan painottamalla klassisten tapahtumien todennäköisyyksiä niiden vastaavilla jäsenyystasoilla. Painotettujen erojen kautta saadaan kokonaisarvio tapahtuman "epäselvästä massasta" otosavaruudessa.

Tarkastellaan tilannetta, jossa otosavaruus on reaalilukujen joukko R\mathbb{R}, ja sitä varustetaan todennäköisyysmitalla, joka on johdettu satunnaismuuttujasta XX. Jos XX on diskreetti:

P(A)=E(φA)=iφA(xi)P(X=xi),P(A) = E(\varphi_A) = \sum_{i} \varphi_A(x_i) P(X = x_i),

ja jos XX on jatkuva:

P(A)=E(φA)=RφA(x)f(x)dx,P(A) = E(\varphi_A) = \int_{\mathbb{R}} \varphi_A(x) f(x) dx,

missä f(x)f(x) on satunnaismuuttujan XX tiheysfunktio. Tämä integraali mittaa "pinta-alaa" käyrän φA(x)f(x)\varphi_A(x) \cdot f(x) alla. Se ilmaisee epäselvän tapahtuman kattavuuden suhteessa otosavaruuden todennäköisyysmassaan.

Määritelmän mukaisesti epäselvän tapahtuman todennäköisyys on aina hyvin määritelty, koska φA(x)[0,1]\varphi_A(x) \in [0,1] kaikille xRx \in \mathbb{R}. Klassisen tapauksen erikoistapauksessa jäsenyysfunktio on karakteristinen funktio χA\chi_A, jolloin odotusarvo palautuu perinteiseksi todennäköisyydeksi: E(χA)=P(A)E(\chi_A) = P(A).

Epäselvien tapahtumien riippumattomuus seuraa samasta logiikasta. Klassisesti kaksi tapahtumaa AA ja BB ovat riippumattomia, jos P(AB)=P(A)P(B)P(AB) = P(A)P(B). Epäselvien tapahtumien tapauksessa tämä yleistyy seuraavasti:

P(AB)=E(φAφB)E(φB).P(A \mid B) = \frac{E(\varphi_A \cdot \varphi_B)}{E(\varphi_B)}.

Jos AA ja BB ovat riippumattomia, niin:

E(φAφB)=E(φA)E(φB).E(\varphi_A \cdot \varphi_B) = E(\varphi_A) \cdot E(\varphi_B).

Tässä käytetään tulonormia (t-norm) epäselvien tapahtumien leikkaukselle, eli φAB(x)=φA(x)φB(x)\varphi_{A \cap B}(x) = \varphi_A(x) \cdot \varphi_B(x). Tämä valinta kuvastaa todennäköisyyslähtöistä tulkintaa tapahtumien samanaikaisesta esiintymisestä. Vaikka vaihtoehtona olisi käyttää minimiä min(φA(x),φB(x))\min(\varphi_A(x), \varphi_B(x)), se ei säilytä todennäköisyyksien aksioomien mukaisia ominaisuuksia, eikä erityisesti takaa P(BB)=1P(B \mid B) = 1, ellei BB ole klassinen tapahtuma.

Epäselvien tapahtumien teoria tuo esiin olennaisen eron epävarmuuden ja epämääräisyyden välillä. Todennäköisyys mittaa epävarmuutta – kuinka todennäköistä on, että tietty tulos tapahtuu – kun taas epäselvyys kuvaa sitä, kuinka hyvin tulos vastaa tiettyä käsitettä tai luokkaa. Näin ollen jäsenyysfunktio ei välttämättä kuvaa todennäköisyyttä vaan soveltuvuutta.

On tärkeää ymmärtää, että epäselvä tapahtuma ei välttämättä ole satunnainen siinä mielessä kuin klassinen satunnaisuus ymmärretään. Epäselvyys voi kuvata käsitteellistä epätarkkuutta tai semanttista joustavuutta – kuten sanojen "korkea lämpötila" tai "nuori henkilö" tulkinnat – eikä suoraa satunnaista vaihtelua. Tässä mielessä todennäköisyyden määrittäminen epäselville tapahtumille on erityisen hyödyllistä, kun mallinnetaan ihmisen kielen tai ajattelun piirteitä formaaleissa järjestelmissä.

Epäselvän todennäköisyyden laskemisessa jäsenyysfunktion valinnalla on merkittävä rooli. Valinta vaikuttaa suoraan odotusarvoon ja siten myös lopputuloksena saatavaan todennäköisyyteen. Tämä tekee jäsenyysfunktion määrittämisestä keskeisen vaiheen koko prosessissa. Funktion määrittely ei aina ole objektiivista; se voi perustua asiantuntija-arvioon, tilastollisiin havaintoihin tai lingvistiseen analyysiin.

Epäselvien tapahtumien teoria laajentaa todennäköisyyslaskennan käyttömahdollisuuksia alueille, joissa perinteinen logiikka tai klassinen tilastollinen lähestymistapa ei riitä kuvaamaan inhimillisen arvioinnin ja semanttisen epävarmuuden ilmiöitä. Tämä luo perustan esimerkiksi sumealle päättelylle, epäselville tietojärjestelmille ja epävarmuuden mallinnukselle luonnollisessa kielessä.

Miten määritellään ja käsitellään täysin korreloituneita epäselviä lukuja ja niiden erot?

Kaksi epäselvää lukua AA ja BB ovat täysin korreloituneita, jos on olemassa reaaliluvut q0q \neq 0 ja rr, siten että niiden yhteinen mahdollisuusjakauma CC määritellään jäsenyysfunktion avulla:

φC(x,y)=φA(x)X{qx+r=y}(x,y)=φB(y)X{qx+r=y}(x,y),\varphi_C(x,y) = \varphi_A(x) \cdot X_{\{qx + r = y\}}(x,y) = \varphi_B(y) \cdot X_{\{qx + r = y\}}(x,y),

missä X{qx+r=y}X_{\{qx + r = y\}} on jäsenyysfunktio joukossa {(x,y)R2:qx+r=y}\{(x,y) \in \mathbb{R}^2 : qx + r = y\}. Tämä tarkoittaa, että yy määräytyy lineaarisesti xx:n avulla, jolloin epäselvät luvut ovat lineaarisesti sidoksissa toisiinsa. Tällöin α\alpha-leikkaukset voidaan kirjoittaa muotoon

[C]α={(x,qx+r):x[a1α,a2α]},[C]_\alpha = \{(x, qx + r) : x \in [a_1^\alpha, a_2^\alpha]\},

missä [A]α=[a1α,a2α][A]_\alpha = [a_1^\alpha, a_2^\alpha] ja [B]α=q[A]α+r[B]_\alpha = q[A]_\alpha + r. Positiivinen qq tarkoittaa positiivista korrelaatiota ja negatiivinen qq negatiivista korrelaatiota.

On syytä huomata, että kaikki epäselvien lukujen parit eivät voi olla täysin korreloituneita; esimerkiksi kolmionmuotoinen epäselvä luku ei voi olla täysin korreloitunut trapezoidisen epäselvän luvun kanssa. Tätä käsitettä on laajennettu parametrisoiduilla yhteisillä mahdollisuusjakaumilla, jotka sisältävät täydellisen korrelaation tapauksen erikoistapauksena.

Kun BB voidaan ilmaista lineaarisesti AA:n α\alpha-leikkausten avulla, summa A+BA + B on myös epäselvä luku, jonka α\alpha-leikkaus saadaan kaavalla

[A+B]α=(q+1)[A]α+r.[A + B]_\alpha = (q + 1)[A]_\alpha + r.

Yleisemmin, kun f:R2Rf: \mathbb{R}^2 \to \mathbb{R} on jatkuva funktio ja A,BA, B ovat täysin korreloituneita epäselviä lukuja, laajennusperiaate (extension principle) antaa, että

[fC(A,B)]α=f([C]α),[f_C(A,B)]_\alpha = f([C]_\alpha),

eli funktio toimii α\alpha-leikkauksen tasolla suoraan.

Epäselvien lukujen erotuksen määrittely on haastavaa ja monimuotoista. Perinteinen erotus määritellään α\alpha-leikkausten avulla siten, että

[AB]α=[a1αb2α,a2αb1α],[A - B]_\alpha = [a_1^\alpha - b_2^\alpha, a_2^\alpha - b_1^\alpha],

jota kutsutaan myös Minkowskin erotukseksi. Tämä on perusta useille muille erotuksen muodoille.

Constraint Interval Arithmetic (CIA) laajentaa erotuksen määrittelyä parametrisoimalla α\alpha-leikkauksen pisteet parametreilla λA,λB[0,1]\lambda_A, \lambda_B \in [0,1] ja muodostamalla erotuksen sallitut arvot näiden kautta. Tällä menetelmällä erotuksen erityispiirteenä on se, että ACIAA={0}A -_{CIA} A = \{0\}, mikä vastaa intuitiivista odotusta.

Hukuharan erotus perustuu lisäämisen käänteisoperaatioon: AHB=CA \ominus_H B = C tarkoittaa, että A=B+CA = B + C, jos CC sellainen epäselvä luku on olemassa. Tätä on laajennettu yleistettyyn Hukuharan erotukseen, joka sallii myös tapauksen, missä B=ACB = A - C. Näiden erotusten olemassaolo ei ole aina taattu ilman lisäehtoja.

Yleistetty erotus (g-difference) määritellään siten, että

[AgB]α=cl([A]ββgH[B]β),α[0,1],βα,[A \ominus_g B]_\alpha = \mathrm{cl} \left( [A]_\beta \ominus_\beta^{gH} [B]_\beta \right), \quad \forall \alpha \in [0,1], \beta \geq \alpha,

missä βgH\ominus_\beta^{gH} on intervalleille määritelty yleistetty Hukuharan erotus. Tämä erotus aina eksistoi epäselvänä lukuna, mutta vaatii konveksifikaation eli käyrän yhdistämisen (convex hull) varmistamiseksi.

Erotukset voidaan määritellä myös yhteisen mahdollisuusjakauman kautta. Jos f(x,y)=xyf(x,y) = x - y, erotuksen jäsenyysfunktio saadaan supremoimalla

φAJB(z)=sup(x,y)f1(z)φJ(x,y),\varphi_{A -_J B}(z) = \sup_{(x,y) \in f^{ -1}(z)} \varphi_J(x,y),

missä JJ on yhteinen mahdollisuusjakauma AA ja BB välillä. Tämä muistuttaa satunnaismuuttujien yhteisjakaumaa.

Lisäksi erotus voidaan rakentaa käyttäen tt-normeja, jolloin

φAΔB(z)=sup(x,y)f1(z)(φA(x)ΔφB(y)),\varphi_{A -_\Delta B}(z) = \sup_{(x,y) \in f^{ -1}(z)} \big( \varphi_A(x) \Delta \varphi_B(y) \big),

missä Δ\Delta on valittu tt-normi. Erityisesti minimillä saadaan perinteinen tt-normiin perustuva erotus.

Täysin korreloituneiden epäselvien lukujen erotus voidaan ilmaista myös suoraan yhteisen mahdollisuusjakauman avulla, jolloin

φACB(z)=supz=xyφB(y)X{qx+r=y}(x,y),\varphi_{A -_C B}(z) = \sup_{z = x - y} \varphi_B(y) \cdot X_{\{qx + r = y\}}(x,y),

ja vastaavasti α\alpha-leikkaus on

[ACB]α=(q1)[B]α+r.[A -_C B]_\alpha = (q - 1)[B]_\alpha + r.

Summa ja erotus täysin korreloituneilla epäselvillä luvuilla ovat lineaarisia α\alpha-leikkausten tasolla, mikä helpottaa laskentaa ja analyysiä.

Tämän teorian laajennukset mahdollistavat differentiaalilaskennan kehittämisen interaktiivisille epäselville prosesseille, erityisesti silloin, kun muuttujilla on vahva korrelaatio tai interaktio.

Ymmärtäminen, että epäselvät luvut voivat olla täysin korreloituneita, mutta eivät aina, on tärkeää soveltamisissa. Tämä liittyy siihen, miten epävarmuudet yhdistyvät ja kuinka niitä voi käsitellä laskennallisesti. Lisäksi eri erotuksen muotojen vertailu osoittaa, että valinta riippuu kontekstista ja siitä, millaisia matemaattisia ominaisuuksia halutaan säilyttää. Täysin korreloituneiden lukujen käsittely tarjoaa selkeän rakenteen, joka toimii perustana monimutkaisemmille epäselvien lukujen operaatioille.