Kuvitellaan tilanne, jossa meillä on alkuperäinen tietojoukko ja siihen pohjautuva muutettu tietojoukko, jossa vain yksi rivi on muutettu. Tämä esimerkki auttaa ymmärtämään, miten differensiaalinen yksityisyys (Differential Privacy, DP) voi suojata henkilötietoja. Jos anonymisointialgoritmi takaa, että hyökkääjä, joka tarkastelee anonymisoitua dataa, ei pysty luotettavasti määrittämään, onko kyseessä alkuperäinen vai muutettu tietojoukko, niin kyseinen algoritmi täyttää DP:n vaatimukset.
Differensiaalinen yksityisyys määritellään matemaattisesti siten, että algoritmin avulla yksittäisten rivien alkuperää ei voi varmuudella tunnistaa anonymisoidusta tietojoukosta. Tämä takaa sen, että yksittäisten käyttäjien tiedot pysyvät suojattuina, vaikka tietoihin kohdistettaisiin useita kyselyitä. Vaikka matematiikka DP:n taustalla on monimutkaista, ei ole tarpeen ymmärtää sen kaikkia yksityiskohtia voidakseen käyttää valmiita implementaatioita. Google tarjoaa esimerkiksi avoimen lähdekoodin työkalupaketin, jonka avulla voidaan toteuttaa differensiaalinen yksityisyys Java-, C++- ja Go-kielillä.
On kuitenkin tärkeää ymmärtää, että DP:llä on omat rajansa. Jos hyökkääjä pystyy tekemään useita kyselyitä anonymisoidusta tietojoukosta, hän saattaa kerätä tarpeeksi yhteenvetotietoja alkuperäisen yksityisen tiedon paljastamiseksi. Tätä ongelmaa kutsutaan "Informaatiopalautuksen peruslait", ja se on matemaattisesti todistettu. Asiantuntijat pyrkivät ratkaisemaan tämän ongelman yhdistämällä erilaisia differensiaalisesti yksityisiä algoritmeja. Tästä syystä on suositeltavaa olla luomatta omaa DP-ohjelmistoa, vaan käyttää valmiita ja vankkoja työkaluja. On myös tärkeää rajoittaa kyselyitä vain niihin, joita liiketoiminnan tavoitteet todella edellyttävät, ja rajoittaa kyselyjen määrää.
Toinen tärkeä huomio on, että ei kaikille tietojoukoille tarvitse käyttää kaikkein vahvimpia anonymisointimenetelmiä. Jos kyseessä on vähemmän arkaluontoiset tiedot, yksinkertaisempikin lähestymistapa, kuten hämärästi obfuskoitu ID tai k-anonymiteetti, voi riittää. Koko prosessi vaatii kuitenkin huolellista harkintaa ja asiantuntijoiden, kuten tietoturva- ja yksityisyysasiantuntijoiden, konsultointia.
Tietojen anonymisointitekniikoiden, kuten differensiaalisen yksityisyyden, tulee aina kulkea käsi kädessä selkeiden politiikkojen kanssa. On tärkeää pohtia jo alkuvaiheessa, mitä tietoja yritykselle on todella tarpeen kerätä ja kuka niitä saa tarkastella. Hyvin määritellyt käyttöoikeudet, kuten kyselyiden rajoittaminen vain tarpeellisiin ja tunnistettavissa oleviin kyselyihin, ovat keskeisiä tietosuoja-asetusten ja -lakien, kuten GDPR:n, noudattamisessa.
Erityisesti tulee huomioida myös se, että tietojen säilytysaika tulee rajoittaa mahdollisimman lyhyeksi, jotta käyttäjien yksityisyyttä suojellaan entistä paremmin. Esimerkiksi Apple on huolehtinut siitä, että sen kasvojentunnistusteknologian keräämät biometriset tiedot eivät koskaan poistu käyttäjän laitteelta, mikä vähentää tietovuotojen riskiä. Tämäntyyppinen ajattelu on olennainen osa yksityisyyden suojelemista.
Erityisesti haasteita tuottavat tietosuoja- ja yksityisyysasiat, jotka liittyvät suuriin, arkaluonteisiin tietoihin, kuten terveys- ja biometrisiin tietoihin. Esimerkiksi COVID-19-pandemian alkuvaiheessa Google ja Apple loivat yhteistyössä sovelluksen, jonka tarkoituksena oli ilmoittaa käyttäjille, jos he olivat olleet läheisessä kontaktissa henkilön kanssa, joka oli testattu positiiviseksi virukselle. Tämä projekti, nimeltään Exposure Notifications, oli suunniteltu siten, että se ei seurannut yksittäisten henkilöiden liikkumisia eikä ladannut henkilökohtaisia terveysdataa palvelimille. Tämä vaati syvällistä ymmärrystä yksityisyyden suojan tärkeydestä ja sen implementoinnista käytännössä.
Tämän kaltaisten projektien toteutuksessa on tärkeää, että yksityisyyden suojaaminen ei jää vain teknologian varaan. Vaan siihen tulee liittää kattava ja selkeä poliittinen ja hallinnollinen kehys, joka määrittää tarkasti, mitä tietoja kerätään, miten niitä käsitellään ja kuka pääsee niihin käsiksi. Näin luodaan luottamusta käyttäjien keskuudessa ja varmistetaan, että tietosuojalainsäädäntöä noudatetaan. Tärkeää on, että käyttäjät antavat tietoisen suostumuksensa ennen kuin he lataavat sovelluksen ja alkavat käyttää sitä.
Miksi on tärkeää luoda virheistä oppimisen kulttuuri ja kuinka se voi edistää vastuullista ohjelmointia?
Googlella, kun tuotantojärjestelmä epäonnistuu, odotetaan vahvasti, että vastuullinen tiimi kirjoittaa ja jakaa yksityiskohtaisen dokumentin, jota kutsutaan postmortemiksi. Postmortemit eivät syytä virheistä, vaan kääntävät ne oppimismahdollisuuksiksi. Googlen insinöörit arvostavat postmortemien laatua, koska ne eivät ainoastaan paljasta virheiden taustoja, vaan auttavat myös estämään samojen virheiden toistumisen tulevaisuudessa. Tällaisessa dokumentissa ei ole kyse syyllisten etsimisestä, vaan siitä, kuinka virheistä voi oppia ja kuinka samanlaisten virheiden välttäminen voi parantaa järjestelmiä.
Googlen insinööreillä on kokemusta siitä, kuinka pienetkin virheet, kuten väärin kirjoitettu komento, voivat johtaa suuriin katastrofeihin, kuten tiedostojärjestelmän tai tietokannan tuhoutumiseen. Jos postmortem voi estää tällaisia virheitä toistumasta, se on arvokas työkalu. Esimerkiksi Jigsaw-tiimin kehittämä postmortem Perspective API:n alkuperäiselle versiolle, joka luokitteli tavallisia kommentteja toksisiksi, johti merkittäviin parannuksiin. Vastaavat virheet on tärkeää analysoida ja dokumentoida, jotta ne eivät toistu.
Yrityksesi tiimejä tulisi rohkaista luomaan postmortem-raportteja, jotka eivät syyllistä, vaan auttavat oppimaan virheistä. Tällaiset dokumentit tulisi kerätä virhekirjastoon, jonka kaikkien työntekijöiden tulisi lukea. Erityisesti tiimejä, jotka kirjoittavat yksityiskohtaisia analyysejä tai postmortemeja, tulisi juhlia ja kannustaa. On myös hyödyllistä lisätä ulkopuolisten organisaatioiden kirjoittamia analyysejä suurista julkisista epäonnistumisista, sillä virheet ovat kalliita ja on tärkeää oppia kaikilta, keneltä voi.
Googlella havaittiin, että hyvin omaksuttu postmortem-prosessi ajoi muutoksia tuotteisiin ja palveluihin, jotka hyödyttivät sekä käyttäjiä että yrityksen tulosta. Tällaiset postmortem-prosessit, yhdistettynä virhekirjastoon, voivat auttaa estämään saman turvallisuuspäätöksen toistumista. Ne ovat myös hyödyllisiä simuloiduissa katastrofi-harjoituksissa, kuten niissä, joita käsiteltiin aiemmassa luvussa.
On kuitenkin vaikeaa vetää suoraa viivaa koulutuksen ja vastuullisen ohjelmoinnin parantumisen välille tai onnettomuuksien ja bugien vähenemiseen. On realistisempaa mitata useita pieniä tai heikompia tekijöitä ja tarkastella, osoittavatko ne yhteensä positiivisia tuloksia. Esimerkiksi voidaan mitata tietoisuutta tai ymmärrystä vastuullisesta ohjelmoinnista kyselyiden ja testien avulla. Tämä antaa käsityksen siitä, kuinka hyvin työntekijät tuntevat vastuullisen ohjelmoinnin periaatteet.
Erityisesti energiatehokkuuden mittaaminen on tärkeää. On olennaista, että ohjelmointi ei ainoastaan täytä toiminnallisia vaatimuksia vaan myös optimoi energian käytön ja hyödyntää puhtaampia energialähteitä. Toinen mittari on tiimien sitoutuneisuus vastuullisuuteen. Miten usein tuotekehitystiimit tekevät yhteistyötä vastuullisuudesta vastaavien tiimien kanssa? Hyvin toimivassa organisaatiossa tuotekehitystiimit lähestyvät vastuullisuusasiantuntijoita jo projektin alussa eikä vasta hätätilanteessa.
Vähemmän näkyvä, mutta yhtä tärkeä mittari on ulkoinen asenne. Asiakkaiden mielipiteet, jotka heijastavat heidän käsityksiään vastuullisuudesta, voivat kertoa paljon. Esimerkiksi Google DeepMind on pyytänyt asiakkailtaan palautetta siitä, millaisia sanoja he yhdistävät yritykseensä ja sen tuotteisiin. Vastuullisuuden sanan mainitseminen on ollut positiivinen merkki.
Tärkeä mittari on myös vastuullisuusskandaalien määrä verrattuna kilpailijoihin ja siitä koituvat kustannukset. Pienenevät kustannukset ja vähentyneet virheet osoittavat, että organisaatio on onnistunut parantamaan vastuullisuuskulttuuriaan.
Lopuksi on hyvä luoda raportteja yrityksen johtajille, joissa esitetään tällaisia mittareita. Jos positiivisia trendejä ilmenee, se voi viitata siihen, että vastuullisuuden kulttuuri alkaa vakiintua organisaatiossa.
Google esitteli 2018 tekoälyn vastuullisuusperiaatteet, jotka olivat ensimmäinen askel kohti vastuullisempaa tekoälyn kehitystä. Nämä periaatteet kuvasivat tekoälyratkaisujen tulevan olla yhteiskunnallisesti hyödyllisiä, välttää ennakkoluulojen vahvistamista, turvallisia, ihmisten vastuullisia, yksityisyyttä kunnioittavia ja tieteellisesti huippuluokkaa. Seuraava askel oli varmistaa, että Googlen insinöörit todella ymmärtäisivät nämä periaatteet. Aluksi moni ei pystynyt nimeämään tai selittämään periaatteita. EngEDU-tiimi reagoi tähän yllättävään tulokseen luomalla hauskan videon, jossa Googlen työntekijöitä haastateltiin ja heille esiteltiin tekoälyn periaatteet. Vaikka videon tarkoitus oli ironinen, se auttoi opettamaan työntekijöille periaatteet, ja se saavutti suuren suosion.
Tämä anekdootti havainnollistaa tärkeän pointin: vastuullinen ohjelmointi ei ole vain periaatteiden kirjoittamista. Se on pitkän aikavälin kulttuurimuutoksen luomista, jossa työntekijöille annetaan oikeat työkalut ja motivaatiot sitoutua vastuulliseen ajatteluun ja toimintaan. Jos tämä kulttuuri ei ole läsnä, työntekijät eivät ole motivoituneita toimimaan vastuullisesti, vaikka heillä olisi hyvät ohjeet käytettävissään.
Kuinka optimointi, vastuullisuus ja eettinen suunnittelu muokkaavat tekoälyn kehitystä ja sen vaikutuksia yhteiskuntaan
Tekoälyn kehittäminen ja sen käyttö tekevät tasapainon löytämisestä turvallisuuden, vastuullisuuden ja tehokkuuden välillä yhä tärkeämpää. Yksi keskeinen osa tätä tasapainoa on se, miten hallitaan algoritmien käyttö ja niiden vaikutukset ympäröivään maailmaan. Tekoälyjärjestelmien optimointi ei rajoitu vain niiden toiminnallisuuteen ja suorituskykyyn, vaan myös niiden yhteiskunnallisiin ja ympäristöllisiin vaikutuksiin. Esimerkiksi "carbon-free energy percentage" (CFE) eli hiilineutraalin energian osuus järjestelmässä on olennainen osa tätä keskustelua.
Hiilivapaiden energialähteiden käytön lisääminen, erityisesti tietokeskuksissa, on monille suurille teknologiayrityksille, kuten Googlelle, keskeinen tavoite. Tämä prosessi ei ole pelkästään tekninen haaste, vaan se liittyy myös päätöksentekoon siitä, miten ja missä koodi ja datakeskukset sijaitsevat. Paikanvalinnan optimointi voi pienentää ympäristövaikutuksia ja parantaa energiatehokkuutta. Esimerkiksi Google on kehittänyt "Controlling the Code's Location" -menetelmän, jonka avulla voidaan optimoida koodin sijaintia niin, että se toimii tehokkaammin ja vähemmän energiaa kuluttavasti.
Samalla on tärkeää huomioida, että tekoälyn kehityksessä ei riitä pelkkä tekninen optimointi. Vastuullinen suunnittelu vaatii myös jatkuvaa eettistä pohdintaa. Tekoälyalgoritmien ennakoimattomat vaikutukset voivat olla syvällisiä, ja niiden ennakoiminen vaatii syvällistä ymmärrystä siitä, miten dataa kerätään ja käytetään. Esimerkiksi "Mitigating Bias in the Care Management Algorithm" -tutkimuksessa käsitellään algoritmien ja tekoälyn roolia hoitohallinnassa ja sitä, kuinka bias eli ennakkoluulot voivat vaikuttaa potilaskäsittelyyn. Algoritmien vääristymät voivat johtaa eriarvoisuuteen ja vahingollisiin seurauksiin, erityisesti haavoittuvassa asemassa olevien ryhmien kohdalla.
Erityisesti terveydenhuollossa tekoälyn väärinkäytöksillä voi olla vakavat seuraukset. Hoitohallinnan algoritmeissa ilmenevät ennakkoluulot voivat esimerkiksi johtaa siihen, että tietyt väestöryhmät saavat huonompaa hoitoa tai heille annetaan vähemmän resursseja. Tässä kontekstissa "Mitigating Bias" -lähestymistapa on elintärkeä, jotta voidaan estää ei-toivottujen seurausten syntyminen ja varmistaa, että algoritmit ovat oikeudenmukaisia kaikille.
Toinen keskeinen alue, johon on kiinnitettävä huomiota, on yksityisyyden suoja. Esimerkiksi COVID-19-pandemian aikana käytetty "Protecting Privacy During the COVID Pandemic" -strategia tarjosi esimerkkejä siitä, miten yksityisyyttä voidaan suojata ja miten dataa voidaan kerätä turvallisesti, ilman että se vaarantaa yksilön oikeuksia. Vastuullinen tekoälyn kehitys ei voi jättää huomiotta yksityisyyden suojaa tai käyttäjän suostumusta, ja sen vuoksi on tärkeää kehittää prosesseja, jotka varmistavat, että kaikki osapuolet ymmärtävät ja hyväksyvät kerätyn datan käytön.
Erityisesti on huomioitava, että tekoälyn ja algoritmien vaikutus ei rajoitu pelkästään suoraan asiakkaille tai käyttäjille annettaviin palveluihin. Algoritmien vaikutukset ulottuvat myös laajempaan yhteiskunnalliseen ja kulttuuriseen kontekstiin. Koodin suunnittelussa on tärkeää ottaa huomioon kulttuuriset ja sosiaaliset tekijät, jotka voivat vaikuttaa siihen, miten tekoälyä tulkitaan ja käytetään eri ympäristöissä. Tämä ei koske pelkästään teknistä toimivuutta, vaan myös sen varmistamista, että tekoäly toimii oikeudenmukaisesti ja eettisesti kaikille yhteiskunnan jäsenille.
Tekoälyn eettinen kehittäminen vaatii laajempaa yhteistyötä eri alojen asiantuntijoiden ja käyttäjien kanssa. Esimerkiksi "Codesigning with Users" -menetelmä korostaa, kuinka tärkeää on, että lopulliset käyttäjät osallistuvat algoritmien suunnitteluprosessiin, jotta voidaan varmistaa, että niiden toiminta on ymmärrettävää ja oikeudenmukaista. Tällainen yhteistyö voi estää väärinkäytöksiä ja auttaa luomaan järjestelmiä, jotka ovat sekä tehokkaita että vastuullisia.
On tärkeää myös muistaa, että eettinen kehitys ei ole kertaluonteinen toimenpide, vaan jatkuva prosessi. Erityisesti se, että tekoälyalgoritmien turvallisuus ja eettisyys testataan jatkuvasti, on elintärkeää. Esimerkiksi "Testing for Safety" -menetelmä painottaa sitä, kuinka tärkeää on testata ja arvioida tekoälyjärjestelmiä ennen niiden laajempaa käyttöönottoa, jotta voidaan estää vahingollisten seurausten syntyminen.
Kaiken kaikkiaan, kun puhumme tekoälyn vastuullisesta kehittämisestä ja sen roolista yhteiskunnassa, on tärkeää muistaa, että tekninen suorituskyky ei ole ainoa huomioon otettava tekijä. Tekoälyn vaikutukset ulottuvat laajalle, ja sen kehityksessä on otettava huomioon niin ympäristön, kulttuurin kuin yksilön oikeuksienkin suojelu. Tekoälyn kehittäjien, asiantuntijoiden ja käyttäjien yhteinen vastuu on huolehtia siitä, että kehitetään järjestelmiä, jotka ovat oikeudenmukaisia, turvallisia ja kestäviä.
Miten tekoäly voi arvioida oikeudenmukaisuutta ja puolueettomuutta?
Tekoälyn kehityksessä ja soveltamisessa on usein keskeisiä kysymyksiä siitä, kuinka tarkasti ja oikeudenmukaisesti järjestelmät toimivat. Yksi keskeisimmistä haasteista on se, kuinka mitata ja varmistaa, että järjestelmä ei vain toimi teknisesti oikein, vaan että se myös toimii oikeudenmukaisesti ja ilman haitallisia ennakkoluuloja. Näin ollen kysymykset oikeudenmukaisuudesta ja puolueettomuudesta ovat keskeisiä tekoälyn eettisten ja toiminnallisten rajoitusten ymmärtämisessä.
Oikeudenmukaisuuden mittaaminen on monimutkainen prosessi, sillä se ei ole vain tekninen kysymys, vaan liittyy syvällisesti kulttuurisiin, yhteiskunnallisiin ja yksilöllisiin näkökulmiin. Esimerkiksi kuvitteellinen tilanne, jossa tekoäly-pohjainen mainosjärjestelmä ennustaa asiakkaan todennäköisyyttä vastata lääkärin työpaikkailmoitukseen, voi teknisesti tuottaa tarkkoja ennusteita. Kuitenkin, jos tämä ennusteet poikkeavat sukupuolen mukaan, esimerkiksi jos miehille tarjotaan enemmän työpaikkailmoituksia kuin naisille, voi olla kyseessä oikeudenmukaisuusongelma, vaikka itse laskennalliset ennusteet olisivatkin oikein. Tämä on esimerkki siitä, kuinka tarkkuus, joka on usein tärkeä mittari tekoälyn toimivuudelle, ei riitä arvioimaan järjestelmän oikeudenmukaisuutta.
Erilaiset ryhmät voivat myös kokea sovelluksen toiminnan eriarvoisena, vaikka sovellus toimii oikein suurimmalle osalle käyttäjistä. Esimerkiksi sovellus, joka toimii erinomaisesti 98 prosentille käyttäjistä, mutta jättää huomiotta 2 prosenttia käyttäjistä, kuten kuurot tai lyhyet henkilöt, voi silti aiheuttaa oikeudenmukaisuusongelmia, koska se ei palvele kaikkia käyttäjäryhmiä tasapuolisesti.
Tekoälyjärjestelmien oikeudenmukaisuutta on kuitenkin vaikea määritellä, koska ei ole olemassa mitään objektiivista "totuutta" siitä, mikä on oikeudenmukaista. Tämä ongelma tulee esiin erityisesti silloin, kun tekoäly tuottaa visuaalisia esityksiä, kuten kuvageneraattoreita, jotka luovat kuvia käyttäjien antamien tekstipohjaisten pyyntöjen mukaan. Esimerkiksi jos pyydetään tekoälyä luomaan kuvia "sadan ihmisen, jotka rakastavat syödä kurkkuja", ei ole olemassa mitään oikeaa vastausta siihen, miltä kuvien tulisi näyttää. Tekoäly voi luoda kuvia, joissa on nuoria ja vanhoja henkilöitä, eri hiustyylejä, tai jopa kuvia ilman kurkkuja, koska "kurkkujen syöminen" on subjektiivinen kokemus, joka ei ole sidottu mihinkään yleisesti hyväksyttyyn visuaaliseen totuuteen.
Oikeudenmukaisuuden määrittäminen on myös sidoksissa siihen, kuka määrittelee sen. Tämä pätee erityisesti tekoälyyn, jonka toiminta on usein koulutettu ihmisten tuottamilla ja keräämillä aineistoilla. Tekoälyjärjestelmän on siis toimittava "oikeudenmukaisesti" sen mukaan, mikä on hyväksyttävää ja tasapuolista käyttäjälle, mutta se riippuu täysin siitä, mitä käyttäjä tai järjestelmän kehittäjä pitää oikeudenmukaisena. Kun kysytään esimerkiksi tekoälyltä, ovatko juustohampurilaiset ok syödä, saattaa se vastata monille tasapainoisesti ja neutraalisti. Kuitenkin se voi olla epäreilua tai jopa loukkaavaa esimerkiksi henkilölle, joka noudattaa kasvisruokavaliota, tai henkilölle, joka kuuluu yhteisöön, joka pitää lehmiä pyhänä. Tämän vuoksi tekoälyjärjestelmät kamppailevat oikeudenmukaisuuden saavuttamisessa laajassa mittakaavassa.
Puolueettomuus on myös aina läsnä, kun arvioidaan tekoälyjärjestelmän toimintaa. Puolueettomuus itsessään ei ole huono asia, sillä ihmisillä on omat henkilökohtaiset mieltymykset ja ennakkoluulonsa, jotka heijastuvat myös siihen, miten he lähestyvät kysymyksiä. Tietoisuus omista ennakkoluuloista on tärkeää, sillä kuten historia on osoittanut, tieteellisetkin teoriat ovat olleet aikanaan väärässä, kun tieteilijät olivat kiintyneet omiin käsityksiinsä ja oletuksiinsa. Esimerkiksi ennen taudinaiheuttajien ja mikrobiteorian syntyä lääkärit uskottivat sairauksien leviävän huonosti hajustetuista höyryistä, mutta tätä uskomusta kesti vuosisatoja. Sama pätee tekoälyjärjestelmiin: vaikka niiden rakenteet voivat tuntua neutraaleilta, ne voivat silti olla vaikuttuneita siitä, millaisia oletuksia niiden kouluttajat ovat tehneet.
Tekoälyjärjestelmiin liittyy siis monia puolueellisuuden lähteitä, jotka voivat ilmestyä joko niiden suunnittelussa, koulutusdatassa tai toiminnassa. Esimerkiksi, jos tekoälymalli luokittelee videoita "leikillisiksi" ja "vakaviksi", saattaa sen määritelmä siitä, mikä on leikillistä ja vakavaa, perustua kulttuurisiin oletuksiin, jotka vaikuttavat siihen, kuinka mallin koulutusdata valitaan ja käsitellään. Tässä prosessissa voi helposti esiintyä puolueellisuutta, vaikka kehittäjät eivät olisi siitä tietoisia. Koulutusdatan valinnassa ja analyysissa voi olla piilevää puolueellisuutta, jos se perustuu stereotypioihin tai kulttuurisiin rajoituksiin.
Tekoälyn puolueettomuuden ja oikeudenmukaisuuden kysymykset siis ulottuvat paljon syvemmälle kuin pelkästään teknisten algoritmien tarkkuuden mittaaminen. Ne ovat vakiintuneita osa-alueita, joissa tarvitaan jatkuvaa tarkastelua, itsetutkiskelua ja kulttuurienvälisiä keskusteluja, jotta järjestelmät voivat toimia reilusti ja oikeudenmukaisesti kaikkia käyttäjäryhmiä kohtaan.

Deutsch
Francais
Nederlands
Svenska
Norsk
Dansk
Suomi
Espanol
Italiano
Portugues
Magyar
Polski
Cestina
Русский