Snowpipe on tehokas työkalu jatkuvan datan lataamisen hallintaan Snowflake-tietovarastoon. Sen avulla voidaan automatisoida tiedon tuominen S3-kauppaan ja sen käsittely ilman, että tarvitaan manuaalisia vaiheita tai erillisiä ajastettuja latauksia. Tässä käsitellään, miten luoda jatkuvasti ladataan tietoputki Snowflakeen hyödyntäen Snowpipe Auto-Ingest -toimintoa.

Tietoputken luomiseen tarvitaan useita komponentteja:

  • Stream Producer: Tähän voidaan käyttää Kinesis Data Firehosea (tässä esimerkissä käytämme Firehose Test Generator -työkalua, joka on saatavilla Firehose-kanavan luomisen yhteydessä).

  • Kinesis Data Firehose: Tämän avulla tapahtuu datan välittäminen virtana.

  • S3 bucket: Toimii ulkoisena Snowflake-vaiheena.

  • Snowflake-palvelut:

    • Snowpipe: Tietojen automaattinen lataus Snowflakeen.

    • Snowflake-tietovarasto: Tietojen tallennuspaikka.

    • Snowflake-konsole: Käyttöliittymä, josta hallitaan tietoputken ja muiden palvelujen kokoonpano.

Ensimmäinen vaihe Snowpipe-toiminnon määrittämisessä on luoda ulkoinen vaihe ja putki (pipe) Auto-Ingest -asetuksella. Tämän jälkeen saamme uniikin tunnisteen sisäiselle jonopalvelulle (AWS:ssä tämä perustuu SQS:ään), joka on jo liitetty Snowpipe-palveluun.

Seuraavaksi luodaan uusi S3 bucket ja määritellään siihen S3-eventti, joka lähettää ilmoituksia Snowpipeen SNS-palvelun kautta. Snowpipe ottaa vastaan ilmoitukset uusista tiedostoista ja lisää ne jonoon, jossa suoritetaan tietynlaiset COPY-komennot. Snowflake laskee ja skaalaa suorituksia täysin automaattisesti, kun se suorittaa DDL-lausekkeet putkijonossa.

Snowpipe ei salli transaktiorajojen hallintaa. Tämä tarkoittaa, että latausprosessit eivät ole eristettyjä ja saattavat päätyä osittaisiin latauksiin, mikä voi vaatia erityistä huomiota tiettyjen tietomäärien käsittelyssä.

Tietoputken luominen Snowpipe Auto-Ingest -toiminnolla

  1. Kirjaudu sisään Snowflake-tilillesi ja valitse Worksheet.

  2. Luo Snowflake-ulkoiset vaiheet S3-bucketin pohjalta. Aseta AWS-tunnistetiedot ja S3-bucket-URL seuraavasti:

    sql
    -- Luo uusi tietokanta Snowpipe-testaukselle create database snowpipe data_retention_time_in_days = 1; show databases like 'snow%'; -- Luo ulkoinen vaihe create or replace stage snowpipe.public.snowstage url='S3://' credentials=( AWS_KEY_ID='', AWS_SECRET_KEY=''); -- Luo kohde-taulu Snowpipelle create or replace table snowpipe.public.snowtable( jsontext variant ); -- Luo uusi putki (pipe) create or replace pipe snowpipe.public.snowpipe auto_ingest=true as copy into snowpipe.public.snowtable from @snowpipe.public.snowstage file_format = (type = 'JSON');

Tässä vaiheessa määrittelemme ulkoisen vaiheen ja taulun, johon tiedot ladataan. Variant on Snowflaken yleinen puolistrukturoitu tietotyyppi, joka tukee JSON-, Avro-, ORC-, Parquet- ja XML-formaatteja. Putken (pipe) määrittäminen on tärkeää, koska siinä asetamme auto_ingest=true ja määrittelemme tiedon latausprosessin COPY -komennolla.

  1. Tarkista asetusten oikeellisuus seuraavilla komennoilla:

    sql
    show pipes; show stages;
  2. Kopioi SQS ARN-linkki NotificationChannel-kohdasta komennon show pipes tuloksista.

  3. Voit tarkistaa ladattujen tietojen määrän yksinkertaisella select -komennolla:

    sql
    select count(*) from snowpipe.public.snowtable;

AWS-konfiguraatio ja Kinesis Firehose

Seuraavaksi kirjaudutaan AWS-tilille ja luodaan S3-bucket nimeltä -snowpipebucket seuraamalla kuvia ja ohjeita.

  1. Määrittele S3-notifikaatio Snowpipea varten seuraavasti: S3 ➤ Properties ➤ Advanced settings ➤ Events.

  2. Aseta SQS-jono ja määrittele se osaksi S3-notifikaatioita.

  3. Luo Kinesis Data Firehose -virta ja valitse S3-kohde, johon tiedot toimitetaan.

  4. Ota käyttöön CloudWatch-lokituksen seuranta.

  5. Luo IAM-rooli, joka sallii tarvittavat S3-oikeudet, kuten s3:GetObject ja s3:PutObject.

Tämän jälkeen voimme käynnistää testivirran ja tarkistaa, että tiedot ovat saapuneet S3-bucketiin ja että niitä on ladattu onnistuneesti Snowflakeen.

REST API ja AWS Lambda vaihtoehto

Jos auto-ingest -toiminto ei ole käytettävissä, voidaan Snowpipe yhdistää muihin palveluihin, kuten AWS Lambdaan, käyttäen Snowpipe REST APIa. Tässä vaihtoehdossa Lambda tai sovellus huolehtii tiedostojen siirtämisestä S3-bucketiin, ja Snowpipe lisää tiedostot jonoon REST API -pisteen kautta.

Tämä lähestymistapa mahdollistaa joustavamman integraation muihin sovelluksiin, mutta vaatii lisää hallintaa ja koodin kirjoittamista verrattuna suoraan auto-ingest -toimintoon.

Tärkeää on ymmärtää, että Snowpipe on tarkoitettu jatkuvaan ja lähes reaaliaikaiseen tiedonsiirtoon, mutta se ei tue transaktioiden hallintaa, mikä tarkoittaa, että ladataan vain osittain onnistuneita tiedonsiirtoprosesseja.

Miten optimoida Snowflake tehokkuutta ja hyödyntää tekoälyä ja koneoppimista datassa?

Snowflake-alustan optimointi ei rajoitu pelkästään suorituskyvyn parantamiseen – sen tavoitteena on myös sovittaa arkkitehtuuri, työkuormat ja kustannusten hallinta tavalla, joka skaalautuu organisaation tarpeiden mukaan. Tässä luvussa käsitellään käytännön strategioita varastokonfiguraatioiden, kyselyjen ja datan optimoinnin sekä kulujen hallinnan osalta. Olipa kyseessä klusterointiavainien hienosäätö, automaattisen skaalaamisen käyttö, budjettien hyödyntäminen tai luottojen käytön seuranta, jokainen päätös vaikuttaa Snowflaken ympäristön reagoivuuteen, tehokkuuteen ja kustannustehokkuuteen. Näitä parhaita käytäntöjä soveltamalla parannat paitsi kyselyjen nopeutta ja resurssien hyödyntämistä, myös saat paremman hallinnan Snowflake-ympäristöstäsi varmistaen sen arvon tuottamisen kaikilla käyttökerroilla.

Snowflake ML ja tekoäly: Mahdollisuudet ja käyttö

Datan rooli on nykyään yhä keskeisempi, ja raakadatan muuttaminen oikeaksi ymmärrykseksi voi tuntua lähes mahdottomalta tehtävältä. On aikoja, jolloin on tarpeen paljastaa piileviä tarinoita, ennustaa tulevia tapahtumia tai tehdä älykkäitä päätöksiä luotettavan tiedon pohjalta. Tämä on muuttumassa Snowflake ML:n myötä. Nyt ei tarvitse olla datatieteilijä tai PhD-tutkija päästäkseen alkuun – tekoäly ja koneoppiminen ovat kaikkien saatavilla, taustasta riippumatta. Tämä luku tutkii Snowflake ML:n mahdollisuuksia, erityisesti sen keskeisiä ominaisuuksia, datan valmistelua ja parhaita käytäntöjä.

Snowflake ML on tehokas palvelu, joka on integroitu Snowflake AI Data Cloudiin. Se mahdollistaa käyttäjille koneoppimismallien luomisen, hyödyntämisen ja ylläpitämisen. Lisäksi Snowflake AI ja ML Studio sisältävät suuria kielimalleja (LLM), jotka mahdollistavat edistyksellisten tekstigenerointitehtävien, tiivistämisen, koodin täydentämisen ja muiden tekoälytehtävien suorittamisen suoraan Snowflakessa. Käytettävissä ovat myös työkalut kuten Document AI, Cortex Playground, Cortex Search, Cortex Analyst ja Snowflake Copilot, jotka kaikki kuuluvat Snowflake ML:n tarjoamiin mahdollisuuksiin.

Keskeiset ominaisuudet ja mallit

Snowflake ML tarjoaa käyttäjille monia valmiiksi koulutettuja koneoppimismalleja tavallisille tehtäville, kuten luokittelulle, poikkeamien havaitsemiselle, ennustamiselle ja muille. Näitä malleja voidaan käyttää suoraan SQL-kyselyissä, mikä poistaa tarpeen monimutkaisille integraatioille tai lisäinfrastruktuurille.

Luokittelu

Esimerkiksi asiakaskäyttäytymisen analysoinnissa Snowflake tarjoaa valmiin luokittelumallin, jolla voidaan ennustaa, minkä tyyppiseksi kuluttajaksi uusi asiakas saattaa kehittyä sen perusteella, mitä hän ostaa. Mallia varten tarvitaan harjoitustaulukko, joka sisältää asiakaskäyttäytymisen luokittelun (esimerkiksi korkea, keskitaso, matala). Toisen taulukon avulla mallia voidaan soveltaa, ja se auttaa ennustamaan asiakaskategorioita.

Ennustaminen

Rahoitustiimi saattaa haluta ennustaa kuukausittaiset tulot ottaen huomioon loma-aikojen ja hidastuneiden kausien vaikutukset. Snowflake tarjoaa helpon tavan luoda ennustemalli käyttäen aikarivianalyysejä. Harjoittamalla aikaa vastaavaa dataa, ennustemalli luo ennusteita, jotka auttavat ymmärtämään tulevia talouden kehityssuuntia.

Poikkeamien havaitseminen

Poikkeamien havaitseminen on tärkeää datan laadun valvonnassa. Snowflake tarjoaa mahdollisuuden käyttää poikkeamien havaitsemisen malleja, jotka voivat valvoa tietoputkia ja varoittaa epätavallisista tapahtumista tai poikkeamista, jotka voivat vaikuttaa datan laatuun. Näitä malleja voidaan käyttää proaktiivisesti ongelmien havaitsemiseksi ennen kuin ne eskaloituvat.

Suurien kielimallien (LLM) hyödyt

Snowflake tarjoaa suoran ja helpon pääsyn tunnetuista suurista kielimalleista (LLM), kuten Anthropicilta ja Metalta, ilman monimutkaisia asetuksia. Näiden mallien avulla käyttäjät voivat suorittaa tehtäviä, kuten tekstin tiivistämistä, sentimenttianalyysiä ja kielenkääntämistä suoraan Snowflake-tauluissa olevista datoista. Tämä mahdollistaa erilaisten tehtävien suorittamisen ilman erillisiä sovelluksia tai työkaluja.

Mukautetut mallit ja laajentaminen

Snowflake tarjoaa myös mahdollisuuden luoda ja käyttää omia koneoppimismalleja Snowpark ML:n avulla, joka tukee Python-pohjaisia kehyskirjastoja, kuten TensorFlow, PyTorch ja Scikit-learn. Käyttäjät voivat kouluttaa omia mallejaan ja ottaa ne käyttöön Snowflake Model Registry -rekisterissä. Tämä mahdollistaa sen, että yritykset voivat rakentaa ja käyttää malleja, jotka ovat räätälöityjä juuri heidän liiketoimintatarpeisiinsa.

Vektoripohjainen data ja suositusjärjestelmät

Snowflake tukee vektoripohjaista datan käsittelyä, joka mahdollistaa samankaltaisuushakujen ja suositusjärjestelmien rakentamisen. Tämä on erityisen hyödyllistä kuvantunnistuksessa, personoiduissa suosituksissa ja luonnollista kieltä ymmärtävissä hakutoiminnoissa. Esimerkiksi käyttäjät voivat vertailla vektoreita ja löytää samankaltaisuuksia eri tuotteiden välillä, mikä parantaa asiakaskokemusta ja liiketoiminnan suositusalgoritmeja.

Snowflake Feature Store ja Copilot

Snowflake tarjoaa myös Feature Store -palvelun, joka on keskitetty rekisteri koneoppimismallien ominaisuuksille. Ominaisuudet ovat datan esikäsiteltyjä versioita, joita käytetään mallien syötteinä. Feature Store on erityisen hyödyllinen suurten datamäärien hallinnassa ja se mahdollistaa datan jakamisen eri tiimien kesken. Samalla Snowflake Copilot tarjoaa käyttäjille mahdollisuuden kysyä luonnollisella kielellä Snowflake-ympäristön datasta ja automatisoida SQL-kyselyjen luomista.

Snowflaken integroitu tekoäly ja koneoppimisen ekosysteemi tarjoaa käyttäjille välineet, joilla voidaan parantaa datan laatua, tehdä ennusteita ja löytää piileviä trendejä. Näiden työkalujen hyödyntäminen vaatii ymmärrystä datan valmistelusta, mutta samalla tarjoaa helpon pääsyn kehittyneisiin koneoppimismalleihin ilman syvällistä teknistä osaamista.

Mikä on tehokas siirtymisen hallinta pilvipalveluihin ja Snowflakeen?

Siirtyminen pilvipalveluihin, erityisesti Snowflakeen, on monivaiheinen ja huolellisesti suunniteltava prosessi, joka vaatii sekä teknistä että organisatorista huomiota. Yksi tärkeimmistä kysymyksistä on, kuinka yhdistää oikeat työkalut ja teknologiat, jotta ne tukevat pitkän aikavälin liiketoimintatavoitteita. Kuten usein sanotaan, nopeampi "lift and shift" -lähestymistapa voi tuottaa nopeita tuloksia, mutta sillä on rajalliset hyödyt pitkän aikavälin strategiassa. Tämän vuoksi useimmiten suositaan "split and flip" -mallia, jossa ei tingitä lyhyen aikavälin hyödyistä mutta pidetään huolta organisaation pitkän aikavälin tarpeista.

Siirtymisen voi jakaa kahteen pääosaan: organisatoriseen ja tekniseen osaan. Näitä kahta näkökulmaa tarkastellaan tässä tarkemmin.

Organisatorinen osa siirtymisprosessissa alkaa olemassa olevan ratkaisun dokumentoinnilla. Snowflake käyttää roolipohjaista pääsynhallintaa, joten on tärkeää dokumentoida nykyiset käyttäjät, roolit ja käyttöoikeudet. Tämä mahdollistaa tietojen käyttöoikeuksien ja tietoturvastrategioiden jäljittelyn vanhassa järjestelmässä ja niiden siirtämisen Snowflakeen. Erityisesti arkaluontoisten tietojen suojaaminen on huomioitava, ja on tärkeää ymmärtää, kuinka usein tietoturvan hallintaprosessit tapahtuvat. Toinen tärkeä askel on olemassa olevan ratkaisun arkkitehtuurikuvauksen laatiminen.

Kun perusasiat on dokumentoitu, siirtymiselle tulisi määrittää lähestymistapa. Tällöin tulee luetella kaikki siirrettävät prosessit ja tunnistaa ne, joita pitää muokata tai korjata. Tämä mahdollistaa toimien selkeän suunnittelun ja datan arkkitehtuurikuvauksen esittämisen sidosryhmille. Snowflake suosittelee ensimmäisessä vaiheessa mahdollisimman vähäistä uudelleensuunnittelua, ellei nykyinen järjestelmä ole täysin vanhentunut. Tämä mahdollistaa liiketoimintayksikön saamisen nopeasti arvoa, koska migraatio voidaan jakaa pienempiin vaiheisiin, eikä sitä tarvitse toteuttaa suurena "big-bang" -projektina.

Siirtymisen yhteydessä voi olla myös tarpeen muuttaa kehitys- tai käyttöönottoprosesseja. Tällöin tulee dokumentoida uudet työkalut, joita otetaan käyttöön migraation seurauksena, ja määrittää kehitysympäristöt. Tärkeä osa siirtymistä on myös kehitys- ja käyttöönottoprosessien kiinnittäminen. Erityisesti DevOps- ja DataOps-prosessien käyttöönotto voivat parantaa analytiikkaratkaisun laatua ja tehostaa siirtymistä. Monet organisaatiot käyttävät erillisiä kehitys-, testaus- ja tuotantoympäristöjä, ja siirtymisen aikana ne voivat luoda lähdekoodin hallintarepositorioita, jotka helpottavat migraation hallintaa ja seurantaa.

Tietojen migraation priorisointi on toinen keskeinen tekijä. Siirtyminen kannattaa aloittaa yksinkertaisista ja vähemmän monimutkaisista tietoaineistoista, jotka voidaan siirtää nopeasti ja jotka luovat pohjan koko prosessille. Tämän jälkeen voidaan siirtyä monimutkaisempien aineistojen pariin. Tietoaineistojen riippuvuudet on tärkeää dokumentoida ja varmistaa, että ne ovat linjassa liiketoimintakriittisten vaatimusten kanssa. Tietojen siirtoon kannattaa myös kehittää automatisoitu prosessi, joka vähentää manuaalista työtä ja auttaa seuraamaan muutoksia migraation aikana.

Yksi keskeinen vaihe migraation onnistumiselle on siirtymistiimin rakentaminen. Siirtyminen vaatii monenlaisia rooleja, kuten kehittäjiä, laatuvakuutuksen asiantuntijoita, liiketoiminnan omistajia, projektipäälliköitä ja scrum-mestareita. Snowflake-kumppanin kanssa tehtävässä yhteistyössä voi olla hyödyllistä, että kumppani täyttää useita rooleja, kuten ratkaisusuunnittelua, vaatimusten keräämistä ja koulutuksen järjestämistä. Siirtyminen perinteisestä tietovarastoinnista pilvipohjaiseen varastointiin edellyttää insinööreiltä uuden osaamisen omaksumista, ja monille voi olla hyödyllistä osallistua pilvipohjaisen teknologian ja Snowflake-asiantuntemuksen lisäkursseille.

Siirtymisen aikarajoitusten ja budjetin määrittäminen on tärkeää jo varhaisessa vaiheessa. Migraation aikarajoitukset on selvitettävä yhdessä liiketoiminnan kanssa, ja samalla on tarkasteltava projektin laajuutta ja varmistettava, että aikarajoitukset ovat realistisia. On yleistä, että aikarajat määritellään ennen projektin laajuuden arvioimista, mikä voi johtaa epärealistisiin odotuksiin. Mikäli siirtyminen on liian kiireinen ja budjetti ei riitä, on tärkeää keskustella liiketoiminnan kanssa ja löytää kompromissiratkaisu.

Lopuksi, siirtymisen tulosten määrittäminen on tärkeää. Migraation tulosten arviointiin käytetään kriteerejä, jotka määrittelevät, onko projekti onnistunut ja tuottanut odotettuja hyötyjä liiketoiminnalle. Esimerkiksi Oracle-tietokannan sammuttaminen on yksi toivottu tulos, ja sen toteutuminen tulee varmistaa migraation aikana. Nämä kriteerit auttavat sidosryhmiä ymmärtämään, mitä odottaa, ja tarjoavat selvät viitekehykset projektin edistymisen seuraamiseen.

Miten Snowflake-kustannukset määräytyvät ja kuinka hallita varastoja ja tietokantoja tehokkaasti?

Snowflake tarjoaa tehokkaita työkaluja suurten tietomäärien käsittelyyn ja analysointiin pilvessä. Yksi tärkeimmistä tekijöistä, joka vaikuttaa Snowflake-käytön kustannuksiin, on virtuaalivarastojen (virtual warehouses) valinta. Virtuaalivarastot ovat käytännössä laskentaklustereita, jotka tarjoavat tarvittavat resurssit kyselyjen suorittamiseen ja tietojen lataamiseen. Virtuaalivaraston koko vaikuttaa suoraan käytettävien laskentatehojen määrään, ja sitä voi säätää tarpeen mukaan. Suurempi varasto tarjoaa enemmän laskentatehoa, mutta samalla se kuluttaa kreditejä nopeammin. Snowflake tarjoaa yhteensä kahdeksan erikokoista virtuaalivarastoa, joiden kredittikulutus vaihtelee koon mukaan.

Esimerkiksi jos valitset "large"-kokoisen virtuaalivaraston tietyn tehtävän suorittamista varten, tämä varaston koko kuluttaa 8 krediittiä tunnissa. Jos tehtävä kestää 30 minuuttia (0,5 tuntia), maksat 4 krediittiä (8 krediittiä per tunti * 0,5 tuntia). Tämän vuoksi on tärkeää ymmärtää, että virtuaalivaraston koon valinta ei vaikuta vain laskentatehoon, vaan myös kustannuksiin.

Tietojen siirto on toinen kustannustekijä. Snowflake ei veloita tietojen lataamisesta ulkoisista lähteistä kuten Amazon S3:sta tai Microsoft Azuren tallennustiloista Snowflake-ympäristöön, mutta mahdollisia siirtomaksuja voi tulla, jos tietosi sijaitsevat eri alueella tai verkossa verrattuna Snowflake-tiliisi. Tietojen vienti ulkopuolelle Snowflakesta voi myös aiheuttaa kustannuksia, jotka koostuvat paitsi vientikyselyjen laskentatehosta myös mahdollisista siirtomaksuista, jos kohdepaikka on eri alueella tai pilvipalveluntarjoajalla.

Snowflaken käyttö alkaa tavallisesti 30 päivän ilmaisella kokeilujaksolla, jonka aikana käyttäjät saavat tietyn määrän krediittejä tutustuakseen palvelun ominaisuuksiin. Snowflaken tilin luominen alkaa verkkosivuston kautta, jossa käyttäjä täyttää perustiedot, kuten nimen, sähköpostiosoitteen, yrityksen nimen, valitun pilvipalveluntarjoajan ja alueen. Aktivointiviestin jälkeen pääsee käyttämään Snowflake-tiliä ja sen käyttöliittymää. On tärkeää muistaa aktivoida tili 72 tunnin kuluessa, jotta kokeilutili ei vanhene.

Snowflaken käyttöliittymässä on kaksi vaihtoehtoa: Classic Console ja Snowsight. Nykyisin kaikki tilit päivitetään asteittain Snowsightiin, joka toimii visuaalisena ohjauspaneelina datavarastointiympäristön hallintaan. Snowsight koostuu neljästä keskeisestä osasta: navigointivalikosta, hakupalkista, pika-toiminnoista ja äskettäin katsotuista sisällöistä. Navigointivalikko on keskeinen osa käyttöliittymää, ja sen kautta pääsee käsiksi erilaisiin resursseihin, kuten tietokantoihin ja tiedon analysointiin. Hakupalkilla voi nopeasti etsiä tietokannan kohteita, kuten tauluja ja funktioita. Pika-toiminnot tarjoavat käyttäjälle usein käytettyjä toimintoja, ja äskettäin katsotut sisällöt auttavat navigoimaan aiemmin käytettyjen materiaalien parissa.

Tietokantojen ja varastojen luominen on keskeinen osa Snowflaken arkkitehtuuria, ja niiden ymmärtäminen on välttämätöntä tehokkaassa käytössä. Tietokanta toimii loogisena säilönä, johon tallennetaan samanlaiseen rakenteeseen liittyvät tietojoukot. Tietokannan avulla voidaan organisoida tietoja ja hallita käyttöoikeuksia. Esimerkiksi organisaation eri osastot voivat omistaa omia tietokantoja. Toinen tärkeä komponentti on virtuaalivarasto, joka tarjoaa laskentatehon tietojen käsittelyyn. Varastot toimivat erillään tietokannoista, mikä mahdollistaa joustavan skaalaamisen tarpeen mukaan.

Virtuaalivaraston luominen onnistuu joko käyttöliittymän tai SQL-komennon avulla. Jos käytät käyttöliittymää, kirjaudu Snowflakeen, valitse "Admin + Warehouses" ja klikkaa "+ Warehouse" -painiketta oikeassa yläkulmassa. Tämän jälkeen voit määrittää varaston nimen, tyypin, koon ja mahdolliset lisäasetukset. SQL-komennolla luominen onnistuu avaamalla SQL-työskentelyalue (worksheet) ja suorittamalla komennon, kuten:

sql
CREATE WAREHOUSE JUMPSTART_SNOWFLAKE_SQL WITH WAREHOUSE_TYPE = 'STANDARD' WAREHOUSE_SIZE = 'XSMALL' AUTO_SUSPEND = 600 AUTO_RESUME = TRUE;

On tärkeää muistaa varaston automaattinen tauottaminen (auto suspend) ja käynnistäminen (auto resume) määritellä oikein. Tämä on tärkeää, sillä toiminnassa oleva varasto kuluttaa krediittejä vain silloin, kun laskentatehoja käytetään. Automaattinen tauotus estää varaston tarpeetonta käyttöä silloin, kun sitä ei ole käytössä, ja näin voidaan säästää kustannuksissa.

Kun virtuaalivarasto on luotu, seuraavaksi voidaan luoda tietokanta. Tietokannan luominen voidaan myös tehdä joko käyttöliittymän tai SQL-komennon avulla. Tietokannan luomisen yhteydessä voidaan määrittää useita tärkeitä parametreja, kuten tietokannan nimi, omistaja ja muut turvallisuus- ja replikointiasetukset. Tietokannan luominen onnistuu helposti käyttöliittymässä valitsemalla "Data + Databases", ja sitten "+ Database" -painike oikeassa yläkulmassa. Tämän jälkeen voit määrittää tietokannan nimen ja kuvauksen ja klikata "Create" luodaksesi tietokannan.

Tietokannan ja varaston hallinta on tärkeää, sillä ne muodostavat Snowflaken arkkitehtuurin ytimen. Oikein määritellyt ja optimoidut varastot ja tietokannat auttavat pitämään kustannukset hallinnassa ja varmistavat, että ympäristö toimii tehokkaasti.