Under installationen av RHEL 9.2 på en virtuell Linux-server, genomgår systemet flera viktiga faser som innebär både tekniska och administrativa åtgärder. Efter att systemet har startat om, aktiveras installationen av en ny ISO-avbildning från RHEL 9.2. Denna process markeras genom att det 750 GB stora sda-diskytan identifieras, vilket visas i installationsgränssnittet. Här får användaren möjlighet att välja disken för installationen via kommandot "Add a disk", vilket visualiseras i installationsguiden.
Nästa steg innebär att användaren måste återskapa root-lösenordet, vilket också markeras i installationsfönstret. När detta är klart kan användaren starta själva installationen genom att välja "Begin Installation". Efter att installationen är slutförd och statusen visar "Complete!", kan användaren välja att starta om systemet för att slutföra installationen. Därefter krävs att användaren registrerar sitt system via RedHat-aktiveringsnyckeln, vilket görs genom att följa instruktionerna på den webbsida som är specifikt avsedd för att skapa denna nyckel. Detta innebär att användaren måste ange relevant information om systemets användning och version för att fullständigt aktivera installationen.
Vid nästa omstart, när RHEL 9.2 används för att expandera diskstorleken, uppmanas användaren att registrera systemet genom att ange sina Red Hat-kontouppgifter. Efter registreringen kan användaren kontrollera att systemets diskkapacitet har ökat genom att använda Linux-kommandot "df -k" eller "fdisk -l", vilket ger en översikt över den nya diskinformationen.
En annan viktig åtgärd under installationen är att användaren inte ska välja CD/DVD-enheten som innehåller ISO-bilden efter installationen, så att systemet inte oavsiktligt startar en ny installation av RedHat 9.2 när det startas om.
För att fortsätta implementeringen av systemet kan användaren installera git-paketet, vilket är nödvändigt för att arbeta med olika modeller och bibliotek som krävs för AI- och maskininlärningsapplikationer. Installationen av git sker via root-användaren med kommandot "yum install git".
När systemet är korrekt installerat och konfigurerat, kan användaren börja arbeta med olika AI-modeller för tidsserieprognoser. En av de mest lovande metoderna är användningen av IBM:s Tiny Time Mixers (TTM), en effektiv modell för multivariat tidsserieprognostisering. Dessa modeller är fördelaktiga eftersom de är relativt små, vilket leder till snabbare resultat vid förträning och finjustering, särskilt när man jämför med äldre modeller. TTM-algoritmer tränas på historiska tidsseriedata för att identifiera mönster och samband, vilket gör det möjligt att förutsäga framtida värden med hög noggrannhet.
En av de största fördelarna med TTM är dess effektivitet vid användning av både CPU och GPU, vilket gör den flexibel och lätt att implementera på olika plattformar. IBM:s forskning visar att denna metod ger konkurrensfördelar när det gäller att hantera stora mängder data på ett kostnadseffektivt sätt, utan att kräva mycket processorkraft. TTM-modellen har visat sig vara mycket effektiv när det gäller att identifiera korskanalsrelationer och externa variabler, vilket gör den särskilt användbar för tillämpningar inom områden som ekonomi, väderprognoser och hälsovård.
För användare som är intresserade av att implementera sådana modeller i sin egen forskning eller applikationer, rekommenderas det att börja med exempel som IBM tillhandahåller på sin forskningssida. Ett användbart exempel är prognostisering av luftkvalitet i Beijing med hjälp av data från PM2.5. Denna verkliga applikation visar hur modellen kan användas för miljöövervakning och stadsplanering, och ger praktiska insikter i hur tidsserieprognoser kan tillämpas i olika sammanhang.
Slutligen, när det gäller att implementera och finjustera dessa modeller, är det viktigt att använda rätt versioner av Python, eftersom vissa versioner inte stöds av vissa bibliotek och modeller. För RHEL 9.2 är de stödja versionerna 3.9, 3.10 och 3.11. Det är också viktigt att hålla sig uppdaterad om framtida förändringar i Python-versioner och deras kompatibilitet med specifika bibliotek.
Hur man installerar och konfigurerar IBM Granite och VS Code för att arbeta med lokala AI-modeller
För att utnyttja lokala AI-modeller, som IBM Granite, tillsammans med Visual Studio Code (VS Code) krävs en noggrant genomförd installations- och konfigurationsprocess. Denna process omfattar installation av programvara, konfiguration av miljön och användning av AI-modeller för effektiv kodredigering och utveckling.
Först och främst, efter att ha installerat VS Code på en RedHat Linux-server, kan du börja med att skapa en arbetsmapp genom att använda den nya IDE:n. Detta kan göras direkt genom att använda VS Codes kommandoradsgränssnitt och skapa en mapp i användarens hemkatalog. Nästa steg är att installera det nödvändiga tillägget för att arbeta med IBM Granite, vilket görs genom att köra kommandot code --install-extension continue.continue. När detta är gjort kommer VS Code att visa ett nytt ikon för att börja använda Granite-modellerna i din utvecklingsmiljö.
För att säkerställa att Granite-modellerna fungerar korrekt, behöver vi modifiera konfigurationsfilen config.json, där vi anger den specifika modellen som ska användas. Här ersätts standardmodellen med en Granite-modell, exempelvis granite3.1-dense:8b för inline-slutföranden, samt en annan för autocomplete, exempelvis granite3.1-dense:2b. Dessa justeringar görs genom att öppna konfigurationsfilen i VS Code och ändra motsvarande inställningar för att peka på rätt modeller.
När konfigurationen är klar och Granite-modellen är korrekt inställd, kan man börja arbeta med AI-assistans i sin kod. Modellen används för att förbättra både kodkomplettering och dokumentation direkt i editoren. För exempelvis Java-utveckling, kan vi skapa en effektiv binärsökningsalgoritm genom att ställa en fråga till modellen och snabbt få den nödvändiga koden som svar.
För att använda Java med VS Code, krävs också installation av Java Extension Pack, vilket görs automatiskt när du öppnar en Java-fil i VS Code. Detta tillägg gör det möjligt att kompilera och köra Java-program direkt från editoren. Vid behov kan man också installera JDK via kommandoraden, exempelvis sudo yum install java-17-openjdk, och sätta upp rätt miljövariabler som JAVA_HOME för att säkerställa att Java är korrekt installerat och tillgängligt i systemet.
En annan viktig aspekt är installationen av en autocomplete-modell som används för att förutsäga kod medan du skriver. Detta kan göras genom att hämta en modell från Ollama, som är ett bibliotek av förtränade AI-modeller som kan användas för olika utvecklingsscenarier. Efter installationen och konfigureringen av dessa modeller, är VS Code redo att arbeta med lokal AI för kodassistans.
När alla steg är genomförda och alla nödvändiga komponenter är på plats, kan du använda VS Code tillsammans med IBM Granite för att utveckla effektivare och mer produktiv kod. Du kan också utnyttja de olika modellerna för att automatiskt generera kod och dokumentation på ett sätt som inte var möjligt tidigare.
För användare som vill maximera effektiviteten i sitt arbete med AI-drivna utvecklingsmiljöer är det viktigt att förstå att processen inte bara handlar om att installera och konfigurera verktygen, utan även om att anpassa och finjustera inställningarna så att de passar de specifika behoven i projektet. Flexibiliteten som erbjuds av VS Code och IBM Granite, tillsammans med kraften hos AI-modeller som de från Ollama, ger stora möjligheter för att förbättra arbetsflöden och produktivitet inom mjukvaruutveckling.
Vad är IBM Granite 3.0 och hur påverkar det företagsanvändning?
IBM Granite 3.0, en ny och banbrytande plattform för språkmodeller, erbjuder en djupgående lösning för generativa AI-system som används inom företagssektorn. Granite 3.0 är utformad för att stödja en mängd olika uppgifter, från att översätta äldre kod som skrivits i COBOL till mer moderna språk, till att hantera komplexa verksamhetsproblem som cybersäkerhet och RAG (retrieval-augmented generation). Genom att använda stora datamängder som träningsunderlag, där data noggrant har filtrerats för att ta bort hat, missbruk och profanitet, strävar IBM efter att skapa en transparent och ansvarsfull AI-lösning. Företaget erbjuder också öppen tillgång till modellerna under Apache 2.0-licens, vilket gör det möjligt för både forskare och företag att använda och vidareutveckla teknologin.
Granite 3.0:s språkmodeller är byggda med två huvudsakliga arkitekturer: Decoder-only dense transformers och Decoder-only sparse Mixture-of-Experts (MoE) transformers. Denna mångsidighet gör modellerna användbara för en rad olika applikationer, vilket gör det möjligt för användare att anpassa och optimera dem för specifika behov. Det är också viktigt att notera att IBM kontinuerligt kommer att släppa uppdateringar som syftar till att förbättra säkerheten och prestandan, som till exempel att utöka modellerna till att bättre hantera fler språk och längre kontexter.
När det gäller själva arkitekturen är IBM Granite 3.0 byggt på avancerade teknologier som använder decoder-only transformer-block, vilket innebär att modellen bara består av en dekoder och inte en fullständig encoder-decoder-arkitektur. Detta gör modellen både snabbare och mer flexibel i sina tillämpningar. För att konstruera en fullständig transformerblock behövs komponenter som maskerad, flerhållet självuppmärksamhet, lagernormalisering, punktvis feed-forward transformation och residualförbindelser. Detta gör det möjligt att skapa kraftfulla generativa modeller som kan användas för en mängd olika syften, som språkförståelse, kodning och funktionsanrop.
För att kunna köra IBM Granite 3.0 krävs en specifik uppsättning av både hårdvara och mjukvara. För utveckling och testning stöds operativsystem som Microsoft Windows (version 10 eller senare) och RedHat Linux (RHEL 8.8 och 9.2). Hårdvarukrav för att köra dessa modeller inkluderar toppmoderna NVIDIA-grafikkort som A100 och H100, som är designade för att hantera de enorma mängder data och processorkapacitet som krävs för att träna och köra de avancerade språkmodellerna. IBM har också gjort det möjligt att köra Ollama, en AI-assistent som kan användas för kodning och utveckling, på en lokal server, vilket ger extra säkerhet för användaren.
En annan central aspekt av IBM Granite 3.0 är dess användning av sparsamma Mixture-of-Expert-modeller, där flera experter tränas på olika delar av data, vilket gör att modellen kan vara mer effektiv i sina beräkningar och samtidigt hålla resursanvändningen nere. Denna teknik används i kombination med flerhållet självuppmärksamhet för att skapa en modell som både är kraftfull och skalbar. Genom att utnyttja dessa avancerade teknologier kan IBM skapa modeller som är mycket anpassningsbara för olika typer av företagsbehov.
Det är också viktigt att förstå den infrastruktur som krävs för att använda IBM Granite 3.0. För att köra och utveckla dessa modeller behövs en rad specifika Python-bibliotek som PyTorch, NumPy, och Transformers från Hugging Face, vilket gör det möjligt att ladda och hantera de stora modellerna. Genom att installera dessa bibliotek på ett RedHat Linux-system kan användarna börja arbeta med och utveckla sina egna AI-applikationer baserade på IBM Granite 3.0.
Utöver detta måste man också ha en grundläggande förståelse för den specifika miljön där dessa modeller körs, särskilt när det gäller att använda RedHat Linux och hantera licensavtal och abonnemang. IBM rekommenderar användning av RedHat Enterprise Linux (RHEL) 9.2 eller senare för att säkerställa att alla funktioner fungerar optimalt och att säkerheten är uppfylld.
Det är avgörande för användare av IBM Granite 3.0 att förstå hur modellen hanterar och processar data. Eftersom träningsdata kan komma från en mängd olika källor, är det viktigt att vara medveten om hur denna data filtreras och bearbetas för att säkerställa att modellen är etiskt och ansvarigt tränad. Detta gäller särskilt när det gäller att skydda mot missbruk och säkerställa att AI-systemen är säkra och pålitliga för användning i kommersiella sammanhang.
Vad är fotoakustisk avbildning och dess betydelse för cancerforskning?
Hur kan vi förstå och känna igen vandrare fåglar som mycket sällan når Europa?
Hur man behandlar Hallux Valgus: Kirurgi, Tekniker och Förväntningar
Ermak Timofejev och den dödliga stormen vid Irtysj
Förberedelsefrågor för årskurs 8: Periodiska systemet, atomstruktur och kemisk bindning
Kemisk jämvikt: Begrepp, lagar och beräkningar
Uppgifter för förberedelse inför olympiader i teknik (hushållsarbete) VARIANT 1

Deutsch
Francais
Nederlands
Svenska
Norsk
Dansk
Suomi
Espanol
Italiano
Portugues
Magyar
Polski
Cestina
Русский