Az IBM Granite 3.0 a fejlesztők számára biztosítja a lehetőséget, hogy hatékonyan használjanak helyi mesterséges intelligencia (AI) támogatást a fejlesztői laptopokon és munkaállomásokon, Ollama nevű helyi inferezési motor segítségével. Az Ollama egy széles körben alkalmazott eszköz a nagy nyelvi modellek (LLM) helyi futtatására, amely jelentős előnyt biztosít a gyors fejlesztésben és az egyedi igényekhez történő igazításban.
A könyv 5. fejezete áttekintést ad a IBM Granite Workshop Labs telepítéséről, amely Python kódot és Jupyter jegyzetfüzeteket használ a prompt-engineering (utasítás tervezés) céljából. Az IBM Granite modellek kimeneti értékeinek testreszabása is lehetséges, amit programozott módon érhetünk el egy prompt sablon használatával, amit részletesen ismertetünk ebben a fejezetben. A Jupyter jegyzetfüzetek bemutatják a prompt-engineering funkcióit, amelyek az IBM Granite 3.0 verzióval érhetők el.
A prompt-engineering lényege, hogy képesek vagyunk testreszabni a modellek kimenetét egy adott feladathoz. Az IBM Granite 3.0 lehetőséget ad arra, hogy egyedileg formáljuk meg a választ, például azzal, hogy finomhangoljuk a bemeneti utasításokat vagy változtatunk a válaszok struktúráján, hogy jobban illeszkedjenek az üzleti vagy technikai elvárásokhoz.
A következő, 6. fejezet, részletes útmutatót ad arra, hogyan telepíthetjük és kezelhetjük sikeresen az IBM Granite 3.0 (és az újabb, 3.1-es verziót) egy vállalati környezetben. Ebben a fejezetben kiemelt szerepet kap a megfelelő LLM modellek kiválasztása és finomhangolása, különböző szervezeti igényekhez. Az IBM Granite 3.0 verziója olyan fejlett eszközöket kínál, amelyek lehetővé teszik a fejlesztők számára, hogy az adott vállalat igényeihez legjobban illeszkedő AI-modell konfigurálásával maximalizálják a rendszer hatékonyságát és alkalmazhatóságát.
A 7. fejezet az IBM Watsonx Code Assistant (WCA) alkalmazását ismerteti, amely egy generatív AI-kód segédprogramcsomagot biztosít az IBM Granite 3.0 környezetében. A WCA fejlesztők számára biztosít lehetőséget a kódgenerálásra, segítve a programozókat abban, hogy gyorsabban és hatékonyabban végezzenek el olyan feladatokat, mint például a kódok újraírása vagy frissítése. Ezen kívül az IBM Watsonx Code Assistant képes integrálódni a Red Hat Ansible Automation Platform-ba, valamint az IBM COBOL alapú örökölt rendszerek modern programozási nyelvekre történő átalakításába is, mint például Java, amely különösen fontos lehet a legacy rendszerek átállítása során.
A 8. fejezet az IBM Granite 3.0 kódrendszereit tárgyalja, amelyek nagy Ansible Playbook adatállományokon lettek betanítva, hogy a fejlesztők képesek legyenek elfogadni vagy módosítani az AI által generált tartalomjavaslatokat. Ez jelentős mértékben hozzájárulhat a termelékenység növeléséhez, mivel a vállalatok az Ansible Playbook tartalmát kihasználva gyorsabban implementálhatják az AI ajánlásokat a valós munkafolyamataikban.
Az IBM Granite 3.0 és a Watsonx Code Assistant közötti integráció különösen erősíti az automatizált rendszerek telepítését és karbantartását, mivel lehetővé teszi, hogy a fejlesztők közvetlenül AI által generált kódokat alkalmazzanak az automatizálásban. Az Ansible Playbook segítségével a rendszer konfigurálásának és karbantartásának minden lépése könnyebben nyomon követhetővé válik, miközben a fejlesztők a szükséges módosításokat gyorsan végrehajthatják.
Az 9. fejezet továbbmegy és bemutatja az Ansible Task-ok használatát, amelyek egy-egy konkrét cselekvést deklarálnak az Ansible automatizálási szkriptekben. Ezek a YAML alapú Playbook-ok, amelyek egy adott akciót hajtanak végre, például egy csomag telepítését, fájlok másolását vagy egy szolgáltatás leállítását távoli gépen, segítenek az IT szakembereknek az automatizált rendszerek telepítésében és működtetésében.
A 10. fejezet végül áttekintést ad a jövőbeli frissítésekről, valamint a várható új funkciókról, amelyeket az IBM Granite 3.0 architektúrája kínál. Az IBM folyamatosan dolgozik a Granite modellek teljesítményének javításán, például a CodeNet utasítási adatállomány használatával, amely hozzájárulhat a gépi tanulási modellek képességeinek fokozásához.
Fontos megjegyezni, hogy az AI és a gépi tanulás eszközei nemcsak az informatikai iparágban, hanem a különböző üzleti szektorokban is alkalmazhatók. Az IBM Granite és Watsonx rendszerei lehetőséget adnak arra, hogy a vállalatok a legmodernebb AI-technológiákat integrálják működésükbe, ezzel növelve hatékonyságukat és csökkentve a költségeiket. Az AI modellek finomhangolásával és testreszabásával a vállalatok sokkal rugalmasabban tudnak alkalmazkodni a változó piaci környezethez.
Hogyan telepíthetjük a RedHat Enterprise Linux rendszert VMware-en és IBM Cloud-on?
A VMware környezetben a RedHat Enterprise Linux (RHEL) telepítése egy sor lépést igényel, amelyek lehetővé teszik a rendszer testreszabását és a helyes konfigurációk kiválasztását. Az első lépés a telepítési varázsló elindítása, ahol a felhasználó a "Custom (advanced)" lehetőséget választja. Ezután a beállításokat gondosan ellenőrizzük, majd a "Finish" gombbal lezárjuk a varázslót. Ezt követően a frissen létrehozott virtuális gép indítható a zöld nyíl ikonnal, amelyet az ISO képről való bootolás céljából választunk ki. A splash képernyő megerősíti, hogy a rendszer a RedHat Enterprise Linux 9.4 verzióját tartalmazza, és elindul a rendszer betöltésének számlálója.
A betöltési folyamatot követően a SHA-ellenőrzés kezdődik, amely a telepítő ISO képről történő indításhoz szükséges. Ezt az ellenőrzést néhány percig tart, és a sikeres végrehajtás után a telepítés összegzésével találkozunk. Itt az összes telepítési beállítást – például a cél lemezt, a gyökér jelszót, a hálózati beállításokat és a felhasználók létrehozását – lépésről lépésre konfigurálhatjuk.
Miután beállítottuk az összes szükséges opciót, elindíthatjuk a telepítést a "Begin Installation" gombbal. A telepítés előrehaladása folyamatosan figyelemmel kísérhető, bár előfordulhat, hogy a folyamat során a progress bar nem frissül folyamatosan. A telepítés végén a rendszer kérni fogja a root felhasználó bejelentkezését és jelszót. Amennyiben a telepített gépen nincs NVIDIA GPU hardver, akkor egy hibaüzenet jelenik meg, amely arra figyelmeztet, hogy a rendszer nem találja a szükséges hardvert.
A telepítést követően számos lehetőség áll a felhasználók előtt, hogy folytassák a konfigurációt, és a rendszer teljes mértékben működőképes legyen. Ha az adott rendszer nem rendelkezik a szükséges GPU kártyákkal, alternatív megoldásként az IBM vagy az AWS felhőalapú erőforrásait használhatjuk, hogy a telepítést ott végezzük el. Az IBM Cloud telepítéséhez és a szükséges erőforrások beállításához számos lépés szükséges, amelyek magukban foglalják az IBM CLI telepítését és konfigurálását, valamint a szükséges felhőobjektum-tároló létrehozását.
A folyamat során az IBM Cloud CLI telepítéséhez először le kell tölteni és telepíteni az IBM Cloud Command Line Interface-t. Ehhez az alábbi parancsokat használhatjuk a Linux rendszerben:
Ezt követően a legújabb verzióra kell frissítenünk a rendszert az ibmcloud update parancs használatával, és ellenőrizhetjük az aktuális verziót az ibmcloud -v parancs kiadásával. A rendszer plugin telepítéséhez a ibmcloud plugin install code-engine parancsot kell használni.
Miután az IBM Cloud CLI telepítve lett, létrehozhatunk egy API kulcsot, amely lehetővé teszi a rendszer teljes körű adminisztrációját a parancssori felületen. Az API kulcs létrehozása után a felhasználók különböző konfigurációkat végezhetnek, mint például a Cloud Object Storage (COS) tárolók létrehozása, valamint a szükséges QCOW2 képek generálása a RHEL AI 1.4 telepítéséhez. A pontos lépések a hivatalos IBM Cloud dokumentációban találhatók, és a telepítési folyamat részletes leírása biztosítja, hogy minden felhasználó könnyedén végigvezethesse a szükséges lépéseket.
A VMware és az IBM Cloud kombinálása lehetőséget biztosít arra, hogy a felhasználók rugalmasan kezeljék az erőforrásaikat, miközben kihasználják mindkét platform előnyeit. Az IBM Cloud segítségével a felhasználók számára széles körű lehetőségek nyílnak meg a virtuális gépek telepítésében és kezelésében, miközben a VMware egy stabil alapot ad az operációs rendszer futtatásához.
Fontos megjegyezni, hogy a felhőalapú telepítések esetén az erőforrások kezelésére és optimalizálására különös figyelmet kell fordítani, mivel a felhőben történő telepítés jelentős eltéréseket mutathat a helyi környezetekhez képest. Az alkalmazásokat és adatokat biztonságosan kell tárolni, és a rendszer karbantartása folyamatos odafigyelést igényel.
Hogyan telepítsünk és konfiguráljunk egy QEMU virtuális gépet Red Hat környezetben?
A QEMU virtuális gépek és azok kezelésére szolgáló eszközök, mint a Virt-Manager, lehetővé teszik a felhasználók számára, hogy gyorsan és hatékonyan telepítsenek, konfiguráljanak és karbantartsanak virtuális gépeket. A QEMU egy nyílt forráskódú virtualizációs technológia, amely különböző operációs rendszerek futtatását teszi lehetővé, anélkül hogy módosítani kellene a gazda gép konfigurációját. Az alábbiakban bemutatjuk a QEMU GA (Guest Agent) telepítésének és konfigurálásának folyamatát, valamint a Red Hat környezetben történő virtuális gép létrehozásának lépéseit.
A QEMU GA telepítése az operációs rendszer vendégoldalán kritikus fontosságú a rendszereszközök közötti interakció optimalizálásában. Az alábbiakban bemutatjuk, hogyan készíthetünk egy XML konfigurációs fájlt a QEMU GA számára, és hogyan telepíthetjük azt egy Linux alapú vendég operációs rendszerben. Először is, hozzuk létre az qemuga.xml fájlt, amely tartalmazza az alábbi bejegyzéseket:
Ezek a sorok lehetővé teszik a QEMU GA számára, hogy kommunikáljon a gazda operációs rendszerével és biztosítja a megfelelő működést a virtuális gépben. Miután létrehoztuk ezt a fájlt, el kell indítanunk a QEMU GA szolgáltatást a vendég operációs rendszeren:
Miután a QEMU GA telepítve és futtatva van, a rendszer képes lesz a virtuális gépek gyors és hatékony kezelésére, így a felhasználók könnyedén integrálhatják a különböző operációs rendszereket a gazda környezetükbe.
A Virt-Manager telepítése lehetővé teszi a felhasználók számára, hogy grafikus felületen kezeljék virtuális gépeiket. A telepítéshez a következő parancsot kell futtatnunk:
Ezután a Virt-Manager GUI elindításához egyszerűen használhatjuk a virt-manager parancsot. A felhasználó számára lehetőség nyílik virtuális gépek gyors létrehozására, konfigurálására és elindítására. A következő lépésekkel telepíthetjük a Red Hat 9.5 operációs rendszert egy új virtuális gépre:
-
Töltse le a Red Hat ISO telepítő fájlt.
-
Nyissa meg a Virt-Manager alkalmazást, és válassza a "Create a New Virtual Machine" lehetőséget.
-
Válassza ki a letöltött ISO fájlt a "Browse Local" opcióval.
-
Állítsa be a kívánt memória- és CPU-beállításokat, majd folytassa a telepítést.
A gép telepítése után az új virtuális gép már használatra kész, és a felhasználó könnyen hozzáférhet az összes szükséges konfigurációs beállításhoz. Fontos, hogy a rendszeres frissítések és a megfelelő erőforrások kezelésével elkerüljük a teljesítményproblémákat.
A QEMU virtuális gépek létrehozásához a parancssor segítségével is hozzáférhetünk. Ehhez a következő parancsot kell futtatnunk:
Ez lehetővé teszi a felhasználók számára, hogy parancssorból, automatizált módon telepítsenek új virtuális gépeket.
A rendszer konfigurálása után szükséges ellenőrizni, hogy a QEMU GA megfelelően működik-e. Ezt megtehetjük a következő parancs használatával:
Ha a kimenet tartalmazza az "enabled" szót, akkor a QEMU GA aktívan fut a vendég operációs rendszeren.
A virtuális gépek hálózati beállításai, mint a NAT IP címek, szintén fontos részei a konfigurációnak. A hálózati beállítások XML formátumban történő megjelenítése segít a felhasználóknak a rendszer nyújtotta lehetőségek pontosabb megértésében.
A Red Hat Ansible lehetőséget ad arra, hogy automatizáljuk a virtuális gépek kezelését, és széles körű telepítési és konfigurációs feladatokat végezzünk. Az Ansible Automation Platform telepítése, konfigurálása és integrálása a rendszerbe számos előnyt kínál, például a konfigurációk központosított kezelését és az automatizált telepítést.
A Red Hat Ansible Lightspeed használatával, amely az IBM watsonx Code Assistant segítségével integrálható, a felhasználók gyorsan és hatékonyan fejleszthetnek automatizált rendszereket, és javíthatják a virtuális gépek kezelését.
A virtuális gépek kezelésére és telepítésére szolgáló eszközök, mint a QEMU, Virt-Manager és Ansible, lehetővé teszik a rendszergazdák számára, hogy magas szintű automatizálást valósítsanak meg, miközben biztosítják a stabil és biztonságos működést. Ahhoz, hogy a virtuális gépek optimálisan működjenek, fontos, hogy mind a rendszer, mind a használt eszközök folyamatos frissítése és konfigurálása megtörténjen.
Hogyan működik az IBM Granite 3.0 architektúrája és mit kell tudni a bevezetéséhez?
Az IBM Granite 3.0 egy fejlett generatív nyelvi modell, amely számos üzleti és technológiai alkalmazás számára készült. A modell architektúrája a modern mesterséges intelligencia alapú rendszerek egyik alapvető aspektusát képezi, amely lehetővé teszi a vállalatok számára, hogy korszerűbbé tegyék informatikai rendszereiket, beleértve a régi rendszerek modernizálását is. Az IBM Granite 3.0 több különböző nyelvi modellt is tartalmaz, amelyek különböző feladatok elvégzésére alkalmasak, mint például a programozás, a kódolás megértése és biztonsági elemzés.
A modell képzése során a tisztított és szűrt adatokat használták, amelyek biztosítják, hogy a modell ne tartalmazzon gyűlöletbeszédet, sértéseket vagy egyéb nem kívánt tartalmat. A modellek a különböző felhasználási területekhez, például a számítógépes biztonsághoz és a funkcióhívásokhoz, optimálisan lettek kialakítva.
A Granite 3.0 egy nyílt forráskódú rendszer, és az IBM Apache 2.0 licenc alatt teszi elérhetővé az elkészített modelleket, lehetővé téve a kutatók és kereskedelmi felhasználók számára is a hozzáférést. A vállalat továbbra is tervezi a rendszer frissítését, hogy javítsa a teljesítményt és növelje a biztonságot, valamint a többnyelvűséget és a kódolás hatékonyságát.
A modell felépítése két fő architektúra köré épül: a "Decoder-only Dense transformers" és a "Decoder-only Sparse Mixture-of-Expert transformers". Az előbbi egy tradicionális transformer architektúra, amelyet generatív modellekben használnak, míg az utóbbi egy ritka Mixture-of-Expert megközelítés, amely lehetővé teszi a modell számára, hogy különböző szakértők közül válasszon, hogy különböző feladatokban a legjobb eredményt érje el.
Az IBM által használt dekóder-szintű transformer blokkok tartalmaznak egy többfejes önálló figyelmi mechanizmust, rétegnormalizációt, valamint pontszerű feed-forward transzformációkat, amelyek lehetővé teszik a modell számára, hogy megértse és feldolgozza a bemeneti adatokat. A Mixture-of-Expert (MoE) modellek a szakértők közötti választás alapú működést is lehetővé teszik, amely optimalizálja a rendszer teljesítményét.
A rendszer hardver- és szoftverigényei szintén elengedhetetlenek a megfelelő futtatási környezet kialakításához. Az IBM Granite 3.0 a következő operációs rendszereken működik: Microsoft Windows 10 és újabb verziók, RedHat Linux RHEL 8.8 és 9.2. A telepítéshez szükséges GPU-k közé tartoznak a NVIDIA A100, NVIDIA H100 és NVIDIA L40S modellek, amelyek nagy memória kapacitással rendelkeznek, és képesek a modellek hatékony futtatására.
A RedHat Linux telepítése során figyelni kell a megfelelő verzióra, hiszen a régebbi RHEL verziók nem támogatják a Granite 3.0-t. Az IBM a RedHat Linux RHEL 9.2 verziót javasolja, amely kompatibilis a szükséges szoftverekkel, beleértve a Python környezetet és az összes szükséges könyvtárat, mint például a PyTorch, NumPy, és a Hugging Face Transformers könyvtár.
A telepítés során a RedHat fejlesztői fiók létrehozása elengedhetetlen, mivel a rendszer licencelése és aktiválása ezen keresztül történik. Az újabb RedHat verziókhoz tartozó telepítőcsomagok letöltése és a megfelelő aktiválási kulcsok beszerzése szükséges a rendszer teljes körű működéséhez.
Fontos figyelembe venni, hogy a generatív modellek, mint az IBM Granite 3.0, rendkívül erőforrás-igényesek, és ezért a megfelelő hardveres környezet biztosítása kulcsfontosságú a sikeres telepítéshez és működtetéshez. Az újabb GPU-k, mint a NVIDIA H100, biztosítják a szükséges számítási kapacitást, hogy a modellek gyorsan és hatékonyan működhessenek.
A fejlesztés további részletei és az egyes kódbázisok, mint a Granite-3B, Granite-8B, és a Granite-34B kódbázisok, mind különböző konfigurációkat és fejlesztési lehetőségeket biztosítanak. Ezen kódbázisok fejlesztése során különböző Python könyvtárak és eszközök is elérhetők, amelyek segítségével könnyen integrálhatók az egyes alkalmazásokhoz.
A modell implementálása nemcsak az AI rendszerek számára kínál előnyöket, hanem lehetőséget ad a vállalatoknak is arra, hogy modernizálják és fejlesszék meglévő rendszereiket, ezzel javítva az üzleti folyamatokat, a biztonságot és az adatfeldolgozást.

Deutsch
Francais
Nederlands
Svenska
Norsk
Dansk
Suomi
Espanol
Italiano
Portugues
Magyar
Polski
Cestina
Русский