V současnosti jsou nákladné černé skříňky (EBP) běžným problémem v moderním inženýrství, kdy simulace nebo experimenty vyžadují značné množství výpočtového času a prostředků. Tradiční optimalizační techniky, jako je inteligence roje nebo evoluční výpočty, se ukázaly jako nevhodné pro dosažení globálního optima pro tyto typy problémů. Důvodem je vysoký náklad na evaluace funkcí a neefektivita těchto metod při hledání globálního optima.

Jednou z nejperspektivnějších metod pro tento typ problémů je surrogate-based global optimization (SBGO), která se zaměřuje na vývoj aproximací objektivních funkcí s cílem minimalizovat potřebu skutečných vyhodnocení těchto funkcí. Tento přístup je v posledních dvaceti letech předmětem intenzivního výzkumu, který se soustředí na optimalizační algoritmy založené na surrogátech a jejich aplikacích v průmyslovém designu.

Tradiční metody surrogátů, jako jsou aproximace na základě metody krigingu nebo radiační základní funkce (RBF), byly již úspěšně aplikovány na různé engineeringové problémy. Problém však stále spočívá v tom, jak efektivně kombinovat různé modely surrogátů a najít nejlepší designová řešení bez zbytečného plýtvání výpočetními zdroji.

Jednou z novějších metod je hybridní surrogátová optimalizace s redukcí prostoru, která kombinuje výhody RBF a krigingu pro nalezení nejvhodnějších oblastí v designovém prostoru. Tato metoda se soustředí na využití dvou různých přístupů k aproximaci objektivní funkce a využívá je k vytvoření dvou subprostorů, které se následně prozkoumávají. Cílem je zaměřit výpočetní úsilí na oblasti, které mají vysoký potenciál pro dosažení globálního optima, a minimalizovat tak náklady na vzorkování.

V této metodě je kladen důraz na použití dvou hlavních surrogate modelů: kriging a RBF. Kriging je statistický nástroj používaný k interpolaci dat a vytváření predikcí na základě omezeného množství vzorků. RBF je metoda, která využívá radiační základní funkce k aproximaci nelineárních vztahů v návrhovém prostoru. Kombinace těchto dvou metod umožňuje zlepšit přesnost predikce a efektivněji se zaměřit na oblasti s potenciálně lepšími výsledky.

Pro efektivní implementaci této metody je třeba provádět prostorovou redukci, což znamená výběr nejlepších vzorků na základě predikcí od obou surrogátů. V tomto procesu jsou identifikovány dvě optimální oblasti, jedna založená na výsledcích krigingu a druhá na RBF. Tímto způsobem se zamezí zbytečnému výpočtovému plýtvání v oblastech, které nevedou k lepšímu řešení, a soustředí se pozornost na ty, které mají nejvyšší potenciál pro dosažení optimálních výsledků.

Jedním z klíčových aspektů této metody je její schopnost vyhnout se lokálním optima, která mohou vést k suboptimálním řešením. Pokud algoritmus narazí na lokální optimum, spustí se speciální strategie, která přesměruje výpočty do oblastí, které byly dosud málo prozkoumány, čímž se maximalizuje šance na nalezení globálního optima.

V rámci optimalizace je také implementována strategie vícestartového vyhledávání, která zajistí, že se nové vzorky vybírají tak, aby se minimalizovala redundance a maximalizovala efektivita optimalizačního procesu. Tento přístup je obzvláště užitečný v případě složitých nelineárních problémů, kde tradiční metody mohou mít problémy s dosažením kvalitních výsledků v přijatelném čase.

Metoda HSOSR, která využívá hybridní přístup a redukci prostoru, byla ověřena na několika inženýrských aplikacích a ukázala se jako efektivní nejen z hlediska výpočetní náročnosti, ale i z hlediska robustnosti a schopnosti nalézt globální optimum i v případě složitých, vícevrstvých optimalizačních problémů.

Pro efektivní využití této metody v praxi je důležité mít na paměti, že výběr správného surrogate modelu (kriging nebo RBF) závisí na konkrétních vlastnostech problému. Kriging je zvláště vhodný pro problémy, kde jsou data silně korelována, zatímco RBF je lepší pro problémy s nelineárními vzory. Kombinace těchto metod umožňuje vyvážený přístup, který využívá silné stránky obou metod a přispívá k dosažení optimálních výsledků.

Jak využít metody náhradních modelů v globální optimalizaci: MGOSIC

V oblasti globální optimalizace bez omezení je nezbytné najít metody, které efektivně vyvažují průzkum a využívání již známých informací. Jednou z moderních metod je algoritmus MGOSIC, který využívá tři náhradní modely k dosažení vysoce efektivní optimalizace v složitých prostorech. Tento algoritmus kombinuje Kriging, radiální bázi funkce (RBF) a kvadratické odpovědní plochy (QRS), přičemž využívá přístup vícebodového vzorkování a dynamického hodnocení bodů s cílem dosažení lepších výsledků ve zjednodušených a plně prozkoumaných oblastech.

Algoritmus MGOSIC vychází z myšlenky, že pro efektivní optimalizaci je třeba zohlednit nejen současný nejlepší výsledek, ale i diverzitu vzorků a schopnost paralelní optimalizace, což je zásadní pro urychlení výpočtů a zlepšení přesnosti. V počáteční fázi je využit optimalizovaný Latin hypercube sampling (OLHS) k výběru počátečních bodů vzorku. Tyto vzorky jsou následně evaluovány a použity k vytvoření tří různých náhradních modelů, které jsou navrženy tak, aby modelovaly komplexní chování drahých funkcí.

Souběžně s tímto procesem je důležité nejen sbírat vzorky z různých oblastí, ale i vyvažovat regiony prozkoumávané globálně a lokálně. MGOSIC tímto způsobem kombinuje silné stránky jednotlivých modelů a eliminuje slabiny, které by jinak vedly k neefektivnímu průzkumu nebo opakovanému výpočtu stejných oblastí. Díky tomu je možné dosáhnout globálního optimálního řešení s minimálním počtem funkcí hodnocení.

Algoritmus zahrnuje několik klíčových kroků. Po začátečním nastavení jsou vzorky zpočátku generovány a uloženy do databáze. Na základě těchto vzorků se následně konstruují tři surrogate modely: Kriging, RBF a QRS. Důležitým aspektem je správná výběr bodů na základě skóre, které odpovídá jejich potenciálnímu přínosu k dalšímu vylepšení optimalizace. Tento přístup umožňuje dosáhnout kvalitních výsledků bez zbytečného výpočtového nákladu.

Přestože MGOSIC představuje efektivní nástroj pro řešení složitých problémů, je zde i několik klíčových výzev, které by si čtenář měl uvědomit při aplikaci těchto metod. Optimální volba parametrů, jako jsou rozsahy pro vyhledávání nebo váhové koeficienty pro subprostory, může výrazně ovlivnit výkon algoritmu. Je rovněž důležité chápat, že algoritmus nejen provádí globální průzkum, ale i lokální exploataci, což může být zvláště užitečné v případě multimodálních problémů, kde je třeba se vyhnout uvíznutí v lokálních minimech.

Tento přístup představuje vysoce flexibilní rámec, který lze aplikovat na různé typy problémů. Kromě toho je třeba si být vědom toho, že paralelní implementace a správná integrace mezi různými modely může výrazně zlepšit celkovou efektivitu optimalizačního procesu.

Kromě samotného výběru vzorků a modelování funkcí by měl čtenář vzít v úvahu i důležitost vhodného nastavení výpočtových kritérií a terminace. Pro dosažení optimálního výsledku musí být nastavena správná stopovací kritéria, jako jsou maximální počty hodnocení funkce (NFE) a dosažení požadované hodnoty cíle. V některých případech může být nutné upravit prostor pro výběr vzorků tak, aby odpovídal specifikám daného problému.

Proč algoritmus KTLBO překonává ostatní metody v obtížné optimalizaci s omezeními?

Při srovnání pokročilých algoritmů pro řešení výpočetně náročných optimalizačních úloh s černou skříňkou, které jsou navíc zatíženy omezeními, vystupuje algoritmus KTLBO jako nejvýznamnější zástupce současného přístupu. Jeho robustní výkonnost se potvrzuje nejen v nízkodimenzionálních případech, ale i v komplexních inženýrských aplikacích, kde dosahuje globálních optim nejen opakovaně, ale i s vysokou přesností.

V kontrastu s tím ConstrLMSRBF trpí významnou nestabilitou. V mnoha případech není schopen ani nalézt přípustná řešení, natož dosáhnout konvergence během 200 funkcí ohodnocení. Je však třeba uznat, že jeho výkonnost je v některých specifických případech (např. g02) lepší než u MSSR díky schopnosti RBF (radiálních bázových funkcí) efektivně pracovat ve vysokých dimenzích. Přesto tato dílčí vítězství nemění celkový obraz – KTLBO konzistentně překonává nejen ConstrLMSRBF, ale i MSSR a SCGOSR, a to jak z hlediska přesnosti výsledků, tak stability napříč opakovanými běhy.

Zásadní síla KTLBO spočívá v jeho schopnosti udržovat rovnováhu mezi globálním průzkumem prostoru řešení a lokální exploatací. I po identifikaci oblasti s globálním optimem algoritmus stále selektivně testuje i vzdálené oblasti, včetně nepřípustných, což zvyšuje pravděpodobnost nalezení alternativních optima nebo ověření globálnosti výsledků. Tato vlastnost je patrná například na problémech G7, G8 a G10, kde byly v počátečních fázích všechny vzorky mimo přípustný prostor, avšak během iterací se objevily platné body díky mechanismu průzkumu prostoru.

V širším srovnání čtyř hlavních algoritmů (KTLBO, TLBO, CMODE a FROFI) je KTLBO zřetelně nejpřesnější a nejspolehlivější, a to i při zvýšeném počtu 500 funkcí ohodnocení. V řadě testovacích případů z CEC2006 – například g01, g04, g06, g07, g08, g09, g12 nebo g18 – dosahuje opakovaně skutečných globálních optim s nulovou směrodatnou odchylkou, což je indikátorem nejen přesnosti, ale i konzistence. CMODE a FROFI naopak často zcela selhávají při nalezení přípustných řešení – například FROFI neobstojí v g01, g10 a g18 vůbec, zatímco CMODE selhává u g18 a vykazuje velmi nízkou spolehlivost v g01 a g07. Také náročnost na výpočetní prostředky je u těchto metod vyšší – vyžadují více funkcí ohodnocení k dosažení akceptovatelných výsledků.

Naopak TLBO, který je blízký předchůdce KTLBO, vykazuje podobnou robustnost, avšak v nižší přesnosti. Přesto jeho výkon překonává CMODE i FROFI a v některých případech je stále konkurenceschopný, zejména v jednodušších případech nebo v úlohách s méně složitými omezeními.

Důležitým aspektem analýzy výkonu je i vizualizace iterativního procesu, která potvrzuje soustředění generovaných bodů do oblastí s vysokou kvalitou řešení, zatímco body z počátečního návrhu experimentu (DoE) často pokrývají široké spektrum, včetně nepřípustných oblastí. Tato strategie ukazuje adaptivní charakter algoritmu, který dokáže zvyšovat hustotu vzorkování v oblastech s větší pravděpodobností optimálních řešení.

Kromě pouhého dosažení cílových hodnot je třeba sledovat i statistické ukazatele, jako je směrodatná odchylka, úspěšnost nalezení přípustného řešení (SR – success rate) a mediánový výkon. Ve většině metrik je KTLBO buď nejvýkonnější, nebo sdílí první místo – například v případech SRD, SCBD, SE nebo TSD dosahuje 100% úspěšnosti s extrémně nízkými odchylkami mezi běhy.

Je však důležité pochopit, že výběr optimalizační metody by neměl být veden jen tabulkovými výsledky. Reálné inženýrské úlohy často obsahují nestandardní omezení, nelinearitu a šum v datech. V těchto případech schopnost algoritmu adaptovat se, testovat i mimo známé oblasti a zároveň udržet stabilitu výpočtu má zásadní význam. Algoritmy jako ConstrLMSRBF mohou vypadat perspektivně na papíře díky své flexibilitě, ale v praxi narážejí na vážná omezení. Naproti tomu přístup, který kombinuje řízený průzkum prostoru, efektivní výběr přípustných bodů a opakovanou validaci výsledků, ukazuje směr budoucího vývoje optimalizačních metod.

Důležitým poznatkem pro čtenáře je pochopení významu globálního a lokálního vyhledávání v rámci algoritmů, které řeší optimalizaci s omezeními. Vysoký výkon KTLBO není výsledkem náhody, ale důsledkem pečlivě nastavené rovnováhy mezi těmito dvěma přístupy. Rovněž by neměly být opomíjeny metriky jako robustnost a schopnost opakovaně najít přípustná řešení – bez těchto kvalit je jakákoli přesnost irelevantní. Uživatelé by se měli zaměřit nejen na výsledné hodnoty, ale i na chování algoritmu během procesu hledání, což je často klíčem k pochopení jeho limitů a možností dalšího zlepšení.