V tomto textu se zabýváme metodami pro obnovení koeficientů funkcí za použití Hilbertových vektorů a vážené `1-minimalizace. Cílem je přiblížit čtenáři způsob, jakým se v oblasti aproximace funkcí využívají techniky s využitím sparsity a vážených penalizací pro efektivní rekonstrukci. K tomu se připojují přístupy, které pracují s Hilbertovými vektory a noise-blind dekodéry, což nám umožňuje lépe zvládat šum v datech a aproximaci funkcí.

Prvním krokem je zavedení vhodné notace. Nechť NNN \in \mathbb{N} a VNV_N je vektorový prostor Hilbertových vektorů délky NN, tedy v=(v1,v2,...,vN)v = (v_1, v_2, ..., v_N), kde každý viVv_i \in V. Poté zavádíme váhy w=(w1,w2,...,wN)w = (w_1, w_2, ..., w_N), kde w>0w > 0 a definujeme vážený prostor wp(F,V)\ell^p_{w}(\mathcal{F}, V), pro 0<p20 < p \leq 2, jako množinu sekvencí v=(vα)αFv = (v_{\alpha})_{\alpha \in \mathcal{F}}, pro které platí:

vw,p=(αFwαvαp)1/p<.\|v\|_{w, p} = \left( \sum_{\alpha \in \mathcal{F}} w_{\alpha} \|v_{\alpha}\|^p \right)^{1/p} < \infty.

Tento vážený prostor se liší od neprovázaného prostoru 2\ell^2, ve kterém se sice také provádí optimalizace, ale bez zavedení vážených penalizací pro vybrané podmnožiny. Na základě této notace zavádíme zjednodušenou formulaci aproximace koeficientů funkce pomocí truncované expanze. Nechť fL2(U,V)f \in L^2(\mathcal{U}, V) je funkce definovaná na nějakém prostoru U\mathcal{U}, a její aproximační koeficienty v prostoru VNV_N jsou získány truncovanou expanzí:

fF=αFcαϕα.f_{\mathcal{F}} = \sum_{\alpha \in \mathcal{F}} c_{\alpha} \phi_{\alpha}.

Tímto způsobem získáváme konečnou množinu koeficientů c=(cα)αFc = (c_{\alpha})_{\alpha \in \mathcal{F}}, která je reprezentována v Hilbertově prostoru VNV_N. Cílem je v tomto případě efektivně aproximovat tyto koeficienty.

Dalším krokem je rekonstrukce těchto koeficientů na základě měření, která jsou ovlivněna šumem. Pokud máme měření y1,y2,...,ymUy_1, y_2, ..., y_m \in \mathcal{U}, definujeme normalizovanou měřicí matici AA a vektor chyby ee, kde AA je maticí měření a ee je vektor chyby způsobený jak šumem v datech, tak zjednodušením expanze. Tímto způsobem lze rekonstrukci koeficientů vyjádřit jako řešení lineárního systému s šumem:

AcF+e=b,A c_{\mathcal{F}} + e = b,

kde bb je měřený vektor a ee zahrnuje jak šum v měření, tak chybu vzniklou truncováním. Tento systém je následně vyřešen pomocí optimalizačního problému.

Pro řešení tohoto problému používáme metodu známou jako vážená Square-Root LASSO (SR-LASSO) optimalizace, která se formulovaná jako:

minz(λz1,w+Azb22),\min_z \left( \lambda \|z\|_{1, w} + \|A z - b\|_2^2 \right),

kde λ\lambda je ladicí hyperparametr a ww je váhový vektor, který podporuje strukturu sparsity v koeficientech cFc_{\mathcal{F}}. Tato metoda je výhodná, protože optimální hodnota hyperparametru λ\lambda nezávisí na velikosti šumu, což usnadňuje její použití v praktických aplikacích.

Další možností by byla aplikace metody na základě basis pursuit nebo neomezené LASSO formulace. Nicméně SR-LASSO je upřednostňováno, protože jeho hyperparametr nezávisí na konkrétních vlastnostech šumu, což je v praxi velmi výhodné.

Při práci s těmito váhami je důležité správně zvolit váhovou funkci. Na základě teorií [2,7,37] je dobrým výběrem intrinsic weight funkcí, která podporuje strukturu nižších a kotvených podmnožin. Pro Chebyshevovy a Legendreovy polynomy jsou váhy explicitně definovány a používají se při výpočtu koeficientů.

Pokud jde o samotnou rekonstrukci, problémy spojené s diskrétním výběrem koeficientů vedou k fyzické chybě diskrétnosti. Tato chyba je důsledkem toho, že koeficienty, které jsou skutečně elementy v prostoru VV, jsou v praxi aproximovány prvky v aproximovaném prostoru VhV_h, což přináší dodatečné chyby.

Pokud bychom se rozhodli přeformulovat tento problém jako maticový problém, je nezbytné zahrnout vhodné normy a prostorové mapy, jak je uvedeno v předchozích teoremech. To nám umožňuje analyzovat výsledky v maticovém prostoru CN×K\mathbb{C}^{N \times K}, kde KK je dimenze aproximovaného prostoru VhV_h. Tento přístup nám pomáhá lépe pochopit vliv diskrétních aproximací na výsledky rekonstrukce.

Tato metoda, i když je technicky náročná, poskytuje silný nástroj pro obnovu koeficientů v přítomnosti šumu a jiných praktických problémů, které jsou běžně přítomny ve výpočetní matematice a teorii aproximace funkcí. Díky využití vážených `1-minimalizací, Hilbertových vektorů a noise-blind dekodérů se tento přístup ukazuje jako robustní a efektivní při rekonstrukci a aproximaci složitých funkcí.

Jak optimalizace vlivu restartovaných primal-dual iterací ovlivňuje numerické výsledky?

Při řešení složitých úloh numerické matematiky je zásadní optimalizace algoritmů, která minimalizuje chyby a urychluje konvergenční proces. V této kapitole se zaměříme na výsledek experimentů, ve kterých jsme použili primal-dual iterace a zkoumali vliv restartu těchto iterací na celkovou přesnost a rychlost výpočtu.

V každém experimentu jsme nastavili úroveň kvadraturní metody na co nejvyšší hodnotu, jak to umožňovaly dostupné výpočetní prostředky, tedy čas a paměť. Zvolili jsme metodu konečných prvků (FEM), jak je implementována v Dolfinu v rámci Python knihovny FEniCS, což nám umožnilo pracovat s funkcemi hodnotami v Hilbertově prostoru, konkrétně pro funkce f3 a f4. Vytvořili jsme pravidelnou triangulaci Th oblasti D, která je složená z trojúhelníků o rovnoměrném průměru. Předpokládáme, že použijeme konformní diskrétnizaci, což znamená, že získáme konečně dimenzionální podprostor Vh v rámci Hilbertova prostoru.

Discretizace byla provedena na základě třídy elementů Lagrange, kde jsme použili základní prvek ¹' K iºi řádu D1 (k = 1). Při vytváření sítě jsme použili metodu UnitSquareMesh s 33 uzly na každé straně, což vedlo k vytvoření sítě s 1089 uzly, 2048 elementy a velikostí sítě h = 2/32.

Základní výzvou při výpočtu chyb bylo to, že explicitní formy funkcí f3 a f4 nejsou k dispozici, a proto bylo nutné pro výpočet relativní chyby nejprve získat referenční řešení. Tento úkol jsme zvládli pomocí diskrétnizace, která je dostatečně jemná, aby poskytla relevantní výsledky bez nutnosti dodatečného výpočtu fyzikálních chyb diskrétnizace.

Ve všech experimentech jsme porovnávali dvě varianty primal-dual iterace: standardní a restartovanou verzi, přičemž experimenty ukázaly, že restartovaná iterace poskytuje výhodu v podobě rychlého zlepšení přesnosti. To bylo obzvlášť patrné u funkcí f1 a f3, které jsou dobře aproximovatelné polynomy. V těchto případech se chyba s restartovanou metodou velmi rychle zmenšovala, což vedlo k dosažení relativní chyby nižší než 10⁻⁶ za přibližně 500 iterací. Naproti tomu v případě standardní iterace bylo dosažení takto nízké chyby mnohem pomalejší a vyžadovalo více než 1000 iterací.

Významným zjištěním z těchto experimentů je, že výkon restartované primal-dual iterace je poměrně necitlivý na hodnotu tolerančního parametru 0. I když naše teoretické výsledky ukazují, že konvergence bude exponenciální pouze při nastavování 0 na hodnotu menší než nějaký horní limit chyby, v praxi nebyl tento parametr až tak důležitý. Testovali jsme různé hodnoty 0 (10⁻⁴; 10⁻⁶; 10⁻⁸; 10⁻¹⁰), přičemž výsledky byly téměř totožné a křivky experimentů se překrývaly, zejména při restartovaných iteracích. To naznačuje, že praktická implementace algoritmu je relativně robustní vůči nastavení tohoto parametru.

Dalším pozoruhodným aspektem experimentů je pozorovaná shoda mezi teoretickým rychlým poklesem chyby při restartovaných iteracích a reálným chováním algoritmu. Tento pokles odpovídal teoretickým předpovědím o exponenciálním zlepšení, což bylo ve všech experimentech jasně patrné.

V praxi se tedy ukazuje, že restartovaná primal-dual iterace přináší významná vylepšení v rychlosti konvergence a v dosažení požadované přesnosti při menší potřebě iterací. Tento přístup je nejen efektivní, ale také ukazuje na schopnost algoritmu dobře fungovat i při širokém spektru nastavení tolerančních parametrů.

Zajímavým faktem, který si čtenář musí uvědomit, je že experimenty byly navrženy tak, aby se odstranil vliv fyzikálních chyb diskrétnizace, což je v některých případech běžné, ale v tomto kontextu nebylo nutné provádět takovou další náročnou výpočtovou práci. Naopak, kladný výsledek dosažený použitím restartovaných iterací ukazuje na silné stránky tohoto přístupu. I přesto, že přesné řešení nebylo k dispozici, experimenty naznačují, že metoda je robustní vůči různým nastavením parametrů a poskytuje spolehlivé výsledky i při vysoce dimenzionálních problémech.