Rozpatrując macierz A o charakterystycznym wielomianie P₅(λ) = (λ₁ − λ)³(λ₂ − λ)², możliwe są różne formy Jordana w zależności od liczby wektorów własnych przypisanych do wartości własnych λ₁ i λ₂. Gdy liczba wektorów własnych odpowiada sumie ich algebraicznych krotności, macierz A jest diagonalizowalna i można ją sprowadzić do formy diagonalnej. Jednak w przypadku, gdy liczba wektorów własnych jest mniejsza niż krotność algebraiczna dla którejś z wartości własnych, konieczne jest zastosowanie uogólnionych wektorów własnych i formy Jordana.

Istota konstrukcji kanonicznej formy Jordana polega na znalezieniu macierzy T, która spełnia warunek podobieństwa: T⁻¹AT = J, gdzie J to macierz w formie Jordana z blokami odpowiadającymi poszczególnym wartościom własnym. Jordanowska forma nie mówi jednak, jak znaleźć tę macierz T — proces ten wymaga znalezienia łańcuchów uogólnionych wektorów własnych.

Jeśli macierz ma pojedynczą wartość własną λ₁ o krotności algebraicznej n, kolumny macierzy T to wektory x₁, x₂, ..., xₙ, gdzie x₁ jest zwykłym wektorem własnym (spełnia (A − λ₁I)x₁ = 0), a kolejne x_k spełniają warunki rekurencyjne: (A − λ₁I)x_k = x_{k−1}. Te wektory x₂, x₃, ..., xₙ nazywamy uogólnionymi wektorami własnymi i mają one przypisaną rangę odpowiadającą liczbie operatorów (A − λ₁I), które trzeba zastosować, by uzyskać zero.

Definicja uogólnionego wektora własnego (GEV) rangi m brzmi: xm jest GEV rangi m, jeśli (A − λ₁I)^m xm = 0, ale (A − λ₁I)^{m−1} xm ≠ 0. Łańcuch taki tworzą wektory {x_m, x_{m−1}, ..., x_1}, gdzie x_j = (A − λ₁I)x_{j+1}. Długość łańcucha to liczba elementów w tym zbiorze.

W praktyce, aby znaleźć macierz T, zaczynamy od obliczenia rangi macierzy (A − λ₁I) i jej kolejnych potęg aż do wykrycia momentu, w którym rank stabilizuje się na wartości n − m₁ (gdzie m₁ to algebraiczna krotność λ₁). Współczynniki N_k obliczamy jako różnicę rang kolejnych potęg operatora i wskazują one liczbę uogólnionych wektorów własnych rangi k, które należy uwzględnić.

Proces znajduje odzwierciedlenie w konkretnych przykładach: dla macierzy z jednym eigenvalue o wysokiej krotności (np. λ=3, m=4) liczba wektorów własnych jest mniejsza niż krotność, co wymusza uwzględnienie uogólnionych wektorów własnych i ich łańcuchów. Dla innych macierzy, posiadających więcej niż jedną wartość własną, procedura jest analogiczna, ale powtarzana dla każdej wartości własnej z osobna.

Ważne jest, że uogólnione wektory własne nie są arbitralne — tworzą one specyficzne łańcuchy, które odzwierciedlają strukturę operatora (A − λI) i pozwalają na pełne odwzorowanie zachowania macierzy w kanonicznej formie Jordana.

Należy także pamiętać, że algebraiczna krotność wartości własnej określa wymiar jej przestrzeni własnej algebraicznej, zaś geometryczna krotność (liczba liniowo niezależnych wektorów własnych) może być mniejsza lub równa tej wartości. W przypadku nierówności, konieczne są uogólnione wektory własne i rozszerzona baza.

Podstawową trudnością w pracy z formą Jordana jest znalezienie właściwych uogólnionych wektorów własnych, co wymaga rozwiązania równań postaci (A − λI)^k x = 0 dla odpowiednich k oraz zapewnienia liniowej niezależności kolejnych łańcuchów.

Zrozumienie tej konstrukcji jest kluczowe nie tylko z punktu widzenia czystej algebry liniowej, ale także w zastosowaniach analizy dynamiki układów liniowych, teorii sterowania czy rozwiązywania układów równań różniczkowych z macierzami o wielokrotnych wartościach własnych. Znajomość mechanizmu uogólnionych wektorów własnych pozwala na pełną charakterystykę operatora oraz na efektywne wykorzystanie kanonicznych reprezentacji macierzy.

Jak rozwiązać układy równań przy użyciu odwrotności ogólnych i najmniejszych kwadratów?

Równanie (7.39) jest określane jako rozkład wartości osobliwych macierzy A. W tym przypadku macierze U i V są macierzami ortogonalnymi, a macierz D jest diagonalną macierzą, w której znajdują się dodatnie wartości osobliwe macierzy A. Rozkład wartości osobliwych stanowi istotne narzędzie w wielu dziedzinach matematyki i inżynierii, zwłaszcza w analizie układów równań liniowych i ich rozwiązywania przy użyciu najmniejszych kwadratów. W tym kontekście należy przyjrzeć się zastosowaniu rozkładu wartości osobliwych do obliczania tzw. rozwiązania najmniejszych kwadratów, które stanowi przybliżenie rozwiązania układów równań, dla których brak jest dokładnego rozwiązania.

Zajmijmy się przykładem. Rozwiązywanie układu równań za pomocą najmniejszych kwadratów jest jednym z podstawowych narzędzi w analizie danych. Przykład 7.10 ilustruje rozwiązanie najmniejszych kwadratów dla układu równań liniowych:

x1+3x2=5x_1 + 3x_2 = 5
x1x2=1x_1 - x_2 = 1
x1+x2=0x_1 + x_2 = 0

Z definicji, możemy zapisać układ równań w postaci macierzowej:

A=(131111),b=(510)A = \begin{pmatrix} 1 & 3 \\ 1 & -1 \\ 1 & 1 \end{pmatrix}, \quad b = \begin{pmatrix} 5 \\ 1 \\ 0 \end{pmatrix}

Aby znaleźć rozwiązanie najmniejszych kwadratów, należy rozwiązać tzw. równanie normalne:

ATAx^=ATbA^T A \hat{x} = A^T b

Obliczenia prowadzą do rozwiązania x^1=1\hat{x}_1 = 1 i x^2=1\hat{x}_2 = 1. To rozwiązanie można interpretować jako liniową regresję najlepiej dopasowaną do danych punktów: (3, 5), (-1, 1), (1, 0). Linie tej postaci y=α+βxy = \alpha + \beta x, gdzie α=1\alpha = 1 i β=1\beta = 1, stanowią rozwiązanie przybliżone układu równań. Geometria rozwiązania pokazuje, że jest to linia najbliższa tym punktom, co przedstawia ilustracja geometryczna w rysunku 7.6.

Chociaż rozwiązanie najmniejszych kwadratów stanowi przybliżenie, daje ono sensowne i praktyczne wyniki, zwłaszcza w sytuacjach, gdy układ równań nie ma dokładnego rozwiązania, np. w przypadku układów nadokreślonych, w których liczba równań jest większa niż liczba niewiadomych.

Przykład ilustruje także jedno z najważniejszych zastosowań metody najmniejszych kwadratów w statystyce i analizie danych – dopasowanie linii prostych do zbioru punktów. Takie podejście ma szerokie zastosowanie w analizie regresji, analizie trendów oraz modelowaniu funkcji w wielu dziedzinach, od ekonomii po inżynierię.

Obok standardowego zastosowania rozkładu wartości osobliwych i rozwiązania najmniejszych kwadratów, istnieją także bardziej złożone przypadki, w których stosuje się odwrotności ogólne (generalized inverses). Odwrotność ogólna macierzy, często używana w kontekście układów równań, jest rozwiązaniem w sytuacjach, gdy macierz A jest osobliwa (czyli nieodwracalna). W takich przypadkach rozwiązanie najmniejszych kwadratów można uzyskać przy użyciu odwrotności ogólnej, co umożliwia obliczenie przybliżonych rozwiązań, nawet jeśli układ równań jest niepełny lub nie ma jednoznacznego rozwiązania.

Zrozumienie mechanizmu odwrotności ogólnych oraz metod najmniejszych kwadratów jest kluczowe dla analizy problemów w teorii równań liniowych, a także w wielu praktycznych zastosowaniach, takich jak rozwiązywanie układów równań w naukach przyrodniczych, inżynierii czy ekonomii. Pozwala to na uzyskanie optymalnych rozwiązań w sytuacjach, gdy dane są niedoskonałe lub układy równań są nadmiernie skomplikowane, a dokładne rozwiązanie nie jest możliwe.

Dodatkowo, warto zauważyć, że metoda najmniejszych kwadratów nie ogranicza się tylko do układów równań liniowych. Istnieje jej rozszerzenie na układy nieliniowe, gdzie rozwiązania są szukane przy pomocy algorytmów numerycznych, takich jak iteracyjne metody optymalizacji.

Zrozumienie tych technik oraz ich zastosowań może okazać się nieocenione, zwłaszcza w kontekście pracy z rzeczywistymi danymi, gdzie często napotykamy na błędy pomiarowe, szumy czy inne zakłócenia, które wymagają zastosowania metod przybliżonych.