Quando uma matriz normal AA possui valores próprios múltiplos, correspondentes a vetores próprios não ortogonais, é necessário proceder com um método que permita a ortogonalização desses vetores para garantir que a decomposição espectral da matriz seja válida. Para isso, utilizamos o algoritmo de Gram-Schmidt, uma técnica bem estabelecida na álgebra linear, que permite transformar um conjunto de vetores próprios não ortogonais em um conjunto ortogonal.

Considere que λ\lambda seja um valor próprio de multiplicidade mm. Os valores próprios e seus respectivos vetores próprios podem ser ordenados como λ1,λ2,,λm\lambda_1, \lambda_2, \dots, \lambda_m, com os vetores próprios v1,v2,,vmv_1, v_2, \dots, v_m. Os vetores vm+1,vm+2,,vnv_{m+1}, v_{m+2}, \dots, v_n são ortogonais entre si e também ortogonais aos primeiros mm vetores. O objetivo agora é encontrar um novo conjunto de vetores ortogonais v1,v2,,vmv'_1, v'_2, \dots, v'_m, que sejam ortogonais entre si, e que também sejam vetores próprios da matriz AA. O método de Gram-Schmidt será utilizado para isso.

Começamos com v1=v1v'_1 = v_1, e então, definimos o segundo vetor ortogonal v2=v2+αv1v'_2 = v_2 + \alpha v_1, onde α\alpha é determinado de forma que v2v'_2 seja ortogonal a v1v'_1. A constante α\alpha é dada por:

α=v1,v2v1,v1\alpha = -\frac{\langle v_1, v_2 \rangle}{\langle v_1, v_1 \rangle}

Uma vez obtido v2v'_2, devemos garantir que ele seja também um vetor próprio. Para isso, verificamos que Av2=λv2A v'_2 = \lambda v'_2. O processo é repetido para os próximos vetores próprios, ajustando-os para que sejam ortogonais aos anteriores.

Por exemplo, no caso de uma matriz simétrica AA, como a matriz A=(524222425)A = \begin{pmatrix} 5 & -2 & -4 \\ -2 & 2 & 2 \\ -4 & 2 & 5 \end{pmatrix}, os valores próprios são λ1=1\lambda_1 = 1, λ2=1\lambda_2 = 1 e λ3=10\lambda_3 = 10. O valor próprio λ=1\lambda = 1 é duplo, o que significa que temos dois vetores próprios correspondentes. Porém, esses vetores v1=(122)v_1 = \begin{pmatrix} -1 \\ -2 \\ 2 \end{pmatrix} e v2=(101)v_2 = \begin{pmatrix} -1 \\ 0 \\ -1 \end{pmatrix} não são ortogonais, como pode ser verificado pela sua produto interno v1,v2=1\langle v_1, v_2 \rangle = 1.

Aplicando o algoritmo de Gram-Schmidt, podemos gerar vetores próprios ortogonais, como v1=v1v'_1 = v_1 e v2=v2αv1v'_2 = v_2 - \alpha v_1, onde α=15\alpha = -\frac{1}{5}. A ortogonalização pode ser continuada para os demais vetores próprios, gerando a decomposição espectral desejada.

Após essa ortogonalização, a matriz AA pode ser representada pela sua decomposição espectral como:

A = \lambda_1 v'_1 v'_1^T + \lambda_2 v'_2 v'_2^T + \lambda_3 v_3 v_3^T

Isso resulta em uma matriz diagonalizada, o que facilita o estudo das propriedades espectrais da matriz.

Adicionalmente, é importante destacar que, mesmo quando os vetores próprios de uma matriz não são inicialmente ortogonais, como no exemplo acima, o processo de Gram-Schmidt permite a construção de um conjunto ortogonal de vetores próprios. Este processo é crucial, pois assegura que a matriz seja diagonalizável e que a decomposição espectral seja válida, uma vez que vetores próprios ortogonais são essenciais para a formulação precisa do teorema espectral.

Além disso, a decomposição espectral de uma matriz simétrica resulta em uma matriz ortogonal OO, que pode ser usada para reconstruir a matriz original AA através da expressão A=OΛOTA = O \Lambda O^T, onde Λ\Lambda é a matriz diagonal contendo os valores próprios de AA. Esse tipo de decomposição é amplamente utilizado em várias áreas, incluindo física, engenharia e processamento de sinais, devido à sua capacidade de simplificar a resolução de sistemas lineares e análise de dados.

É importante compreender que, em casos práticos, o processo de ortogonalização pode se tornar computacionalmente intensivo, especialmente quando a matriz em questão é de grande dimensão. Contudo, o uso eficiente de algoritmos numéricos, como o método de Gram-Schmidt modificado ou técnicas baseadas em decomposição QR, pode acelerar significativamente esses cálculos.

O que são bases mutuamente não enviesadas em espaços de Hilbert complexos?

Em um espaço vetorial com produto interno sobre os complexos, chamado espaço de Hilbert, a noção de ortogonalidade é estendida por meio do produto escalar complexo. Quando dois espaços de Hilbert finito-dimensionais são considerados, surgem estruturas geométricas que desempenham papel fundamental em aplicações que vão desde a teoria quântica até o processamento de sinais. Dentre essas estruturas, destacam-se as chamadas bases mutuamente não enviesadas — ou mutually unbiased bases (MUBs) — cuja importância é tanto teórica quanto prática.

Sejam Hd\mathcal{H}_d um espaço de Hilbert de dimensão finita dd sobre C\mathbb{C}, com produto interno definido por v,w=vw\langle v, w \rangle = v^* w, e considere duas bases ortonormais B={e1,,ed}\mathcal{B} = \{e_1, \ldots, e_d\} e B={f1,,fd}\mathcal{B}' = \{f_1, \ldots, f_d\}. Diz-se que essas bases são mutuamente não enviesadas se e somente se a condição

ei,fj=1d|\langle e_i, f_j \rangle| = \frac{1}{\sqrt{d}}