$\newcommand{\mat}[1]{\mathbf{#1}}$ $\newcommand{\fmat}[1]{\tilde{\mat{#1}}}$ $\newcommand{\ffmat}[1]{\check{\mat{#1}}}$ $\newcommand{\fffmat}[1]{\check{\tilde{\mat{#1}}}}$ $\newcommand{\f}[1]{\tilde{#1}}$ $\newcommand{\ff}[1]{\check{#1}}$ $\newcommand{\fff}[1]{\check{\tilde{#1}}}$ $\newcommand{\t}{\mathrm{T}}$ $\newcommand{\reels}{\mathbb{R}}$ $\newcommand{\dif}{\mathrm{d}}$ $\newcommand{\eps}{\varepsilon}$ $\newcommand{\ka}{\kappa}$ $\newcommand{\xy}{\mathbin{/\mkern-4mu/}}$ $\renewcommand{\ge}{\geqslant}$ $\renewcommand{\le}{\leqslant}$ $\DeclareMathOperator{\tr}{tr}$ $\DeclareMathOperator{\diag}{diag}$ $\DeclareMathOperator{\re}{Re}$ $\DeclareMathOperator{\im}{Im}$ $\DeclareMathOperator{\atan}{arctg}$

Décomposition polaire des matrices
Version préliminaire

Nous introduisons ici la décomposition polaire des matrices, qui est un outil très puissant pour l'étude des matrices de Jones et de Mueller.

1. Rappel sur la diagonalisation des matrices

On dit qu'une matrice $\mat A$ n×n est diagonalisable s'il existe une matrice inversible $\mat M$ telle que $$\mat A = \mat M \diag(\lambda_1, \cdots, \lambda_n) \mat M^{-1}. \tag 1$$ La condition nécessaire et suffisante pour qu'une matrice $\mat A$ soit diagonalisable est qu'elle ait n vecteurs propres linéairement indépendants $\mat v_i$. On peut alors prendre pour $\mat M$ la matrice qui a les $\mat v_i$ comme colonnes, les $\lambda_i$ dans la formule (1) étant les valeurs propres correspondantes.

Matrices particulières

Une matrice réelle $\mat A$ est symétrique si $\mat A^\t = \mat A$ et orthogonale si $\mat A^\t = \mat A^{-1}$. Tout matrice réelle symétrique est diagonalisable, ses valeurs propres sont réelles et il est possible de choisir les vecteurs propres de telle manière que la matrice $\mat M$ soit orthogonale.

Une matrice complexe $\mat A$ est normale si elle commute avec son adjointe. Comme cas particulier, on retrouve les matrices hermitiennes ($\mat A^\dagger = \mat A$) et les matrices unitaires ($\mat A^\dagger = \mat A^{-1}$). Tout matrice normale est diagonalisable et il est possible de choisir les vecteurs propres de telle manière que la matrice $\mat M$ soit unitaire¹. Si la matrice est hermitienne, ses valeurs propres sont réelles ; si elle est unitaire, les valeurs propres sont de module un².

Une matrice symétrique $\mat A$ est semi-définie positive si

$$\forall \mat x \in \mathbb{R}^n,~ \mat x^\t \mat A \mat x \ge 0.$$ Similairement une matrice hermitienne $\mat A$ est semi-définie positive si $$\forall \mat x \in \mathbb{C}^n,~ \mat x^\dagger \mat A \mat x \ge 0.$$ Une matrice symétrique ou hermitienne est semi-définie positive si et seulement si ses valeurs propres sont non négatives.

Fonctions de matrices

Soit $f$ une fonction quelconque et soit $\mat A$ une matrice diagonalisable dont toutes les valeurs propres sont dans le domaine de $f$. On peut définire la matrice $f(\mat A)$ par la formule $$f(\mat A) = \mat M \diag(f(\lambda_1), \cdots, f(\lambda_n)) \mat M^{-1}. \tag 2$$ En particulier, si une matrice est semi-définie positive, on peut définir sa racine par $$\mat A^{1/2} = \mat M \diag(\lambda_1^{1/2}, \cdots, \lambda_n^{1/2}) \mat M^{-1}. \tag 3$$ On vérifie qu'on a bien $$\mat A^{1/2} \mat A^{1/2} = \mat A.$$

______________________________________________________________________________

¹ Inversément, si une matrice $\mat A$ s'écrit sous la forme (1) où $\mat M$ est unitaire, alors $\mat A$ est normale.

² Et vice versa. Si une matrice normale a toutes ses valeurs propres réelles, elle est hermitienne. Si toutes ses valeurs propres sont de module un, elle est unitaire.

2. Décomposition polaire des matrices

La décomposition polaire des matrices généralise l'expres­sion des nombres complexes sous forme polaire. Elle consiste à décomposer une matrice complexe en un produit d'une matrice semi-définie positive et une matrice

unitaire.

La décomposition polaire peut aussi se pratiquer sur des matrices réelles. La matrice unitaire est alors remplacée par une matrice orthogonale.

Matrices normales

Soit $\mat A$ une matrice normale. On peut l'écrire sous la forme (1) : $$\mat A = \mat M \diag(\lambda_1, \cdots, \lambda_n) \mat M^{-1}$$ où $\mat M$ est unitaire. Exprimons chacune des valeurs propres sous forme polaire³ : $$\lambda_k = r_k e^{i \theta_k} \mkern 2mu ;$$ on constate que si on définit

$$\mat H = \mat M \diag(r_1, \cdots, r_n) \mat M^{-1}$$ et $$\mat U = \mat M \diag(e^{i \theta_1}, \cdots, e^{i \theta_n}) \mat M^{-1},$$ les matrices $\mat H$ et $\mat U$ sont respectivement semi-définie positive et unitaire. On a bien la décomposition désirée : $$\mat A = \mat H \mat U = \mat U \mat H. \tag 4$$

Matrices inversibles

Soit maintenant $\mat A$ une matrice inversible (mais pas nécesairement diagonalisable). On veut l'écrire sous la forme $$\mat A = \mat H \mat U \tag 5$$ où $\mat H$ est définie positive et $\mat U$ unitaire. On note que dans ce cas on doit avoir $$\mat A \mat A^\dagger = \mat H \mat U \mat U^\dagger \mat H = \mat H^2$$ On vérifie facilement que $\mat A \mat A^\dagger$ est hermitienne semi-définie positive et inversible. Il en sera de même pour $$\mat H = (\mat A \mat A^\dagger)^{1/2} \implies \mat H^{-1} = (\mat A \mat A^\dagger)^{-1/2}. \tag 6$$ Il reste à vérifier que

$$\mat H^{-1} \mat A = \mat U$$ est bien unitaire. De fait, $$\begin{split} \mat U \mat U^\dagger & = \mat H^{-1} \mat A \mat A^\dagger \mat H^{-1} \\ & = (\mat A \mat A^\dagger)^{-1/2} (\mat A \mat A^\dagger) (\mat A \mat A^\dagger)^{-1/2} = \mat I \end{split}$$ À noter que si on veut le produit des deux types de matrices dans l'ordre inverse, il faut maintenant prendre $$\mat A = \mat U \mat H', \tag 7$$ où4 $$\mat H' = \mat U^\dagger \mat H \mat U = (\mat A^\dagger \mat A)^{1/2} \tag 8$$ est en général différent de $\mat H$.

Matrices singulières

On peut aussi faire la décomposition polaire des matrices singulières. Le processus est plus compliqué et la matrice unitaire $\mat U$ n'est pas unique comme dans le cas inversible.

Matrices réelles

On peut aussi appliquer le processus aux matrices réelles pour les mettre sous la forme $$\mat A = \mat H \mat U = \mat U \mat H', \tag 9$$ où

$$\begin{array} {cc} \mat H = (\mat A \mat A^\dagger)^{1/2}, & \mat H' = (\mat A^\dagger \mat A)^{1/2} \end{array} \tag {10}$$ sont des matrices symétriques semi-définies positives et où $\mat U$ est maintenant une matrice orthogonale.

______________________________________________________________________________

³ Si $\lambda_k=0$, on prend $r_k=0$ et $\theta_k$ est arbitraire. Le choix de la matrice unitaire n'est pas unique lorsque la matrice à décomposer est singulière. Ceci en est un exemple.

4 Pour les matrices normales, on a $\mat A \mat A^\dagger=\mat A^\dagger \mat A$ et donc $\mat H = \mat H'$.

3. Application aux matrices de Jones

Soit $\mat J$ la matrice de Jones d'un élément optique non dépolarisant. On peut en faire la décomposition polaire pour obtenir $$\mat J = \mat H \mat U = \mat U \mat H' \tag {11}$$ où $\mat U$ est unitaire, $\mat H$ et $\mat H'$ hermitiennes définies positives.

On définit les éléments optiques particuliers suivants :

  • Un élément optique dont la matrice de Jones est unitaire est appelé un retardeur.
  • Un élément optique dont la matrice de Jones est définie positive est appelé un diatténuateur.

Ils sont étudiés plus en détail à la page suivante.

Il résulte de (11) que tout élément optique non dépolarisant est équivalent à un retardeur et un diatténuateur en cascade, dans un ordre ou l'autre.

4. Compléments, notes et références

Accueil