Technopedia Center
PMB University Brochure
Faculty of Engineering and Computer Science
S1 Informatics S1 Information Systems S1 Information Technology S1 Computer Engineering S1 Electrical Engineering S1 Civil Engineering

faculty of Economics and Business
S1 Management S1 Accountancy

Faculty of Letters and Educational Sciences
S1 English literature S1 English language education S1 Mathematics education S1 Sports Education
  • Registerasi
  • Brosur UTI
  • Kip Scholarship Information
  • Performance
  1. Weltenzyklopädie
  2. Diagonalisation — Wikipédia
Diagonalisation — Wikipédia 👆 Click Here! Read More..
Un article de Wikipédia, l'encyclopédie libre.
(Redirigé depuis Base propre)
Page d’aide sur l’homonymie

Ne doit pas être confondu avec argument diagonal.

En mathématiques, la diagonalisation est un procédé d'algèbre linéaire qui permet de simplifier la description de certains endomorphismes d'un espace vectoriel, en particulier de certaines matrices carrées. Elle consiste à rechercher et expliciter une base de l'espace vectoriel constituée de vecteurs propres, lorsqu'il en existe une. En dimension finie, la diagonalisation revient en effet à décrire cet endomorphisme à l'aide d'une matrice diagonale.

Ce procédé se ramène donc à une réduction maximale de l'endomorphisme, c'est-à-dire à une décomposition de l'espace vectoriel en une somme directe de droites vectorielles stables par l'endomorphisme. Sur chacune de ces droites, l'endomorphisme se réduit à une homothétie. La diagonalisation d'un endomorphisme permet un calcul rapide et simple de ses puissances et de son exponentielle, ce qui permet d'exprimer numériquement certains systèmes dynamiques linéaires, obtenus par itération ou par des équations différentielles.

Méthode

[modifier | modifier le code]
  • La diagonalisation d'une matrice M demande le plus souvent de déterminer ses valeurs propres et les sous-espaces propres associés ; pour ce faire, il est en général utile de commencer par calculer le polynôme caractéristique de la matrice :
    Pour M ∈ M n ( K ) {\displaystyle M\in M_{n}(K)} {\displaystyle M\in M_{n}(K)}, le polynôme caractéristique est χ M ( X ) = d e t ( X I n − M ) {\displaystyle \chi _{M}(X)={\rm {det}}(XI_{n}-M)} {\displaystyle \chi _{M}(X)={\rm {det}}(XI_{n}-M)}, où X {\displaystyle X} {\displaystyle X} est l'indéterminée et In est la matrice identité de M n ( K ) {\displaystyle M_{n}(K)} {\displaystyle M_{n}(K)}.
    Les valeurs propres λi sont les racines de χ M {\displaystyle \chi _{M}} {\displaystyle \chi _{M}}, il y a donc au plus n valeurs propres de multiplicité mi.
    On détermine ensuite, pour chaque valeur propre, le sous-espace propre qui lui est associé :
    E λ i = K e r ( M − λ i I n ) . {\displaystyle E_{\lambda _{i}}={\rm {Ker}}(M-\lambda _{i}I_{n}).} {\displaystyle E_{\lambda _{i}}={\rm {Ker}}(M-\lambda _{i}I_{n}).}
    La matrice n'est diagonalisable que si la dimension de chaque sous-espace propre Eλi est égale à la multiplicité mi de la valeur propre λi, ce qui signifie que pour chaque E λ i {\textstyle E_{\lambda _{i}}} {\textstyle E_{\lambda _{i}}} on a une base de mi vecteurs propres que l'on note Xi,j, 1 ≤ j ≤ mi.
    Alors il existe une matrice inversible U telle que U−1MU soit égale à une matrice diagonale D (semblable à M par définition) dont les coefficients diagonaux sont les λi répétés mi fois et U est la matrice dont les colonnes sont les vecteurs Xi,j (l'ordre n'a pas d'importance, mais si on a le vecteur Xi,j sur la k-ième colonne de U, alors on a la valeur propre λi sur la k-ième colonne de D).
  • Un endomorphisme u qui n'a qu'un nombre fini de valeurs propres (ce qui est toujours le cas en dimension finie) est diagonalisable si et seulement s'il est annulé par un polynôme scindé et à racines simples. De plus, les projecteurs sur les sous-espaces propres s'expriment alors comme des polynômes en u (voir Lemme des noyaux).

Exemples

[modifier | modifier le code]

Premier exemple

[modifier | modifier le code]

On considère la matrice :

A = ( 1 2 0 0 3 0 2 − 4 2 ) . {\displaystyle A={\begin{pmatrix}1&2&0\\0&3&0\\2&-4&2\end{pmatrix}}.} {\displaystyle A={\begin{pmatrix}1&2&0\\0&3&0\\2&-4&2\end{pmatrix}}.}

Cette matrice admet comme valeurs propres :

λ 1 = 3 , λ 2 = 2 , λ 3 = 1. {\displaystyle \lambda _{1}=3,\quad \lambda _{2}=2,\quad \lambda _{3}=1.} {\displaystyle \lambda _{1}=3,\quad \lambda _{2}=2,\quad \lambda _{3}=1.}

Ainsi A qui est de taille 3, a 3 valeurs propres distinctes, donc est diagonalisable.

Si on veut diagonaliser A, il faut déterminer les vecteurs propres correspondants. Il y a par exemple :

v 1 = ( 1 1 − 2 ) , v 2 = ( 0 0 1 ) , v 3 = ( 1 0 − 2 ) . {\displaystyle v_{1}={\begin{pmatrix}1\\1\\-2\end{pmatrix}},\quad v_{2}={\begin{pmatrix}0\\0\\1\end{pmatrix}},\quad v_{3}={\begin{pmatrix}1\\0\\-2\end{pmatrix}}.} {\displaystyle v_{1}={\begin{pmatrix}1\\1\\-2\end{pmatrix}},\quad v_{2}={\begin{pmatrix}0\\0\\1\end{pmatrix}},\quad v_{3}={\begin{pmatrix}1\\0\\-2\end{pmatrix}}.}

On vérifie facilement que A v k = λ k v k {\displaystyle Av_{k}=\lambda _{k}v_{k}} {\displaystyle Av_{k}=\lambda _{k}v_{k}}.

Maintenant soit P la matrice ayant ces vecteurs propres comme colonnes :

P = ( 1 0 1 1 0 0 − 2 1 − 2 ) . {\displaystyle P={\begin{pmatrix}1&0&1\\1&0&0\\-2&1&-2\end{pmatrix}}.} {\displaystyle P={\begin{pmatrix}1&0&1\\1&0&0\\-2&1&-2\end{pmatrix}}.}

Alors « P diagonalise A », comme le montre un simple calcul :

P − 1 A P = ( 0 1 0 2 0 1 1 − 1 0 ) ( 1 2 0 0 3 0 2 − 4 2 ) ( 1 0 1 1 0 0 − 2 1 − 2 ) = ( 3 0 0 0 2 0 0 0 1 ) . {\displaystyle P^{-1}AP={\begin{pmatrix}0&1&0\\2&0&1\\1&-1&0\end{pmatrix}}{\begin{pmatrix}1&2&0\\0&3&0\\2&-4&2\end{pmatrix}}{\begin{pmatrix}1&0&1\\1&0&0\\-2&1&-2\end{pmatrix}}={\begin{pmatrix}3&0&0\\0&2&0\\0&0&1\end{pmatrix}}.} {\displaystyle P^{-1}AP={\begin{pmatrix}0&1&0\\2&0&1\\1&-1&0\end{pmatrix}}{\begin{pmatrix}1&2&0\\0&3&0\\2&-4&2\end{pmatrix}}{\begin{pmatrix}1&0&1\\1&0&0\\-2&1&-2\end{pmatrix}}={\begin{pmatrix}3&0&0\\0&2&0\\0&0&1\end{pmatrix}}.}

On peut remarquer que les valeurs propres λk apparaissent sur la diagonale de la matrice dans le même ordre que celui dans lequel les colonnes propres ont été placées pour former P.

Deuxième exemple

[modifier | modifier le code]

Soit A = ( 0 3 − 1 2 − 1 1 0 0 2 ) ∈ M 3 ( R ) {\displaystyle A={\begin{pmatrix}0&3&-1\\2&-1&1\\0&0&2\end{pmatrix}}\in M_{3}(\mathbb {R} )} {\displaystyle A={\begin{pmatrix}0&3&-1\\2&-1&1\\0&0&2\end{pmatrix}}\in M_{3}(\mathbb {R} )} Le polynôme caractéristique est :

χ A ( T ) = det ⁡ ( T I 3 − A ) = | T − 3 1 − 2 T + 1 − 1 0 0 T − 2 | = ( T − 2 ) 2 ( T + 3 ) {\displaystyle \chi _{A}(T)=\operatorname {det} (TI_{3}-A)={\begin{vmatrix}T&-3&1\\-2&T+1&-1\\0&0&T-2\end{vmatrix}}=(T-2)^{2}(T+3)} {\displaystyle \chi _{A}(T)=\operatorname {det} (TI_{3}-A)={\begin{vmatrix}T&-3&1\\-2&T+1&-1\\0&0&T-2\end{vmatrix}}=(T-2)^{2}(T+3)} (voir le calcul d'un déterminant)

Donc les valeurs propres sont :

  • 2 de multiplicité 2,
  • –3 de multiplicité 1.
Calcul des sous-espaces propres

On calcule d'abord E2, ce qui revient à chercher les vecteurs X = ( x 1 x 2 x 3 ) {\displaystyle X={\begin{pmatrix}x_{1}\\x_{2}\\x_{3}\end{pmatrix}}} {\displaystyle X={\begin{pmatrix}x_{1}\\x_{2}\\x_{3}\end{pmatrix}}} tels que : ( A − 2 I 3 ) X = 0 {\textstyle (A-2I_{3})X=0} {\textstyle (A-2I_{3})X=0}

Or :

( A − 2 I 3 ) X = 0 ⇔ ( − 2 3 − 1 2 − 3 1 0 0 0 ) ( x 1 x 2 x 3 ) = 0 ⇔ − 2 x 1 + 3 x 2 − x 3 = 0 {\displaystyle (A-2I_{3})X=0\Leftrightarrow {\begin{pmatrix}-2&3&-1\\2&-3&1\\0&0&0\end{pmatrix}}{\begin{pmatrix}x_{1}\\x_{2}\\x_{3}\end{pmatrix}}=0\Leftrightarrow -2x_{1}+3x_{2}-x_{3}=0} {\displaystyle (A-2I_{3})X=0\Leftrightarrow {\begin{pmatrix}-2&3&-1\\2&-3&1\\0&0&0\end{pmatrix}}{\begin{pmatrix}x_{1}\\x_{2}\\x_{3}\end{pmatrix}}=0\Leftrightarrow -2x_{1}+3x_{2}-x_{3}=0}

Donc E 2 = Vect ⁡ { ( 3 2 0 ) , ( 1 0 − 2 ) } {\displaystyle E_{2}=\operatorname {Vect} \left\{{\begin{pmatrix}3\\2\\0\end{pmatrix}},{\begin{pmatrix}1\\0\\-2\end{pmatrix}}\right\}} {\displaystyle E_{2}=\operatorname {Vect} \left\{{\begin{pmatrix}3\\2\\0\end{pmatrix}},{\begin{pmatrix}1\\0\\-2\end{pmatrix}}\right\}}

On procède de même pour E–3 et l'on obtient :

E − 3 = Vect ⁡ { ( 1 − 1 0 ) } {\displaystyle E_{-3}=\operatorname {Vect} \left\{{\begin{pmatrix}1\\-1\\0\end{pmatrix}}\right\}} {\displaystyle E_{-3}=\operatorname {Vect} \left\{{\begin{pmatrix}1\\-1\\0\end{pmatrix}}\right\}}

On a bien : dim ⁡ ( E 2 ) = 2 {\displaystyle \operatorname {dim} (E_{2})=2\,} {\displaystyle \operatorname {dim} (E_{2})=2\,} et dim ⁡ ( E − 3 ) = 1 {\displaystyle \operatorname {dim} (E_{-3})=1\,} {\displaystyle \operatorname {dim} (E_{-3})=1\,}, donc cette matrice est diagonalisable.

Une diagonalisation possible est :

B = U − 1 A U = ( 2 0 0 0 2 0 0 0 − 3 ) {\displaystyle B=U^{-1}AU={\begin{pmatrix}2&0&0\\0&2&0\\0&0&{-3}\end{pmatrix}}} {\displaystyle B=U^{-1}AU={\begin{pmatrix}2&0&0\\0&2&0\\0&0&{-3}\end{pmatrix}}}, avec U = ( 3 1 1 2 0 − 1 0 − 2 0 ) . {\displaystyle U={\begin{pmatrix}3&1&1\\2&0&-1\\0&-2&0\end{pmatrix}}.} {\displaystyle U={\begin{pmatrix}3&1&1\\2&0&-1\\0&-2&0\end{pmatrix}}.}

Projecteur

[modifier | modifier le code]

Soit (en dimension quelconque) p un projecteur, c'est-à-dire un endomorphisme idempotent : p2 = p. Il est annulé par le polynôme X2 – X = (X – 1)X, qui est scindé et à racines simples. Il est donc diagonalisable, de valeurs propres 1 et 0. Les projecteurs sur les deux sous-espaces propres correspondants (supplémentaires l'un de l'autre) sont p et id – p. Si l'espace est normé (ou plus généralement si c'est un espace vectoriel topologique) et si p est continu, ces deux sous-espaces sont donc même supplémentaires topologiques.

Symétrie

[modifier | modifier le code]

Toujours en dimension quelconque, soit s une symétrie, c'est-à-dire un endomorphisme involutif : s2 = id. Il est annulé par le polynôme X2 – 1 = (X – 1)(X + 1) qui est scindé, et à racines simples dès que le corps des scalaires est de caractéristique différente de 2. Il est donc dans ce cas diagonalisable, ses deux sous-espaces propres (pour les valeurs propres 1 et –1) étant d'ailleurs ceux (pour les valeurs propres 1 et 0) du projecteur p = (s + id)/2.

Par exemple sur l'espace ℒ(H) des opérateurs bornés sur un espace de Hilbert H sur K = ℝ ou ℂ, la symétrie qui à chaque opérateur associe son adjoint est toujours ℝ-linéaire, et diagonalisable en tant que telle : les opérateurs hermitiens et antihermitiens forment deux sous-espaces vectoriels réels supplémentaires (topologiques). (Lorsque H est de dimension finie n sur K, une écriture matricielle montre que leurs dimensions sont égales respectivement à n(n + 1)/2 et n(n – 1)/2 si H est euclidien, et toutes deux égales à n2 si H est hermitien.)

Limites et généralité

[modifier | modifier le code]

Tous les endomorphismes ne sont pas diagonalisables. Cependant :

  • le polynôme caractéristique d'un endomorphisme est scindé si et seulement si son polynôme minimal l'est, et sur un corps algébriquement clos comme ℂ, ils le sont toujours. Dans ce cas, la décomposition de Dunford assure que l'endomorphisme se décompose comme somme d'un endomorphisme diagonalisable et d'un nilpotent qui commutent, ce qui facilite le calcul de ses puissances et ses exponentielles ;
  • dans l'ensemble des matrices carrées de taille fixée à coefficients complexes (qui sont toutes trigonalisables sur ℂ), l'ensemble des matrices diagonalisables est dense (pour la topologie usuelle)[1] ;
  • dans l'ensemble des matrices carrées de taille fixée à coefficients réels trigonalisables sur ℝ (c'est-à-dire dont toutes les valeurs propres — a priori complexes — sont réelles), l'ensemble des matrices diagonalisables est dense[1].

Diagonalisation simultanée

[modifier | modifier le code]

Si une famille ( u i ) i ∈ I {\displaystyle (u_{i})_{i\in I}} {\displaystyle (u_{i})_{i\in I}} d'endomorphismes d'un espace E est simultanément diagonalisable, c'est-à-dire s'il existe une base de E propre pour tous les u i {\displaystyle u_{i}} {\displaystyle u_{i}}, il est clair que les u i {\displaystyle u_{i}} {\displaystyle u_{i}} commutent deux à deux.

On n'a qu'une réciproque partielle : si E est de dimension finie ou si I {\displaystyle I} {\displaystyle I} est fini, toute famille ( u i ) i ∈ I {\displaystyle (u_{i})_{i\in I}} {\displaystyle (u_{i})_{i\in I}} d'endomorphismes diagonalisables de E qui commutent deux à deux est simultanément diagonalisable[2].

Notes et références

[modifier | modifier le code]
  1. ↑ a et b Yoann Gelineau (Université Claude-Bernard Lyon 1), Densité des matrices diagonalisables dans ℳn(ℂ), d'après Rombaldi, Thèmes pour l'agrégation de mathématiques, p. 51.
  2. ↑ Exercices corrigés Diagonalisation et sous-espaces stables sur Wikiversité.

Bibliographie

[modifier | modifier le code]

(en) Richard S. Varga, Matrix Iterative Analysis, Springer, 2010 (ISBN 978-3-64205154-8)

Articles connexes

[modifier | modifier le code]
  • Analyse en composantes principales
  • Matrice nilpotente (pour des exemples de matrices trigonalisables mais non diagonalisables) ; Matrice diagonalisable (dont les matrices simultanément diagonalisables)
  • Réduction de matrice
  • Réduction d'endomorphisme
v · m
Algèbre linéaire générale
  • Vecteur
  • Scalaire
  • Combinaison linéaire
  • Espace vectoriel
  • Matrice
Famille de vecteurs
  • Famille génératrice
  • Famille libre (indépendance linéaire)
  • Base
  • Théorème de la base incomplète
  • Théorème de la dimension pour les espaces vectoriels
  • Rang
  • Colinéarité
Mathématiques
Sous-espace
  • Sous-espace vectoriel
  • Somme de Minkowski
  • Somme directe
  • Sous-espace supplémentaire
  • Dimension
  • Codimension
  • Droite
  • Plan
  • Hyperplan
Morphisme et
notions relatives
  • Application linéaire
  • Noyau
  • Conoyau
  • Lemme des noyaux
  • Pseudo-inverse
  • Théorème de factorisation
  • Théorème du rang
  • Équation linéaire
  • Système d'équations linéaires
  • Élimination de Gauss-Jordan
  • Forme linéaire
  • Espace dual
  • Orthogonalité
  • Base duale
  • Endomorphisme linéaire
  • Valeur propre, vecteur propre et espace propre
  • Projecteur
  • Symétrie
  • Matrice diagonalisable
  • Diagonalisation
  • Endomorphisme nilpotent
Dimension finie
  • Espace vectoriel de dimension finie
  • Trace
  • Déterminant
  • Polynôme caractéristique
  • Polynôme d'endomorphisme
  • Théorème de Cayley-Hamilton
  • Polynôme minimal d'un endomorphisme
  • Invariants de similitude
  • Réduction d'endomorphisme
  • Réduction de Jordan
  • Décomposition de Dunford
  • Décomposition de Frobenius
Enrichissements
de structure
  • Norme
  • Produit scalaire
  • Forme quadratique
  • Espace vectoriel topologique
  • Orientation
  • Algèbre sur un corps
  • Algèbre de Lie
  • Complexe différentiel
Développements
  • Théorie des matrices
  • Représentation de groupe
  • Analyse fonctionnelle
  • Algèbre multilinéaire
  • Module sur un anneau
v · m
Matrices
Forme
  • Carrée
  • À bande
  • Triangulaire
  • Diagonale
  • Tridiagonale
  • Élémentaire
  • Échelonnée
  • Creuse
  • Aléatoire
  • Circulante
  • Hankel
  • Toeplitz
  • Vandermonde
  • Hessenberg
Transformée
  • Transposée
  • Conjuguée
  • Adjointe
  • Inverse
  • Comatrice
Relation
  • équivalentes
  • semblables
  • congruentes
Propriété
  • Inversible
  • Diagonalisable
  • Semi-simple
  • Trigonalisable
  • Symétrique
  • Antisymétrique
  • Hermitienne
  • Normale
  • Orthogonale
  • Unitaire
  • Symplectique
  • de Hadamard
  • Autoadjointe positive
  • Définie positive
  • Diagonale dominante
  • Nilpotente
Famille
  • Nulle
  • Unité
  • Identité
  • Vide
  • Cartan
  • Hilbert
  • Mueller
  • Lehmer
  • Pauli
  • Dirac
  • Householder
Associée
  • Permutation
  • Passage
  • Compagnon
  • Sylvester
  • Adjacence
  • Laplacienne
  • Hessienne
  • Jacobienne
  • Génératrice
  • Contrôle
  • Corrélation
  • Gram
  • Variance-covariance
  • Inertie
  • Jones
  • Gains
  • Stochastique
Résultats
Décompositions
  • LU
  • QR
  • Cholesky
  • Schur
  • Polaire
  • Valeurs singulières
  • Diagonalisation
  • Trigonalisation
  • Réduction de Jordan
  • Facteurs invariants
Articles liés
  • CKM
  • Théorie des matrices
  • Algèbre linéaire
  • Algèbre multilinéaire
  • Addition matricielle
  • Palette incluant la multiplication des matrices
  • icône décorative Portail de l’algèbre
Ce document provient de « https://fr.teknopedia.teknokrat.ac.id/w/index.php?title=Diagonalisation&oldid=222651539 ».
Catégories :
  • Méthode mathématique
  • Application linéaire
Catégories cachées :
  • Portail:Algèbre/Articles liés
  • Portail:Sciences/Articles liés
  • Portail:Mathématiques/Articles liés

  • indonesia
  • Polski
  • الرية
  • Deutsch
  • English
  • Español
  • Français
  • Italiano
  • مصر
  • Nederlands
  • 本語
  • Português
  • Sinugboanong Binisaya
  • Svenska
  • Українска
  • Tiếng Việt
  • Winaray
  • 中文
  • Русски
Sunting pranala
Pusat Layanan

UNIVERSITAS TEKNOKRAT INDONESIA | ASEAN's Best Private University
Jl. ZA. Pagar Alam No.9 -11, Labuhan Ratu, Kec. Kedaton, Kota Bandar Lampung, Lampung 35132
Phone: (0721) 702022
Email: pmb@teknokrat.ac.id