Technopedia Center
PMB University Brochure
Faculty of Engineering and Computer Science
S1 Informatics S1 Information Systems S1 Information Technology S1 Computer Engineering S1 Electrical Engineering S1 Civil Engineering

faculty of Economics and Business
S1 Management S1 Accountancy

Faculty of Letters and Educational Sciences
S1 English literature S1 English language education S1 Mathematics education S1 Sports Education
  • Registerasi
  • Brosur UTI
  • Kip Scholarship Information
  • Performance
  1. Weltenzyklopädie
  2. Factorisation de Cholesky — Wikipédia
Factorisation de Cholesky — Wikipédia 👆 Click Here! Read More..
Un article de Wikipédia, l'encyclopédie libre.

La factorisation de Cholesky, nommée d'après André-Louis Cholesky, consiste, pour une matrice symétrique définie positive A, à déterminer une matrice triangulaire inférieure L telle que : A = LLT.

La matrice L est en quelque sorte une « racine carrée » de A. Cette décomposition permet notamment de calculer la matrice inverse A−1, de calculer le déterminant de A (égal au carré du produit des éléments diagonaux de L) ou encore de simuler une loi multinormale. Elle est aussi utilisée en chimie quantique pour accélérer les calculs (voir Décomposition de Cholesky (chimie quantique)).

Exemple

[modifier | modifier le code]

La matrice symétrique A :

( 1 1 1 1 1 5 5 5 1 5 14 14 1 5 14 15 ) {\displaystyle {\begin{pmatrix}1&1&1&1\\1&5&5&5\\1&5&14&14\\1&5&14&15\\\end{pmatrix}}} {\displaystyle {\begin{pmatrix}1&1&1&1\\1&5&5&5\\1&5&14&14\\1&5&14&15\\\end{pmatrix}}}

est égale au produit de la matrice triangulaire L :

( 1 0 0 0 1 2 0 0 1 2 3 0 1 2 3 1 ) {\displaystyle {\begin{pmatrix}1&0&0&0\\1&2&0&0\\1&2&3&0\\1&2&3&1\\\end{pmatrix}}} {\displaystyle {\begin{pmatrix}1&0&0&0\\1&2&0&0\\1&2&3&0\\1&2&3&1\\\end{pmatrix}}}

avec à sa droite sa transposée LT :

( 1 1 1 1 0 2 2 2 0 0 3 3 0 0 0 1 ) {\displaystyle {\begin{pmatrix}1&1&1&1\\0&2&2&2\\0&0&3&3\\0&0&0&1\\\end{pmatrix}}} {\displaystyle {\begin{pmatrix}1&1&1&1\\0&2&2&2\\0&0&3&3\\0&0&0&1\\\end{pmatrix}}}

Théorème

[modifier | modifier le code]

Théorème — Si A est une matrice symétrique définie positive, il existe une matrice réelle triangulaire inférieure L telle que[1]:

A = LLT.

De plus cette décomposition est unique si l'on impose à L d'avoir des coefficients diagonaux strictement positifs.

Démonstration

Notons B = ( e 1 , . . . e n ) {\displaystyle B=(e_{1},...e_{n})} {\displaystyle B=(e_{1},...e_{n})} la base canonique de R n {\displaystyle \mathbb {R} ^{n}} {\displaystyle \mathbb {R} ^{n}}.

A est symétrique définie positive, donc elle représente un certain produit scalaire dans B.

Soit B ′ = ( e 1 ′ , . . . e n ′ ) {\displaystyle B'=(e_{1}',...e_{n}')} {\displaystyle B'=(e_{1}',...e_{n}')} une base orthonormée pour ce produit scalaire. On note P la matrice de passage de B' vers B.

La formule de changement de base pour une application bilinéaire donne A = P T I n P = P T P {\displaystyle A=P^{T}\mathrm {I} _{n}P=P^{T}P} {\displaystyle A=P^{T}\mathrm {I} _{n}P=P^{T}P}

On va chercher à bien choisir B' de sorte que P soit triangulaire supérieure à coefficients diagonaux positifs.

Pour cela, on cherche B' orthonormée telle que :

∀ k ∈ { 1 , . . . , n } , { V e c t ( e 1 , . . . , e k ) = V e c t ( e 1 ′ , . . . , e k ′ ) e k . e k ′ > 0 {\displaystyle \forall k\in \{1,...,n\},{\begin{cases}{\rm {Vect}}(e_{1},...,e_{k})={\rm {Vect}}(e_{1}',...,e_{k}')\\e_{k}.e_{k}'>0\end{cases}}} {\displaystyle \forall k\in \{1,...,n\},{\begin{cases}{\rm {Vect}}(e_{1},...,e_{k})={\rm {Vect}}(e_{1}',...,e_{k}')\\e_{k}.e_{k}'>0\end{cases}}}

L'algorithme de Gram-Schmidt garantit l'existence et l'unicité d'une telle base, d'où l'existence et l'unicité de P. Enfin on pose L = P T {\displaystyle L=P^{T}} {\displaystyle L=P^{T}} dont on déduit la forme voulue.

Algorithme

[modifier | modifier le code]

On cherche la matrice :

L = [ l 11 l 21 l 22 ⋮ ⋮ ⋱ l n 1 l n 2 ⋯ l n n ] {\displaystyle L={\begin{bmatrix}l_{11}\\l_{21}&l_{22}\\\vdots &\vdots &\ddots \\l_{n1}&l_{n2}&\cdots &l_{nn}\end{bmatrix}}} {\displaystyle L={\begin{bmatrix}l_{11}\\l_{21}&l_{22}\\\vdots &\vdots &\ddots \\l_{n1}&l_{n2}&\cdots &l_{nn}\end{bmatrix}}}

De l'égalité A = LLT on déduit :

a i j = ( L L T ) i j = ∑ k = 1 n l i k l j k = ∑ k = 1 min { i , j } l i k l j k , 1 ≤ i , j ≤ n {\displaystyle a_{ij}=\left(LL^{T}\right)_{ij}={\sum _{k=1}^{n}l_{ik}l_{jk}}={\sum _{k=1}^{\min \left\{i,j\right\}}l_{ik}l_{jk}},\;1\leq i,j\leq n} {\displaystyle a_{ij}=\left(LL^{T}\right)_{ij}={\sum _{k=1}^{n}l_{ik}l_{jk}}={\sum _{k=1}^{\min \left\{i,j\right\}}l_{ik}l_{jk}},\;1\leq i,j\leq n}

puisque lpq=0 si 1 ≤ p < q ≤ n.

La matrice A étant symétrique, il suffit que les relations ci-dessus soient vérifiées pour i ≤ j, c'est-à-dire que les éléments lij de la matrice L doivent satisfaire :

a i j = ∑ k = 1 i l i k l j k , 1 ≤ i ≤ j ≤ n {\displaystyle a_{ij}={\sum _{k=1}^{i}l_{ik}l_{jk}},\;1\leq i\leq j\leq n} {\displaystyle a_{ij}={\sum _{k=1}^{i}l_{ik}l_{jk}},\;1\leq i\leq j\leq n}

Pour i = 1, on détermine la première colonne de L :

a 11 = l 11 l 11 {\displaystyle a_{11}=l_{11}l_{11}} {\displaystyle a_{11}=l_{11}l_{11}} d'où l 11 = a 11 {\displaystyle l_{11}={\sqrt {a_{11}}}} {\displaystyle l_{11}={\sqrt {a_{11}}}}
a j 1 = l 11 l j 1 {\displaystyle a_{j1}=l_{11}l_{j1}} {\displaystyle a_{j1}=l_{11}l_{j1}} d'où l j 1 = a j 1 l 11 , 2 ≤ j ≤ n {\displaystyle l_{j1}={\frac {a_{j1}}{l_{11}}},\;\;\;2\leq j\leq n} {\displaystyle l_{j1}={\frac {a_{j1}}{l_{11}}},\;\;\;2\leq j\leq n}

On détermine la i-ème colonne de L 2 ≤ i ≤ n, après avoir calculé les (i – 1) premières colonnes :

a i i = l i 1 l i 1 + … + l i i l i i {\displaystyle a_{ii}=l_{i1}l_{i1}+\ldots +l_{ii}l_{ii}} {\displaystyle a_{ii}=l_{i1}l_{i1}+\ldots +l_{ii}l_{ii}} d'où l i i = a i i − ∑ k = 1 i − 1 l i k 2 {\displaystyle l_{ii}={\sqrt {a_{ii}-{\sum _{k=1}^{i-1}l_{ik}^{2}}}}} {\displaystyle l_{ii}={\sqrt {a_{ii}-{\sum _{k=1}^{i-1}l_{ik}^{2}}}}}
a i j = l i 1 l j 1 + … + l i i l j i {\displaystyle a_{ij}=l_{i1}l_{j1}+\ldots +l_{ii}l_{ji}} {\displaystyle a_{ij}=l_{i1}l_{j1}+\ldots +l_{ii}l_{ji}} d'où l j i = a i j − ∑ k = 1 i − 1 l i k l j k l i i , i + 1 ≤ j ≤ n {\displaystyle l_{ji}={\frac {a_{ij}-{\sum _{k=1}^{i-1}l_{ik}l_{jk}}}{l_{ii}}},\;\;\;i+1\leq j\leq n} {\displaystyle l_{ji}={\frac {a_{ij}-{\sum _{k=1}^{i-1}l_{ik}l_{jk}}}{l_{ii}}},\;\;\;i+1\leq j\leq n}

Il résulte du théorème précédent qu'il est possible de choisir tous les éléments lii > 0 en assurant que toutes les quantités

a 11 , … , a i i − ∑ k = 1 i − 1 l i k 2 , … {\displaystyle a_{11},\ldots ,a_{ii}-{\sum _{k=1}^{i-1}l_{ik}^{2}},\ldots } {\displaystyle a_{11},\ldots ,a_{ii}-{\sum _{k=1}^{i-1}l_{ik}^{2}},\ldots }

sont positives.

Décomposition de Cholesky alternative ou décomposition de Crout

[modifier | modifier le code]

La décomposition de Cholesky alternative permet d'éviter l'utilisation des racines carrées au sein des sommes, source potentielle de problème en calcul numérique. Elle n'impose plus non plus l'obligation que la matrice A soit définie positive et se calcule de la façon suivante[2],[3]:

A = L D L T {\displaystyle A=LDL^{\mathrm {T} }} {\displaystyle A=LDL^{\mathrm {T} }}

où D est une matrice diagonale, et L une matrice triangulaire inférieure avec des 1 sur sa diagonale.

D j j = A j j − ∑ k = 1 j − 1 L j k 2 D k k {\displaystyle D_{jj}=A_{jj}-\sum _{k=1}^{j-1}L_{jk}^{2}D_{kk}} {\displaystyle D_{jj}=A_{jj}-\sum _{k=1}^{j-1}L_{jk}^{2}D_{kk}}
L i j = 1 D j j ( A i j − ∑ k = 1 j − 1 L i k L j k D k k ) , pour  i > j . {\displaystyle L_{ij}={\frac {1}{D_{jj}}}\left(A_{ij}-\sum _{k=1}^{j-1}L_{ik}L_{jk}D_{kk}\right),\qquad {\text{pour }}i>j.} {\displaystyle L_{ij}={\frac {1}{D_{jj}}}\left(A_{ij}-\sum _{k=1}^{j-1}L_{ik}L_{jk}D_{kk}\right),\qquad {\text{pour }}i>j.}

Les remarque suivantes n'ont d'intérêt qu'en mathématique pure, mais pas pour la résolution de système d'équations par la méthode LDLT :

Les factorisations LDLT et LLT (il faut noter que si les noms des méthodes sont la matrice L est différente dans les deux cas) sont liées :

A = L D L T = L D 1 2 D 1 2 L T = L D 1 2 ( D 1 2 ) T L T = L D 1 2 ( L D 1 2 ) T {\displaystyle A=LDL^{\mathrm {T} }=LD^{\frac {1}{2}}D^{\frac {1}{2}}L^{\mathrm {T} }=LD^{\frac {1}{2}}(D^{\frac {1}{2}})^{\mathrm {T} }L^{\mathrm {T} }=LD^{\frac {1}{2}}(LD^{\frac {1}{2}})^{\mathrm {T} }} {\displaystyle A=LDL^{\mathrm {T} }=LD^{\frac {1}{2}}D^{\frac {1}{2}}L^{\mathrm {T} }=LD^{\frac {1}{2}}(D^{\frac {1}{2}})^{\mathrm {T} }L^{\mathrm {T} }=LD^{\frac {1}{2}}(LD^{\frac {1}{2}})^{\mathrm {T} }}

La dernière expression étant le produit d'une matrice triangulaire et de sa transposée, de la même manière que dans la factorisation LLT.

On remarquera que la racine carrée d'une matrice diagonale (ici, D1/2) se calcule trivialement en prenant les racines carrées de chacun de ses éléments.

Résolution d'un système d'équation par la méthode de Cholesky alternative

[modifier | modifier le code]

Soit b = A X {\textstyle b=AX} {\textstyle b=AX} un système d'équation linéaire à matrice symétrique. La méthode de résolution du système se décompose en quatre étapes :

  1. Calcul des éléments des matrice L et D à l'aide des formules de la section précédente
  2. Résolution du système intermédiaire b = L Y ′ {\textstyle b=LY'} {\textstyle b=LY'} (voir méthode LU pour la résolution d'un système d'équation sous forme d'une matrice triangulaire inférieure)
  3. Division des valeurs de Y par les coefficients de D : Y ′ = D Y ⇒ Y = D − 1 Y ′ {\textstyle Y'=DY\Rightarrow Y=D^{-1}Y'} {\textstyle Y'=DY\Rightarrow Y=D^{-1}Y'} (D étant diagonale D − 1 {\textstyle D^{-1}} {\textstyle D^{-1}} contient l'inverse des éléments de la diagonale de D)
  4. Résolution du système intermédiaire Y = L T X {\textstyle Y=L^{T}X} {\textstyle Y=L^{T}X} (voir méthode LU pour la résolution d'un système d'équation sous forme d'une matrice triangulaire supérieure)

Histoire

[modifier | modifier le code]

La décomposition porte le nom d'André-Louis Cholesky un officier et ingénieur français. Elle figure dans le manuscrit intitulé « Sur la résolution numérique des systèmes d'équations linéaires », manuscrit porté en 2005 aux Archives de l'École Polytechnique. Daté du 2 décembre 1910, son contenu n'était auparavant connu que par une publication du commandant Benoît, qui décrivit la méthode de Cholesky en 1924, soit plusieurs années après sa mort[4]. Il est probable que Cholesky ait découvert cette méthode en 1902[4].

La méthode, définie pour un problème de topographie, resta longtemps inconnue des mathématiciens[4]. Elle fut remise en avant par John Todd (en) en 1946 dans son cours d'analyse numérique au King's College de Londres[4].

Cette méthode est aujourd'hui centrale en analyse numérique.

Note

[modifier | modifier le code]
  1. ↑ Xavier Gourdon, Les Maths en tête: Algèbre, page 247
  2. ↑ (en) D. Watkins, Fundamentals of Matrix Computations, John Wiley & Sons, 2002, 84 p. (ISBN 9780471213949, DOI 10.1002/0471249718).
  3. ↑ « Décomposition de Cholesky et de Crout », sur www.bibmath.net (consulté le 21 juillet 2024)
  4. ↑ a b c et d Claude Brezinski et Dominique Tournès, « André–Louis Cholesky (1875-1918), mathématicien, topographe, enseignant et officier », sur Images des maths, 15 juillet 2015.

Voir aussi

[modifier | modifier le code]

Articles connexes

[modifier | modifier le code]
  • Décomposition LU
  • Décomposition QR
  • Racine carrée d'une matrice

Bibliographie

[modifier | modifier le code]

La méthode de Cholesky est essentielle en analyse numérique. Il existe donc une multitude de références, parmi lesquelles :

  • Philippe Ciarlet, Introduction à l'analyse numérique matricielle et à l'optimisation, 1985 (rééd. 2001), éd. Masson, coll. Math. Appl. pour la Maîtrise (ISBN 2-225-68893-1)
  • Patrick Lascaux et Raymond Theodor, Analyse numérique matricielle appliquée à l'art de l'ingénieur - Volume 1 Méthodes directes, Dunod, 2000

Liens externes

[modifier | modifier le code]
  • Sur la résolution numérique des systèmes linéaires, manuscrit de Cholesky en ligne et commenté sur le site BibNum.
v · m
Matrices
Forme
  • Carrée
  • À bande
  • Triangulaire
  • Diagonale
  • Tridiagonale
  • Élémentaire
  • Échelonnée
  • Creuse
  • Aléatoire
  • Circulante
  • Hankel
  • Toeplitz
  • Vandermonde
  • Hessenberg
Transformée
  • Transposée
  • Conjuguée
  • Adjointe
  • Inverse
  • Comatrice
Relation
  • équivalentes
  • semblables
  • congruentes
Propriété
  • Inversible
  • Diagonalisable
  • Semi-simple
  • Trigonalisable
  • Symétrique
  • Antisymétrique
  • Hermitienne
  • Normale
  • Orthogonale
  • Unitaire
  • Symplectique
  • de Hadamard
  • Autoadjointe positive
  • Définie positive
  • Diagonale dominante
  • Nilpotente
Famille
  • Nulle
  • Unité
  • Identité
  • Vide
  • Cartan
  • Hilbert
  • Mueller
  • Lehmer
  • Pauli
  • Dirac
  • Householder
Associée
  • Permutation
  • Passage
  • Compagnon
  • Sylvester
  • Adjacence
  • Laplacienne
  • Hessienne
  • Jacobienne
  • Génératrice
  • Contrôle
  • Corrélation
  • Gram
  • Variance-covariance
  • Inertie
  • Jones
  • Gains
  • Stochastique
Résultats
Décompositions
  • LU
  • QR
  • Cholesky
  • Schur
  • Polaire
  • Valeurs singulières
  • Diagonalisation
  • Trigonalisation
  • Réduction de Jordan
  • Facteurs invariants
Articles liés
  • CKM
  • Théorie des matrices
  • Algèbre linéaire
  • Algèbre multilinéaire
  • Addition matricielle
  • Palette incluant la multiplication des matrices
v · m
Analyse numérique
Recherche de zéro
  • Méthode de Josephy-Newton
  • Méthode de la sécante
  • Méthode de Newton
  • Point fixe
Transformations de matrice
  • Matrice de Hessenberg
  • Décomposition LU
  • Factorisation de Cholesky
Résolutions de systèmes
  • Méthode de Gauss-Seidel
  • Méthode de surrelaxation successive (SOR)
  • Méthode de Jacobi
  • Décomposition QR
  • Décomposition LU
Intégration numérique
  • Méthode du point médian
  • Méthode des trapèzes
  • Méthode de Simpson
  • Méthodes de quadrature de Gauss
  • Formule de Newton-Cotes
  • Méthode de Romberg
  • Méthode de Monte-Carlo
Équations différentielles
  • Méthode d'Euler (et semi-implicite)
  • Méthode de Heun
  • Méthodes de Runge-Kutta
  • Intégration de Verlet
  • Leapfrog
  • Méthode linéaire à pas multiples (Adams-Bashforth, backward differentiation formula (en))
Interpolation numérique
  • Courbe de Bézier
  • Surface de Bézier
  • Spline
  • B-spline
  • NURBS
  • Interpolation polynomiale
  • Interpolation lagrangienne
  • Interpolation newtonienne
  • Interpolation d'Hermite
  • Suite de polynômes orthogonaux
  • Interpolation bilinéaire
  • Interpolation bicubique
  • icône décorative Portail de l’algèbre
Ce document provient de « https://fr.teknopedia.teknokrat.ac.id/w/index.php?title=Factorisation_de_Cholesky&oldid=229379598 ».
Catégories :
  • Analyse numérique matricielle
  • Algèbre bilinéaire
Catégories cachées :
  • Article contenant un appel à traduction en anglais
  • Portail:Algèbre/Articles liés
  • Portail:Sciences/Articles liés
  • Portail:Mathématiques/Articles liés

  • indonesia
  • Polski
  • الرية
  • Deutsch
  • English
  • Español
  • Français
  • Italiano
  • مصر
  • Nederlands
  • 本語
  • Português
  • Sinugboanong Binisaya
  • Svenska
  • Українска
  • Tiếng Việt
  • Winaray
  • 中文
  • Русски
Sunting pranala
Pusat Layanan

UNIVERSITAS TEKNOKRAT INDONESIA | ASEAN's Best Private University
Jl. ZA. Pagar Alam No.9 -11, Labuhan Ratu, Kec. Kedaton, Kota Bandar Lampung, Lampung 35132
Phone: (0721) 702022
Email: pmb@teknokrat.ac.id