Upload
dangnga
View
215
Download
0
Embed Size (px)
Citation preview
Un rappel
sur les matrices
Patrice Wira
Université de Haute-Alsace Faculté des Sciences et Techniques
2000 - 2001
Sommaire Calculs matriciels (matrix algebra) ........................................................................................ 1
1. Représentation matricielle et notations................................................................................................. 1 2. L’addition ................................................................................................................................................ 1
L’addition matricielle...................................................................................................................................... 1 Propriétés de l’addition ................................................................................................................................... 2 Exemples : l’addition et la soustraction matricielle ........................................................................................ 2 Exemples : l’addition et la combinaison linéaire de deux vecteurs................................................................. 3
3. Le produit ................................................................................................................................................ 3 La multiplication d’une matrice avec un scalaire............................................................................................ 3 Propriétés de la multiplication entre une matrice et un scalaire ...................................................................... 4 La multiplication matricielle ........................................................................................................................... 4 Propriétés élémentaires de la multiplication matricielle.................................................................................. 4 Quelques exemples.......................................................................................................................................... 5 Un produit matriciel particulier : le produit de Hadamard .............................................................................. 5
4. Les produits vectoriels............................................................................................................................ 5 Le produit interne............................................................................................................................................ 6 Le produit vectoriel ......................................................................................................................................... 7 Le produit mixte.............................................................................................................................................. 7 Le produit externe ........................................................................................................................................... 7 Propriétés des produits scalaire et vectoriel .................................................................................................... 8 Interprétation géométrique .............................................................................................................................. 8 Exemples :..................................................................................................................................................... 10
5. L’opérateur de transposition ............................................................................................................... 10 Propriétés élémentaires de la transposition ................................................................................................... 10
6. Matrices particulières........................................................................................................................... 10 La matrice nulle ............................................................................................................................................ 10 Matrice diagonale.......................................................................................................................................... 11 La matrice identité......................................................................................................................................... 11 Matrice triangulaire....................................................................................................................................... 11 Matrices symétrique et antisymétrique.......................................................................................................... 11 Matrice idempotente...................................................................................................................................... 11 Propriétés de la matrice nulle ........................................................................................................................ 11 Propriété de la matrice identité...................................................................................................................... 12
7. Matrices partitionnées.......................................................................................................................... 12 8. Le déterminant d’une matrice ............................................................................................................. 13
Quelques propriétés du déterminant d’une matrice :..................................................................................... 13 Quelques théorèmes ...................................................................................................................................... 13
9. Les mineurs, les cofacteurs et la matrice adjointe ............................................................................. 14 Les mineurs ................................................................................................................................................... 14 Les mineurs directeurs .................................................................................................................................. 14 Les cofacteurs ............................................................................................................................................... 14 La matrices adjointe ...................................................................................................................................... 15
Propriétés ...................................................................................................................................................... 15 Exemples....................................................................................................................................................... 15 Calcul du déterminant d’une matrice avec les cofacteurs ............................................................................. 15 Calcul de la solution d’un système d’équations linéaires - Règle de Cramer................................................ 16
10. Matrice inverse et pseudo-inverse ....................................................................................................... 17 1er cas, m = n : ............................................................................................................................................ 18 Propriétés de la matrice inverse : .................................................................................................................. 18 Calcul de la matrice inverse : ........................................................................................................................ 18 Calcul de l'inverse d'une matrice partitionnée............................................................................................... 19 2ème cas, m < n :.......................................................................................................................................... 19 3ème cas, m > n :.......................................................................................................................................... 19 Propriétés de la pseudo-inverse :................................................................................................................... 20 Détermination récursive de la pseudo-inverse (théorème de Gréville) : ....................................................... 20 Le Lemme d’inversion matricielle (The matrix inversion Lemma) .................................................... 20 Le noyau d'une matrice ................................................................................................................................. 21 Résolution de l’équation =AXB C ........................................................................................................... 21
11. Indépendance linéaire de vecteurs, la singularité .............................................................................. 22 12. Le rang d’une matrice .......................................................................................................................... 22
Propriété :...................................................................................................................................................... 22 13. La trace d’une matrice ......................................................................................................................... 23
Propriété :...................................................................................................................................................... 23 14. La norme ............................................................................................................................................... 23
La norme vectorielle ..................................................................................................................................... 23 La norme matricielle ..................................................................................................................................... 24
15. L’orthogonalité ..................................................................................................................................... 25 Propriétés ...................................................................................................................................................... 25 Quelques théorèmes ...................................................................................................................................... 25
16. Valeurs et vecteurs propres ................................................................................................................. 25 Propriétés ...................................................................................................................................................... 26
17. Diagonalisation d’une matrice ............................................................................................................. 26 Intérêt de la diagonalisation .......................................................................................................................... 27 Puissance n-ème d'une matrice...................................................................................................................... 27
18. Formes quadratiques............................................................................................................................ 28 19. Définitivité ............................................................................................................................................. 28 20. Changement de base ............................................................................................................................. 29
Définition d'une base..................................................................................................................................... 29 Application : plusieurs repères dans l'espace 3D .......................................................................................... 30 Application : les axes principaux d'une ellipse ............................................................................................. 33
21. Matrice racine carrée ........................................................................................................................... 34 Les fonctions vectorielles (matrix calculus) ......................................................................... 36
1. La différentiation et l’intégration par rapport à un scalaire ............................................................ 36 Quelques propriétés sur la dérivation :.......................................................................................................... 36
2. Définition d'une fonction vectorielle ................................................................................................... 37 3. Le gradient d’une fonction scalaire..................................................................................................... 37 4. La Jacobienne d’une fonction vectorielle............................................................................................ 38 5. La Hessienne d’une fonction scalaire .................................................................................................. 38 6. La dérivation chainée ........................................................................................................................... 39 7. Expansions en série de Taylor et de Maclaurin.................................................................................. 39
Expansion en série de Taylor d'une fonction scalaire multivariable ............................................................. 39 Série de Taylor à deux variables ................................................................................................................... 40 Série de Taylor à une variable (à l’ordre n)................................................................................................... 40 Série de Maclaurin à une variable (à l’ordre n) ............................................................................................. 40 Série de Maclaurin à deux variables.............................................................................................................. 41 Expansion en série de Maclaurin d'une fonction scalaire multivariable........................................................ 41
Bibliographie........................................................................................................................... 42 Annexe ..................................................................................................................................... 42
Patrice Wira - 1 - 1999
Calculs matriciels (matrix algebra)
1. Représentation matricielle et notations
Une matrice est un tableau rectangulaire d’éléments, généralement des nombres ou des
fonctions. Ces grandeurs sont généralement des réels ou des complexes. Dans la suite, nous ne
considérerons que des grandeurs réelles. Une matrice A de dimension m*n est notée *m n∈A R . Cette matrice est une matrice de m lignes et de n colonnes :
11 1
1
n
ij ij
m mn
a aa a
a a
= =
A .
Une matrice V qui ne comporte qu’une seule colonne, *1m∈V R , est appelé un vecteur
colonne :
1
2
v
v
=
V .
Une matrice V qui ne comporte qu’une seule ligne, 1*n∈V R , est appelé un vecteur ligne :
[ ]1 2v v=V .
Par convention, tout vecteur est désigné comme une matrice colonne.
Si m = n, alors la matrice est carrée.
2. L’addition
L’addition matricielle L’addition matricielle n’est définie qu’entre deux matrices de même dimensions. La matrice
résultante est de la même dimension que les matrices additionnées et chacun de ses éléments
est la somme des éléments des deux matrices correspondant à la même ligne et à la même
colonne.
Soient *m n∈A R et *m n∈B R . L’addition de ces deux matrices est donnée par :
ij ij ijc a b = = + C .
On la note : = +C A B , *m n∈C R .
Il en va de même pour la soustraction, au signe près. La soustraction des matrices A et B
est donnée par :
ij ij ijc a b = = − C .
Patrice Wira - 2 - 1999
On la note : = −C A B , *m n∈C R .
Propriétés de l’addition En considérant trois matrices, *m n∈A R , *m n∈B R et *m n∈C R , on a les trois propriétés
suivantes :
+ = +A B B A Commutativité (commutative law).
( )+ = +C A B CA CB Distributivité (distributive law).
( ) ( )+ + = + +A B C A B C Associativité (associative law).
Exemples : l’addition et la soustraction matricielle
Si 2*3∈A R et 2*3∈B R tel que 1 4 02 7 3
=
A , 5 2 60 1 1
=
B , alors :
1 5 4 2 0 6 6 6 62 0 7 1 3 1 2 8 4+ + +
+ = = + + + A B et
4 2 62 6 2− −
− =
A B .
Patrice Wira - 3 - 1999
Exemples : l’addition et la combinaison linéaire de deux vecteurs
L'addition de deux vecteurs (de dimensions
2, 2, ∈v w R ) permet de définir un
parallélogramme. Le vecteur résultant u
est une des diagonale du parallélogramme.
Prenons par exemple 42
=
v et
13−
=
w , on obtient alors :
4 1 32 3 5
− = + = + =
u v w
| | | | | | | |vw
u
------
Figure 1: L'addition de deux vecteurs.
Une combinaison linéaire de deux vecteurs 2∈v R et 2∈w R est l'addition de deux
vecteurs à qui on fait subir un changement
de longueur par des coefficients scalaires.
Reprenons les vecteurs exemple 42
=
v et
13−
=
w :
4 12 2
2 3
8 1 9 94 3 1 1
− = − + = − +
− − −
= + = = − − −
u v w
| | | | | | | | | | | | |
-2 v
w
u
--------
Figure 2 : La soustraction de deux vecteurs.
3. Le produit
La multiplication d’une matrice avec un scalaire La multiplication entre une matrice et un nombre scalaire donne une matrice dont chaque
élément de la matrice est multiplié par le scalaire.
Etant donné *m n∈A R une matrice, et b un scalaire, alors les éléments de la matrice C
résultante sont donnés par :
ij ikc ba= .
La matrice b=C A est de même dimension que A , *m n∈C R .
Patrice Wira - 4 - 1999
Propriétés de la multiplication entre une matrice et un scalaire Si c est un scalaire, alors :
c c=A A Commutativité, *m n∈A R .
( )c c c+ = +A B A B Distributivité, *m n∈A R et *m n∈B R .
( ) ( ) ( ) ( )c c c c= = =AB A B A B AB Associativité, où AB est la multiplication
matricielle entre les matrices *m n∈A R et
*n p∈B R .
Si c et b sont des scalaires, alors :
( )b c b c+ = +A A A Distributivité, *m n∈A R .
( ) ( )bc b c=A A Associativité, *m n∈A R .
La multiplication matricielle La multiplication entre deux matrices n’est définie que lorsque leurs dimensions son
compatibles : le nombre de colonnes de la matrice à gauche de l’opérateur doit correspondre
au nombre de lignes de la matrice à droite de l’opérateur.
Si *m n∈A R , et si B *n p∈R , la multiplication entre les matrices A et B donne une
matrice C de dimensions m*p telle que tous ses éléments :
1
n
ij ik kjk
c a b=
= ∑ .
On note cette opération : *= =C A B AB , . .
Propriétés élémentaires de la multiplication matricielle ≠AB BA La commutativité n’est pas toujours vraie
(the commutative law is usually broken).
( )+ = +C A B CA CB Distributivité à gauche
(distributive law from the left)
avec A , B *m n∈R et C *p m∈R .
Patrice Wira - 5 - 1999
( )+ = +A B C AC BC Distributivité à droite
(distributive law from the right)
avec A , B *m n∈R et C *n p∈R .
( ) ( )=A BC AB C Associativité (associative law)
avec A *m n∈R , B *n p∈R et C *p q∈R .
Quelques exemples
• Si 2*2∈A R et 2*3∈B R tel que 5 34 2
− =
A , 8 2 67 0 9
− =
B , alors
5 3 8 2 6 5(8) ( 3)(7) 5( 2) ( 3)0 5(6) ( 3)(9) 19 10 34 2 7 0 9 4(8) 2(7) 4( 2) 2(0) 4(6) 2(9) 46 8 42
− − + − − + − + − − = = = + − + + −
AB
• Si on dispose d’un vecteur ligne 4∈x R et d’un vecteur colonne 4∈y R tel que
[ ]1 3 5 1= −x et [ ]2 4 2 6 T= −y , alors
[ ] [ ]
24
1 3 5 1 1( 2) 3(4) 5(2) ( 1)(6) 1426
− = − = − + + + − =
xy .
Un produit matriciel particulier : le produit de Hadamard La matrice résultante du produit de Hadamard entre deux matrices de même taille contient
le résultat d’une multiplication élément par élément.
On note le produit entre les matrices *m n∈A R et *m n∈B R :
= ⊗C A B , *m n∈C R ,
ij ij ijc a b = = C .
4. Les produits vectoriels
Si l’addition de vecteur n’est pas très différente de l’addition matricielle, il n’en va pas de
même en ce qui concerne la multiplication. En effet, multiplier deux vecteurs n’a pas la même
Patrice Wira - 6 - 1999
signification que multiplier deux matrices, c’est pourquoi on distingue les produits vectoriels
des produits matriciels.
La multiplication de deux vecteurs peut être définie de trois façon différentes, selon que le
résultat est un scalaire, un vecteur ou une matrice. On les appelle respectivement produit
interne (scalaire), vectoriel et produit externe.
Les produits interne et externe sont des cas particulier de la multiplication matricielle définie
en toute généralité précédemment.
Le produit interne Soient deux vecteurs de même dimension, n∈x R et n∈y R . On appelle produit interne (en
Anglais on parlera de « inner product » ou de « vector dot product ») la somme des
multiplications éléments par éléments de chaque vecteur :
1
,n
T T Ti i
i
y x=
= = = ∑x y x y y x .
Cette opération retourne un scalaire. Le produit interne est aussi appelé produit scalaire, il
n’est défini que si les deux vecteurs sont de même taille.
Le produit interne est un moyen de mesurer comment deux vecteurs sont parallèles. Deux
vecteurs sont orthogonaux si leur produit scalaire est nul.
Remarque : angle en deux vecteurs.
Si deux vecteurs qui ne sont pas parallèles forment un angle entre eux.
Si x et y sont deux vecteurs Euclidiens, alors ils forment un angle θ définit par :
,cosθ =
x yx y
.
Les deux vecteurs x et y sont dit orthogonaux quand leur produit interne est nul (θ =90°),
on le note ⊥x y .
Remarque : parfois le produit entre deux matrices en également appelé produit scalaire, mais
l’ordre de x et y est important : T T≠x y y x qui donne un nombre, et qu’il faut différencier
de Tyx (produit externe) qui est une matrice.
Patrice Wira - 7 - 1999
Le produit vectoriel Le produit vectoriel de deux vecteur se traduit en Anglais par « vector product » ou « cross
product ». Le produit vectoriel de deux vecteurs de trois composantes est défini par :
1 1 2 3 3 2
2 2 3 1 1 3
3 3 1 2 2 1
x y x y x yx y x y x yx y x y x y
− × = × = − −
x y .
Formellement, ce produit peut être considéré comme un déterminant, avec les vecteurs
( , , )i j k constituants la base dans la première colonne :
1 12 2 1 1 1 1
2 23 3 3 3 2 2
3 3
x yx y x y x y
x yx y x y x y
x y× = = − +
ix y j i j k
k,
2 3 3 2 3 1 1 3 1 2 2 1( ) ( ) ( )x y x y x y x y x y x y× = − + − + −x y i j k .
Remarque : ce n’est pas un vrai déterminant dans le sens où il ne retourne pas une grandeur
scalaire.
Le produit mixte Soit trois vecteurs x , y et z n∈R . Le nombre réel ( ).×x y z , c'est à dire le produit scalaire
du vecteur ×x y par le vecteur z , s'appelle le produit mixte des trois vecteurs x , y , z
(dans cet ordre). Le résultat est un scalaire. On parle en Anglais de « scalar triple product ».
Le produit externe Considérons deux vecteurs de dimensions différentes, m∈x R et n∈y R . On appelle produit
externe (traduit en Anglais par « outer product » ou « dyadic product ») :
1 1 1
1
, n
Ti j
m m n
x y x yx y
x y x y
= =
x y xy , avec 1,...,i m= , 1,...,j n= .
Tij i jz x y = = = z xy , avec 1,...,i m= , 1,...,j n= .
Cette opération retourne une matrice de m lignes et n colonnes. Ce produit peut être défini
comme un produit matricielle.
Le produit externe joue un rôle important lorsqu’il s’agit de déterminer comment sont
corrélés les éléments d’un vecteur avec ceux d’un autre.
Patrice Wira - 8 - 1999
Remarque : si [ ]1 2 3 10 T=x … contient toutes les valeurs possibles entre 1 et 10,
alors T=z xx contient les tables de multiplication jusqu’à 10 :
1 2 3 4 5 6 7 8 9 102 4 6 8 10 12 14 16 18 203 6 9 12 15 18 21 24 27 304 8 12 16 20 24 28 32 36 405 10 15 20 25 30 35 40 45 506 12 18 24 30 36 42 48 54 607 14 21 28 35 42 49 56 63 708 16 24 32 40 48 56 64 72 809 18 27 36 45 54 63 72 81 90
10 20 30 40 50 60 70 80 90 100
T
=
xx
.
Propriétés des produits scalaire et vectoriel Soient x , y et z trois vecteurs n∈R et soit a un scalaire.
Le produit scalaire est distributif : .( ) . .+ = +x y z x y x z .
est commutatif : . .=x y y x .
est associatif : ( ). ( . )a a=x y x y .
Le produit vectoriel est distributif : x x x( )+ = +x y z x y x z .
N’est PAS commutatif : x x= −x y y x .
est associatif : x x( ) ( )a a=x y x y .
Interprétation géométrique
Patrice Wira - 9 - 1999
.A B
BA
X
Z
Y
θ
xB A B
A
X
Z
Y
xA B
aire = xA B
Figure 3: Les produits scalaire (à gauche) et vectoriel (à droite) de deux vecteurs.
Le produit scalaire :
Le scalaire qui est retourné est proportionnel à la projection du premier vecteur sur le second.
Cet opération est fréquemment utilisée pour mesurer l’orthogonalité de deux vecteurs mais
aussi pour décrire la composante d’un vecteur dans une direction particulière.
Le produit vectoriel :
Le produit vectoriel, noté ×A B est un vecteur orthogonal à A et à B . Il est nul si A et B
sont parallèles. Il est utilisé pour déterminer la normale de deux droites. C’est ainsi qu’on
défini le vecteur normal d’une surface en un point quelconque.
Le produit mixte :
La valeur absolue du produit mixte est le produit de la longueur de la projection du vecteur
z sur la perpendiculaire au plan de même direction que les vecteurs x et y sur la surface du
parallélogramme construit sur les vecteurs x et y . Autrement dit, c'est le volume du
parallélépipède construit sur les trois vecteurs x , y et z . On dit aussi que le produit mixte
représente le volume algébrique de ce parallélépipède.
x
yzx × y
Figure 4: Le produit mixte de trois vecteurs.
Patrice Wira - 10 - 1999
Exemples : Considérons un espace de dimensions trois défini par les vecteurs i , j et k .
Les vecteurs x et y s’écrivent par rapport à cette base :
i j kx x x= + +x i j k et i j ky y y= + +y i j k .
Le produit scalaire de x et y vaut alors :
. cos( , ) i i j j k kx y x y x y= = + +x y x y x y .
Le produit vectoriel vaut quand à lui
x ( ) ( ) ( )j k k j k i i k i j j ix y x y x y x y x y x y= − + − + −x y i j k ,
et x sin( , )=x y x y x y .
On rappelle que 2 2 2 1 2( )i j kx x x= + +x .
5. L’opérateur de transposition
La transposée d’une matrice A est la matrice TA (notée parfois aussi 'A ) définie par : *m n∈A R , *T n m∈A R ,
*ij m na = A ,
*T
ji n ma = A .
Propriétés élémentaires de la transposition ( )T T =A A où A *m n∈R .
( )T T T+ = +A B A B avec A , B *m n∈R .
( )T T T=AB B A où *m n∈A R , *n p∈B R et
1 *
n
ik kjk m p
a b=
= ∑AB .
6. Matrices particulières
La matrice nulle La matrice dont tous les termes sont nuls est appelée matrice nulle. On la note =A 0 :
0ija = , i∀ , j∀ .
Patrice Wira - 11 - 1999
Matrice diagonale Une matrice diagonale *n n∈A R est une matrice carrée dont tous les éléments non diagonaux
sont nuls, c'est à dire que 0ija = , i j∀ ≠ . Elle est de la forme :
11 0 00
00 0
ij ij
nn
a
a a
a
= =
A .
La matrice identité Une matrice identité est une matrice diagonale *n n∈A R (donc carrée) qui voit tous ses
éléments nuls sauf ceux de sa diagonale principale qui sont unitaires. On la note nI ou I :
= ⇔A I01
ij
ii
aa
=
=,
1,...,i j
i n∀ ≠=
.
Matrice triangulaire Une matrice triangulaire supérieure (respectivement inférieure) est une matrice carrée
*n n∈A R dont les éléments qui se trouvent au-dessous (respectivement au-dessus) de la
diagonale principale sont nuls, c'est à dire telle que 0ija = , i j∀ > ( i j∀ < ). Elle est donc de
la forme :
11 12 1
220
0 0
n
ij
nn
a a aa
a
a
= =
A (respectivement
11
21 22
1
0 0
0ij
n nn
aa a
a
a a
= =
A ).
Matrices symétrique et antisymétrique Soit *n n∈A R une matrice carrée.
- Si T =A A , alors A est dite matrice symétrique.
- Si T = −A A , alors A est dite matrice antisymétrique.
Matrice idempotente Considérons une matrice carrée *n n∈A R . Si T =A A A , alors A est dite idempotente.
Propriétés de la matrice nulle Soit A une matrice, A *m n∈R :
Patrice Wira - 12 - 1999
= =A0 0A 0 C’est l’opérateur nul de la multiplication
+ = + =A 0 0 A A C’est l’opérateur neutre de l’addition
Propriété de la matrice identité Soit A une matrice, A *m n∈R :
= =AI IA I C’est l’opérateur neutre de la multiplication
7. Matrices partitionnées
La composante de base d’une matrice A de dimensions quelconques est ija . Il est parfois
intéressant de considérer une matrice en tant que tableau de matrices élémentaires.
Soit :
11 12
21 22
ijamn
p q
= =
A AA
A A ,
avec *11
m p∈A R , *12
m q∈A R , *21
n p∈A R , *22
n q∈A R .
La matrice A est une matrice de m+n lignes et de p+q colonnes, ( )*( )m n p q+ +∈A R .
Considérons une seconde matrice B partitionnée ainsi : 1
2
=
BB
B, où *1
1p∈B R , *1
2q∈B R .
On peut alors écrire :
11 12 1 11 1 12 2
21 22 2 21 1 22 2
+ = = +
A A B A B A BAB
A A B A B A B.
Cette relation est souvent utilisée avec les notations suivantes :
A B E AE + BF=
C D F CE + DF.
Toutes les sous-matrices doivent comporter des dimensions compatibles avec les règles du
produit matriciel.
La transposée d'une matrice partionnée est donnée par : T T T
T T
=
A B A CC D B D
.
Patrice Wira - 13 - 1999
8. Le déterminant d’une matrice
On appelle déterminant d’une matrice A carrée, *n n∈A R , le nombre noté det( )A ou | A |
et égal à :
11
1
det( ) ( 1) det( )n
ii i
i
a+
=
= −∑A A où iA est la matrice obtenue en rayant la
1ère colonne et la i-ième ligne.
Si n = 2, 11 1211 22 12 21
21 22
det( )a a
a a a aa a
= = −
A .
Si n = 3, 11 22 33 13 32 21 12 23 31 11 23 32 22 13 31 33 12 21det( ) a a a a a a a a a a a a a a a a a a= + + − − −A .
Lorsque le déterminant d’une matrice est nul, on dit que la matrice est singulière.
Remarques :
1
det( )n
kj kjj
a c=
= ∑A pour tous les lignes k de A .
1
det( )n
il ili
a c=
= ∑A pour tous les colonnes l de A .
Quelques propriétés du déterminant d’une matrice : det( ) det( )det( )=AB A B avec A *n n∈R .
1 1det( )det( )
− =AA
avec A *n n∈R .
( ) ( ) ( ) ( ) ( )1 1det det det det = det det− − = = − −
D EA G D EG F D G FD E
F G
où *n n = ∈
D EA
F GR , D *m m∈R et les dimensions des matrices E , F et G sont
en accord avec celles de A et D ; 1−D doit exister
Quelques théorèmes 1. Si tous les éléments d'une ligne (colonne) d'une matrice *n n∈A R sont nuls alors
det( ) 0=A .
2. Si tous les éléments d'une ligne (colonne) du déterminant d'une matrice *n n∈A R sont
multiplié par un scalaire k, alors le déterminant est multiplié par k.
3. Si B est obtenue à partir de *n n∈A R en échangeant deux de ces lignes (colonnes), alors
det( ) det( )= −B A .
4. Si B est obtenue à partir de *n n∈A R en faisant passer la i-ème ligne (colonne) par
dessus p lignes (colonnes), alors det( ) ( 1) det( )p= −B A .
Patrice Wira - 14 - 1999
5. Si deux lignes (colonnes) de *n n∈A R sont identiques, alors det( ) 0=A .
6. Si, aux éléments d’une ligne (colonne) on ajoute k fois les éléments correspondants d’une
autre ligne (colonne), la valeur du déterminant reste inchangée.
Pour tous ces théorèmes, on trouvera la démonstration dans (Ayres, 1991).
Le calcul du déterminant d'une matrice 3*3∈A R peut être calculé par la règle dite de Sarrus
(Christol et al. 1996, p. 108).
9. Les mineurs, les cofacteurs et la matrice adjointe
Les mineurs Les mineurs ijm des éléments ija d’une matrice A carrée, *n n∈A R , sont les déterminants de
la partie restante de A lorsqu’on ne tient pas compte de la ligne i et de la colonne j.
Les mineurs directeurs Les mineurs directeurs d’une matrice A carrée, *n n∈A R , appelés aussi mineurs principaux
(en Anglais « leading minors ») sont définis comme suit :
1 11m a=
11 122
21 22
deta a
ma a
=
113
33
deta
ma
=
...
( ) detnm = A
Les cofacteurs Les cofacteurs ijc des éléments ija d’une matrice A carrée, *n n∈A R , sont donnés par :
c =( 1)i jij ijm+− .
Le cofacteur est souvent aussi noté ij∆ .
Patrice Wira - 15 - 1999
La matrices adjointe La matrice des cofacteurs ijc des éléments ija d’une matrice A carrée, *n n∈A R , lorsqu’elle
est transposée, est appelé la matrice adjointe de A . On note généralement cette matrice A∼
ou encore adj( )A .
A∼
=11 1
1
adj( )
Tn
T
ij ij
n nn
c cc c
c c
= =
A ,
adj( ) T=A C , avec ijc = C
Propriétés
= =A A A A A I∼ ∼
où A est le déterminant de la matrice A .
adj( ) adj( ).adj( )=AB A B .
Exemples
En ce qui concerne la matrice 3*3∈A R , 11 12 13
21 22 23
31 32 33
a a aa a aa a a
=
A , nous avons le mineur
11 1223
31 32
a am
a a
=
et le cofacteur 11 122 323
31 32
( 1)ij
a ac m
a a+
= − = −
.
Calcul du déterminant d’une matrice avec les cofacteurs La valeur d’un déterminant d’ordre n d’une matrice carrée *n n∈A R est la somme des n
produits obtenus en multipliant chaque élément d’une ligne (colonne) donnée de la matrice
par son cofacteur.
On peut donc, par exemple, calculer le déterminant d’ordre 3 de la matrice 3*3∈A R ,
11 12 13
21 22 23
31 32 33
a a aa a aa a a
=
A par un développement selon la seconde colonne :
12 12 22 22 32 32
21 23 11 13 11 1312 22 32
31 33 31 33 21 23
det( ) a c a c a c
a a a a a aa a a
a a a a a a
= + +
= − + −
A
.
Patrice Wira - 16 - 1999
En choisissant judicieusement la ligne (ou la colonne) par laquelle en effectue le
développement, on peut très largement simplifier les calculs. On cherchera notamment à
effectuer les développement selon les lignes ou les colonnes qui comportent le plus de valeurs
nulles.
Ainsi, si
3 5 81 0 24 0 3
=
A , alors 1 2
det( ) 5 51(3) 2(4) 254 3
= − = − − =
A .
Calcul de la solution d’un système d’équations linéaires - Règle de Cramer On peut déterminer la solution d’équations linéaires par les déterminants. On appelle cette
méthode la règle de Cramer.
Soit le système de trois équations linéaires à trois inconnues 1x , 2x et 3x :
11 12 13 1 1
21 22 23 2 2
31 32 33 3 3
a a a x ba a a x ba a a x b
=
.
Soit A le déterminant de la matrice 3*3∈A R .
La valeur numérique des coefficients de A est multipliée par 1x si chaque élément de la
première colonne est multipliée par 1x (théorème 2) :
1 11 12 13
1 1 21 22 23
1 31 32 33
x a a ax x a a a
x a a a
=
A
En ajoutant à chaque élément de la première colonne de ce dernier déterminant, 2x fois
l’élément correspondant d la seconde colonne et 3x fois l’élément de la troisième colonne
(théorème 6), on obtient :
1 11 2 12 3 13 12 13 1 12 13
1 1 21 2 22 3 23 22 23 2 22 23
1 31 2 32 3 33 32 33 3 32 33
x a x a x a a a b a ax x a x a x a a a b a a
x a x a x a a a b a a
+ + = + + =
+ +
A ,
c’est à dire
1 12 13
2 22 23
3 32 331
b a ab a ab a a
x
=
A, à condition que 0≠A .
Patrice Wira - 17 - 1999
Il en va de même pour 2x et 3x :
11 1 12 13
21 2 23
31 3 332
a b a aa b aa b a
x
=
A,
11 12 1
21 22 2
31 32 33
a a ba a ba a b
x
=
A.
Cette règle peut être appliquée à n’importe quel système de n équations linéaires à n
inconnues, pourvu que le déterminant des coefficients ija soit différent de zéro.
10. Matrice inverse et pseudo-inverse
Deux matrices A et B sont inverses si leur produit est égal à la matrice identité : =AB I ,
alors 1−=B A .
Les matrices inverse, et plus généralement les pseudo-inverses, trouvent leurs applications à
la résolution des systèmes d’équations linéaires quelles que soient leurs dimensions :
=y Ax , *m n∈A R , m∈y R est le vecteur cherché, n∈x R est le vecteur des connaissances.
L’inverse généralisée d’un tel système est noté +A .
L’inverse généralisée +A satisfait les conditions suivantes : + =AA A A
+ + +=A AA A ( )T+ +=AA AA Condition de symétrie
( )T+ +=A A A A
La solution d’un système linéaire à partir de la pseudo-inverse +A s’écrit alors : +=x A y .
La résolution d’un tel système met en évidence trois cas. Selon les dimensions m et n , on
définira les matrices inverse, pseudo-inverse à gauche et pseudo-inverse à droite.
La matrice inverse est la solution d'un problème qui possède autant d'inconnues (variables à
déterminées) que de contraintes. Cela ne signifie pas pour autant qu'il existe une solution.
Patrice Wira - 18 - 1999
La pseudo-inverse à gauche est une solution d’un problème sur-déterminé, qui contient des
informations redondantes, elle minimise l’erreur quadratique moyenne, « mean square error »
en Anglais.
La pseudo-inverse à droite est une solution d’un problème sous-déterminé, qui ne contient pas
suffisamment d’information pour donner une solution unique, mais donne une solution
particulière, celle qui minimise la norme quadratique.
En fait, ces deux pseudo-inverses qu'on appelle généralement matrice inverse généralisée de
Moore-Penrose, sont données par : 2 1 2 1
0 0lim ( ) lim ( )T T T Tδ δδ δ+ − −→ →= + = +A A A I A A AA I .
Si les colonnes de A sont linéairement indépendantes, on peut prendre 0δ = .
1er cas, m = n :
C’est la cas d’une matrice carrée. Si A est une matrice non singulière (c’est à dire
det( ) 0 ≠A ), alors 1+ −=A A est la matrice inverse de A . La matrice 1−A vérifie la
propriété 1 1nI− −= =A A AA .
Propriétés de la matrice inverse : Si A et B sont deux matrices non singulières, A *n n∈R et B *n n∈R , alors :
1 1( )− − =A A 1 1( ) ( )T T− −=A A
1 1 1( )− − −=AB B A (par extension 1 1 1 1( )− − − −=ABC C B A si la
matrice C est inversible.
1 1det( )det( )
− =AA
1 1( ) ( )n nI I− −+ = +A A A A si 1( )nI −+ A existe. 1 1( ) ( )n n nI I I− −+ + + =A A A si 1( )nI −+ A existe.
1 1( ) ( )n mI I− −+ = +A BA AB A si A *m n∈R , B *n m∈R et si 1( )nI −+BA
et 1( )mI −+ AB existent. 1 1( ) ( )m n mI I I− −+ + + =AB A BA B si A *m n∈R , B *n m∈R et si 1( )nI −+BA
et 1( )mI −+ AB existent.
Calcul de la matrice inverse : La matrice inverse 1−A d’une matrice A carrée, *n n∈A R , est donnée par la relation :
1 adj( )det( )
− =AAA
.
Patrice Wira - 19 - 1999
Pour qu’une matrice soit inversible, il faut que sont déterminant soit différent de 0. On dit
alors que la matrice est régulière ou non singulière.
Exemple lorsque n = 2 :
Si 11 12
21 22
a aa a
=
A , on détermine 11 21
12 22
T a aa a
=
A puis on remplace chaque élément de TA
par son cofacteur pour déterminer 22 12
21 11
adj( )a aa a
− = −
A .
On calcule 11 22 12 21det( ) a a a a= −A , puis on détermine la matrice inverse 1−A en divisant
chaque élément de adj( )A par det( )A .
On peut également calculer l'inverse d'une matrice A par la méthode du pivot de Gauss
(Christol et al. 1996, p. 19) dans le cas particulier où la matrice est carrée et est inversible.
Le système, caractérisé par la matrice A , est alors dit système de Cramer ou système
régulier dans ce cas.
Calcul de l'inverse d'une matrice partitionnée
Soit A *n n∈R une matrice partitionnée en quatre sous-matrices telle que :
=
D EA
F G, où
D *m m∈R et les dimensions des matrices E , F et G sont en accord avec celles de A et D .
L'inverse 1−A de la matrice A est donnée par : 1 1 1 1 1 1 1 1
11 1 1 1 1
( ) ( )( ) ( )
− − − − − − − −−
− − − − −
+ − − −= − − −
D D E G FD E FD D E G FD EA
G FD E FD G FD E
si 1−D existe.
2ème cas, m < n :
Il existe une infinité de solution, parmi lesquelles ont peut retenir celle qui minimise la norme
x : 1( )T T+ −=A A AA
Cette matrice est appelée pseudo-inverse à droite, elle vérifie la propriété mI+ =AA .
3ème cas, m > n :
Il existe une solution approchée au sens des moindres carrés : 1( )T T+ −=A A A A
Cette matrice est appelée pseudo-inverse à gauche, elle vérifie la propriété In+ =AA .
Patrice Wira - 20 - 1999
Propriétés de la pseudo-inverse : Si A est une matrice et α un scalaire, *α ∈R :
( )+ + =A A 1( )α α+ − +=A A
( ) ( )T T+ +=A A
( ) ( )T T T T+ + += =A A A A A AA
( )T T+ + =AA A A A T T+ =A AA A
rang( ) rang( ) rang( )T+ = =A A A
Détermination récursive de la pseudo-inverse (théorème de Gréville) : Soit *m n∈A R . La détermination récursive de la matrice pseudo-inverse de A repose sur
l’idée de partition de A en colonnes.
A un instant k donné, la pseudo-inverse est calculée à partir de 1k+−A et de la colonne
courante d’indice k de la matrice A .
Soit 1k k ka− = A A où ka désigne la k-ième colonne de kA , alors (Kohonen, 1984, p. 51) :
1( )Tk k k
k Tk
+ − −=
A I a pA
p
où
2
1 1 1 1 1 12
1 1 1
( ) / ( ) si ( ) 0
( ) /(1 ) sinon
k k k k k k k k kk
Tk k k k k
+ + +− − − − − −
+ + +− − −
− − − ≠= +
I A A a I A A a I A A ap
A A a A a
Les conditions initiales sont les suivantes :
1 1 =A a 1
1 1 1 11
( ) si 00 sinon
T T
T
−+ ≠=
a a a aA
Le Lemme d’inversion matricielle (The matrix inversion Lemma)
Considérons l'expression suivante :
CDCBA 111 −−∆
− += T [1].
Quelle est alors l'expression de 11)( −−= AA ?
Multiplions [1] à gauche par A :
CDACABI 11 −− += T [2].
Multiplions [2] à droite par B :
CBDACAB 1−+= T [3].
Patrice Wira - 21 - 1999
Multiplions [3] à droite par TC :
)(11 TTTTTT CBCDDACCBCDACACBC +=+= −− [4].
Multiplions [4] à droite par 1][ −+ TCBCD :
11][ −− =+ DACCBCDBC TTT [5].
Multiplions [5] à droite par CB :
CBCBCDBCCBDAC 11 ][ −− += TTT [6].
Retranchons [6] de B :
CBCBCDBCBCBDACB 11 ][ −− +−=− TTT [7].
D'après [3], on tire que ABCBDAC −=−1T et on peut déduire que :
CBCBCDBCBA 1][ −+−= TT [8].
Finalement, on retiendra une des deux formulations suivantes :
111111 ]1[ −−−−−−∆
+−=⇒+= CBDBCDBBACDBA TTT
CBCBCDBCBACDCBA 1111 ][ −−−∆
− +−=⇒+= TTT
Le noyau d'une matrice Pour un système d'équations homogènes 0=Ax , *m n∈A R , n∈x R , l'ensemble des solutions
x constitue un espace vectoriel appelé noyau de A , noté Ker( )A . La dimension de cet
espace sera notée NA .
Remarque : Une équation linéaire 1 1 2 2 3 3 ... n na x a x a x a x h+ + + = est dite non homogène si
0h ≠ .
Théorème : pour *m n∈A R on a rang( ) N n+ =AA .
Résolution de l’équation =AXB C Considérons l'équation =AXB C (Kohonen, 1984, p.53), avec A , B et C des matrices
quelconques dont les dimensions sont en accords avec les règles de la multiplication
matricielle et où l'inconnu à déterminer est X .
La condition nécessaire et suffisante pour avoir une solution à cette équation est :
Patrice Wira - 22 - 1999
+ + =AA CB B C .
La solution générale est de la forme : + + + += + −X A CB Y A AYBB ,
avec Y de mêmes dimensions que X .
Une solution particulière est + +=X A CB (cas pour 0=Y ), c'est la solution dont la norme
Euclidienne est minimale.
11. Indépendance linéaire de vecteurs, la singularité
Soit un ensemble 1a , 2a ,..., na de n vecteurs de dimension m, et 1α , 2α ,..., nα un ensemble de
scalaires.
Le vecteur défini par 1
n
i ii
α=
= ∑c a forme une combinaison linéaire de vecteurs, notée ia .
L’ensemble des vecteurs ia est linéairement indépendants si :
0= ⇔c 1 2 ... ... 0i nα α α α= = = = = =
Soit A une matrice, *m n∈A R .
- Les colonnes de A sont linéairement indépendantes si et seulement si TA A est une
matrice non singulière de rang plein,
- Les lignes de A sont linéairement indépendantes si et seulement si TA A est non
singulière.
Une matrice carrée *n n∈A R , est dite non singulière (ou inversible) si *n n∃ ∈B R telle que :
det( ) 0= = ⇔ ≠AB BA I A .
12. Le rang d’une matrice
Le rang d’une matrice correspond au nombre maximum de colonnes ou de lignes linéairement
indépendantes. C’est aussi l’ordre du plus grand déterminant non nul. Si k est cet ordre, on
dit que la matrice est de rang k.
Une matrice A , *m n∈A R , est dite de rang plein si : rang( ) min( , )m n=A .
Propriété : Quelle que soit une matrice A , *m n∈A R ,
rang( ) rang( ) rang( ) rang( )T T T= = =A A AA A A .
Patrice Wira - 23 - 1999
13. La trace d’une matrice
La trace d’une matrice A , *n n∈A R est égale à la somme des éléments de la diagonale de
cette matrice :
1
trace( ) n
iii
a=
= ∑A .
Propriété : trace( ) trace( ) =AB BA A *n n∈R , B *n n∈R .
(trace( ))T∂=
∂AB B
A *n m∈A R , *n m∈B R .
(trace( )) 2T∂
= =∂
ABAD ABA
*n m∈D R et *n m∈A R , *m m∈B R .
14. La norme
La norme vectorielle On appelle p-norme, la norme notée également pL d’un vecteur n∈x R :
1/
1
pnp
ipi
x=
= ∑x .
Les normes les plus usuelles sont :
- la norme 1L également appelée norme absolue, 1
1
n
ii
x=
= ∑x ,
- la norme 2L ou norme Euclidienne, ( )1/ 2
1/ 22
21
nT
ii
x=
= = = ∑x x x x .
Voici quelques propriétés de la norme Euclidienne, x et n∈y R :
- + ≤ +x y x y ,
- .T ≤x y x y ,
- . ≤v w v w si n∈v R et n∈w R , on appelle cette propriété l'inégalité de
Schwartz.
La norme Euclidienne est aussi appelé norme quadratique (c’est la distance Euclidienne).
Une norme peut être pondérée. Ceci est surtout utilisé en Physique, lorsque les éléments d’un
vecteur sont de nature différente (représentent des grandeurs dans des unités différentes).
Soit x un vecteur à normer, n∈x R , on pose, n∈y R : =y Dx .
On calcule alors la norme (Euclidienne par exemple) du vecteur y plutôt que celle de x :
Patrice Wira - 24 - 1999
( ) ( ) ( )1/ 2 1/ 2 1/ 2T T T T= = = =y y y Dx x D Dx x Qx .
La matrice T=Q D D est une matrice de pondération de la forme quadratique Tx Qx
présente dans l’expression de la norme y .
Pour la matrice *n n∈D R , on prend souvent une matrice diagonale avec chaque terme comme
étant l’inverse de la valeur maximale que peut prendre l’élément concerné :
1max
max
max
1 01
0 1i
n
xx
x
=
D .
La norme matricielle Il existe plusieurs normes matricielles. La norme d’une matrice peut être définie dans
différent sens, elle doit satisfaire les contraintes posées par n’importe quel espace (Kohonen,
1984, p.47).
Les normes matricielles, sont définies de la même façon que les normes vectorielles.
On appelle p-norme d'une matrice A , *m n∈A R , la norme : 1/
1 1
pm n p
ijpi j
a= =
= ∑∑A .
La norme matricielle la plus connue et la plus utilisées est l'équivalente de la norme
Euclidienne chez les vecteurs, on l'appelle la norme de Frobenius :
trace( )TE
= =A A A A , 1/ 2
2
1 1
m n
iji j
a= =
= ∑∑A .
La norme de Frobenius est la norme Euclidienne au sens matricielle, qui n’est pas compatible
avec la norme Euclidienne vectorielle (it is not consistent with the Euclidean vector norm).
Si A est une matrice carrée, *n n∈A R , et x un vecteur de n éléments, :
=Ax x .
La norme suivante est elle compatible avec la norme vectorielle :
1max == xA Ax .
Patrice Wira - 25 - 1999
15. L’orthogonalité
L’ensemble des vecteurs ia , , 1,...,ni i k∈ ∀ =a R , est orthogonal si :
0, Ti j i j= ∀ ≠a a .
Ce même ensemble est orthogonal si :
0, Ti j i j= ∀ ≠a a ,
1, Ti i i= ∀a a .
Ceci se note également : T
i j ijδ=a a ,
où ijδ est l’opérateur de Kronecker.
Une matrice carrée *n n∈A R est dite orthogonale si ses colonnes forment un ensemble
orthogonale : 1T T T
nI −= = ⇒ =A A AA A A .
Propriétés Si A est une matrice carrée orthogonale, *n n∈A R , et x un vecteur de n éléments, n∈x R :
=Ax x
( )( )= T TAx Ay x y
Si *m n∈A R , la condition d’orthogonalité se traduit par TnI=A A .
Quelques théorèmes 1. Si A est une matrice orthogonale, son inverse et sa transposée le sont également.
2. Le produit de plusieurs matrices orthogonales est une matrice orthogonale.
3. Le déterminant d'une matrice orthogonale est égal à 1± .
16. Valeurs et vecteurs propres
Soit A une matrice carrée, *n n∈A R . Les valeurs propres iλ de cette matrices (appelées
aussi valeurs caractéristiques) sont les racines de l’équation polynomiale :
det( ) 0iλ− =A I
L’ensemble des valeurs propres d’une matrice constitue son spectre.
Patrice Wira - 26 - 1999
Les vecteurs propres (ou vecteurs caractéristiques) iv de cette matrices se déduisent de la
définition suivante :
i i iλ=Av v
Comme le système est indéterminé, les vecteurs propres sont obtenus à une constante
multiplicative près, c’est à dire que l’on détermine des directions propres.
Remarques :
det( ) 0iλ− =A I est appelé polynôme caractéristique de A .
iλ −I A est appelé la matrice caractéristique de A .
Deux matrices sont dites semblables si elles ont le même polynôme caractéristique.
Propriétés Si A est une matrice carrée, *n n∈A R , ayant pour valeurs propres iλ , 1,...,i n= :
1
det( )n
ii
λ=
=∏A
1
trace( )n
ii
λ=
= ∑A
17. Diagonalisation d’une matrice
Si les valeurs propres d’une matrice *n n∈A R sont réelles et simples, on obtient n directions
propres distinctes que l’on peut utiliser comme axes de coordonnées. Dans ce nouveau
système d’axes, la matrice A devient une matrice D diagonale telle que :
1
n
0
0i
λλ
λ
=
D .
Soit P la matrice formée par les composantes des vecteurs propres iv :
[ ]1... ...i n=P v v v .
Cette matrice ( *n n∈P R ) est appelée la matrice modèle de A . On montre alors que (Christol
et al., 1996, p 141) : 1−=D P AP .
La diagonalisation d'une matrice permet de résoudre de façon élégante des problèmes qui
peuvent sembler complexes au premier abord (Rotella et Borne, 1995).
Patrice Wira - 27 - 1999
Elle est souvent, dans le cas des problèmes complexes (les problèmes basés sur l'inversion de
matrices singulières), l'unique façon de procéder. On utilise alors d'autres méthodes pour
calculer les valeurs propres (Strang, 1993).
Les méthodes numériques prennent également de plus en plus d'importance dans le calcul
d'inversion de telles matrices (Stoer et Bulirsch, 1993).
Intérêt de la diagonalisation Considérons le système différentiel linéaire suivant, représenté dans une base quelconque :
=x Ax .
Il est constitué de n équations différentielles du premier ordre dépendantes. Effectuons le
changement de base défini par :
=x Py ou 1−=y P x .
Le système différentiel devient alors : 1 1 1− − −= = =y P x P Ax P APy ,
donc en fait : =y Dy ,
où D est une matrice diagonale. La résolution du système différentiel obtenu par
changement de base se réduit alors à n équations différentielles du premier ordre
indépendantes.
La diagonalisation permet également la simplification et l’étude des formes quadratiques
(Cairoli, 1991). Une autre application directe de la diagonalisation d'une matrice est la calcul
de ces puissances entières.
Puissance n-ème d'une matrice La formule 1−=D P AP avec A une matrice diagonalisable s'écrit aussi 1−=A PDP . On en
déduit que : 1 1 1 1...n n− − − −= =A PDP PDP PDP PD P .
La matrice D (respectivement A ) représente l'endomorphisme (application linéaire) u dans
une base f formée de vecteurs propres (respectivement dans la base canonique e). La formule
précédente exprime simplement le fait que les matrices nD et nA représentent le même
endomorphisme nu respectivement dans la base f et dans la base e.
Le produit de deux matrices est très facile à calculer : la matrice produit est diagonale et le i-
ème terme de sa diagonale est le produit des i-èmes termes des diagonales des deux matrices.
Patrice Wira - 28 - 1999
On en déduit que la puissance n-ème de la matrice diagonale D s'obtient simplement en
élevant à la puissance n chacun des termes de sa diagonale.
18. Formes quadratiques
Une forme quadratique est un polynôme homogène du second degré en n variables
1x , 2x ,..., nx :
11 1
( ,..., )n n
n ij i ji j
f x x a x x= =
= ∑∑ .
On peut représenter la forme quadratique grâce aux notations matricielles. Pour cela,
considérons A une matrice carrée, *n n∈A R , et x un vecteur de n éléments, n∈x R :
[ ]1 ... Tnx x=x , ija = A ,
alors ( ) Tf =x x Ax .
Remarque : On dit que de l’expression ( , ) Tf =x y x Ay qu’elle est de la forme bilinéaire, avec
y un vecteur de dimension n, n∈y R .
Supposons que A soit une matrice réelle.
Toute matrice carrée peut être décomposée en une matrice sA symétrique, Ts s=A A , et en
une matrice aA anti-symétrique, Ta a= −A A .
Ainsi, s a= +A A A avec :
2
T
s+
=A AA et
2
T
a−
=A AA .
Si la matrice A n’est pas symétrique au départ, on peut écrire :
( )T T T Ts a s a= + = +x Ax x A A x x A x x A x .
Dans cette expression, les deux termes sont des scalaires, ils sont donc égaux à leur
transposé, en particulier :
( )T T T T T Ta a a a= = − = −x A x x A x x A x x A x
qui doit être nul, d’où T T
s=x Ax x A x .
On peut donc affirmer sans perdre de généralité que la matrice A de la forme quadratique
est symétrique.
19. Définitivité
On dit qu’une matrice *n n∈A R , est définie positive, 0>A , si la forme quadratique qui lui
est associée est définie positive :
0 0T> ⇔ >A x Ax , 0∀ ≠x .
Patrice Wira - 29 - 1999
A est définie semi-positive, 0≥A , si 0T ≥x Ax pour tout vecteur 0≠x .
A est définie négative, 0<A , si 0T <x Ax pour tout 0≠x .
A est définie semi- négative, 0≤A , si 0T ≤x Ax pour tout vecteur 0≠x .
On parle, selon la cas, de positivité ou de négativité.
En fait, une forme quadratique est dite non définie si son signe dépend du vecteur x .
Pour tester la positivité d’une matrice, on peut utiliser le critère de Sylvester qui dit qu’une
matrice est définie positive si tous ses mineurs principaux sont positifs :
0 ssi 0im> >A , 1,...,i n∀ = .
Ce critère n’est plus valable pour la semi-positivité :
0 ssi m 0i≥ ≥A , 1,...,i n∀ = n’est pas vrai, mais :
0 ssi m 0i≥ ≥A et 0ijm ≥ , 1,...,i n∀ = , 1,...,j n∀ = .
Les mêmes raisonnements sont valables pour les cas négatifs.
Cela peut également se vérifier en utilisant les valeurs propres iλ , 1,...,i n∀ = , de la matrice
A :
0 ssi 0iλ> >A ,
0 ssi 0iλ≥ ≥A ,
0 ssi 0iλ< <A ,
0 ssi 0iλ≤ ≤A .
20. Changement de base
Définition d'une base Lorsqu'on travaille avec les combinaisons linéaires, il est commode d'introduire la notion de
famille de vecteurs d'un espace E qui généralise la notion de partie. Dans une famille, les
vecteurs sont rangés dans un certain ordre et le même vecteur peut apparaître plusieurs fois
(dans le langage des dénombrements mathématiques, une famille est un arrangement avec
répétition, alors qu'une partie est une combinaison). Les familles les plus intéressantes sont
celles ayant un nombre n fini d'éléments et pour lesquelles les vecteurs sont distincts. Ces
considérations faites, la différence entre famille et partie ne concerne alors plus que l'ordre des
vecteurs. On note une famille de n vecteurs indicés par l'ensemble 1,..., I n= par ( )i i Ia ∈ ou
plus simplement, ( )ia .
Patrice Wira - 30 - 1999
Une famille de vecteurs libre est un ensemble de vecteurs linéairement indépendants. A
l'inverse, une famille liée contient au moins un vecteur qui est une combinaison linéaire des
autres.
On dit que la famille A est génératrice d'un sous-espace vectoriel F de E si A est contenu
dans F et si tout vecteur de F est une combinaison linéaire de vecteurs de A.
Une famille de vecteurs d'un espace vectoriel E qui est à la fois libre et génératrice de E est
appelé base de E.
Exemple : la base canonique.
La famille 1 2( , ,... )ne e e formée des n vecteurs 1 (1,0,...0)=e , 2 (0,1,0,...0)=e , …
(0,0,...,1,0,...0)i =e , … (0,0,...,0,1)n =e de nR est une base de nR appelée base canonique.
Application : plusieurs repères dans l'espace 3D L’objectif que l’on se fixe est de représenter n’importe point de l'espace 3D dans plusieurs
bases.
On se place dans un repère 3D 1R , défini par une base orthonormée. A partir de ce premier
repère, on définit par rapport à 1R un second repère 2R , également défini par une base
orthonormée.
Le passage d'un repère à un autre fait intervenir deux opérations essentielles : la translation
et la rotation.
Le repère 2R est donc défini par la position de son origine 2O dans le repère 1R (c'est la
translation, définie par un vecteur 3∈t R ) et par l'orientation des vecteurs formant sa base
(c'est la rotation, définie par une matrice 3*3∈A R ) par rapport à ceux qui constituent la
base de 1R .
Considérons dans un premier temps qu'une simple translation de [ ]4 2 2 T=t comme le
montre la figure suivante.
S'il n'y a pas de rotation pour passer d'un repère à l'autre, la matrice de rotation est la
matrice identité : 3I=A .
Patrice Wira - 31 - 1999
0 1 2 3 4 5 60
1
2
3
4
P
O2
x
y
Q
O1 Figure 5 : Les points P et Q dans le premier repère
par rapport aux axes x et y.
0 1 2 3 4 5 60
1
2
3
4
O2
O1
P
Q
z
y
Figure 6 : Les points P et Q dans le premier repère
par rapport aux axes y et z.
Connaissant les coordonnées d'un point [ ]1 1 1 T=2RP dans le repère 2R , on veut connaître
ses coordonnées 1RP dans le repère 1R :
= +A t1 2R RP P .
On trouve alors : [ ]5 3 3 T=1RP .
On peut poser le problème inverse : quelles sont les coordonnées dans 2R d'un point défini
dans 1R ?
Dans 1R définissons le point Q tel que [ ]1 1 1 T=1RQ . Les coordonnées de Q dans 2R sont
données par l'application inverse à celle définie précédemment :
Q= +A t1 2R RQ ,
1 )Q −= −A t2 1R R(Q .
L'application numérique donne [ ]3 1 1 T= − − −2RQ .
Considérons maintenant, que le passage de 1R à 2R ne se fasse non seulement par la
translation de [ ]4 2 2 T=t mais aussi par une rotation définie par la matrice
0 1 00 0 11 0 0
− = −
A (les angles d'Euler équivalents sont : [ ] [ ]0 / 2 / 2T Tψ ϑ ϕ π π= ).
Patrice Wira - 32 - 1999
01
23
45 0
1
2
3
4
5
0
1
2
3
4
5
y
x
z
0 1 2 3 4
0
1
2
3
4
x
y
0 1 2 3 40
1
2
3
4
x
z
0 1 2 3 4
0
1
2
3
4
y
z
Figure 7 : Un cube dans un espace 3D, le point Q est représenté par un cercle magenta.
Le point S, défini dans 2R par [ ]1 1 1 T=2RS et représenté sur les figures précédentes par
un cercle (un des sommets du cube) a pour coordonnées dans 1R 1RS selon la formule :
S= +A t1 2R RS ,
soit après calcul, [ ]3 1 3 T=1RS .
Le point T, défini dans le repère 1R par [ ]3 8 3 T= −1RT voit ses coordonnées
2RT dans
2R données par l'application inverse : 1 )T −= −A t
2 1R R(T .
Le calcul donne [ ]1 1 10 T=2RT .
On voit finalement, que le passage d'un repère à l'autre utilise une multiplication à gauche,
que ce soit pour passer de 1R à 2R , ou inversement de 2R à 1R . La multiplication à cause
peut donc de façon générale être assimilé à un changement de base.
Patrice Wira - 33 - 1999
Application : les axes principaux d'une ellipse L’objectif que l’on se fixe est de représenter n’importe quelle ellipse en coordonnées polaires.
Dans un premier temps, on rappelle un cas particulier, celui où les axes de l’ellipse sont
parallèles aux axes de coordonnées. On généralisera ensuite pour le cas des axes quelconques.
Axes de l’ellipse parallèles aux axes de coordonnées :
L'équation d'une ellipse est donnée par : 2 2
0 0( ) ( )a x x b y y d− + − = ,
avec 0 0, x y le centre de l’ellipse et a ,b et d positifs.
On peut aussi écrire : 2 2
0 02 2
( ) ( ) 1a b
x x y yρ ρ− −
+ = ,
avec /a d aρ = et /b d bρ = .
Les coordonnées polaires qui représentent cette ellipse sont alors :
0
0
cos( )cos( )
a
b
x xy y
ρ ϑρ ϑ
= +
= +
avec 0 2ϑ π≤ ≤ .
Axes de l’ellipse quelconques :
L'équation générale d'une ellipse quelconque décrite dans un référentiel est : 2 2
0 0 0 0( ) ( ) 2 ( )( )a x x b y y c x x y y d− + − + − − = .
On peut aussi l’écrire sous forme quadratique :
[ ] 00 0
0
x xa cx x y y d
y yc b−
− − = − .
Soit, en notation matricielle : T d=x Ax .
La courbe correspondante est une ellipse si la matrice A est définie positive, c’est à dire si a
et b sont positifs et si det( ) 0>A , soit 2ab c> .
Caractériser une ellipse revient à déterminer ses axes principaux qui sont les directions
propres de la matrice A . Les vecteurs propres de A sont définis par :
det( ) 0iλ− =A I ,
Patrice Wira - 34 - 1999
soit, 2 2a+b ( ) 4=
2ia b cλ ± − +
.
Soient 1d et 2d les directions propres et 1v et 2v les vecteurs propres A . Les vecteurs
propres vérifient la relation :
i i iλ=Av v .
Ces vecteurs sont définis à une constante près : on ne connaît que leurs directions 1d et 2d ,
soit :
1 1 1 1
2 2 2 2
: ( ) /avec : ( ) /avec
d y x a cd y x a c
α α λα α λ
= = − = = −
Soient v et w les coordonnées d’un point dans les axes définis par les directions 1d et 2d .
Avec ces coordonnées, l’équation de l’ellipse s’écrit : 2 2
1 2v w dλ λ+ = ,
ou 2 2
2 21 2
1v wρ ρ
+ = ,
avec 1 1/dρ λ= et 2 2/dρ λ= .
On peut donc facilement tracer l’ellipse avec les coordonnées , v w , puis passer dans les axes
, x y par une matrice de changement de base.
Soit B la matrice de changement de base telle que :
x vy w
=
B
On démontre alors que :
2 21 2
1 22 21 1
1 11 1
1 1
α α
α αα α
+ + =
+ +
B .
21. Matrice racine carrée
Patrice Wira - 35 - 1999
Toute matrice A , *n n∈A R , définie semi-positive, 0≥A , peut être factorisée en deux
matrices racines carrées tel que : T=A A A ou T=A A A .
Les matrices racines carrées « gauche » et « droite » des deux expressions précédentes ne
sont pas forcément les mêmes.
Il peut y avoir plusieurs matrices racines carrées, et de toutes sortes. En fait, si M est une
matrice orthogonale, 1T −=M M , *n n∈M R , alors on montre que : T T=A A M M A .
T TA M est une matrice racine carrée de A .
Si 0>A , alors toutes les matrices racines carrées de A sont non singulières.
Patrice Wira - 36 - 1999
Les fonctions vectorielles (matrix calculus)
1. La différentiation et l’intégration par rapport à un scalaire
Soit x vecteur, n∈x R et soit A une matrice, *m n∈A R .
La dérivée du vecteur x par rapport à un scalaire t vaut :
1
n
x t
tx t
∂ ∂ ∂ = ∂
∂ ∂
x et [ ]1
T
nx t x tt
∂= ∂ ∂ ∂ ∂
∂x
.
La dérivée de la matrice A par rapport à un scalaire t vaut :
ijat t
∂ ∂= ∂ ∂
A.
Quelques propriétés sur la dérivation : Soient *m n∈A R et *m n∈B R des matrices et soit n∈x R un vecteur :
( )t t t∂ ∂ ∂
+ = +∂ ∂ ∂
A BA B
( )t t t∂ ∂ ∂
= +∂ ∂ ∂
A BAB B A
1 2 1n
n n n
t t t t− − −∂ ∂ ∂ ∂
= + + +∂ ∂ ∂ ∂A A A AA A A A
11 1
t t
−− −∂ ∂
= −∂ ∂A AA A
trace( )t t
∂ ∂=
∂ ∂A A A
1( ) 0t t
−∂ ∂= =
∂ ∂AA I
Remarque : dérivée d'un déterminant par un scalaire
La dérivée det( )t∂∂
A du déterminant d'une matrice *n n∈A R est la somme des n
déterminants obtenus en remplaçant de toutes les manières possibles les éléments d'une ligne
(colonne) de det( )A par leurs dérivées par rapport à t.
Patrice Wira - 37 - 1999
Si x est un vecteur, n∈x R et si A est une matrice, *m n∈A R , leur intégration par rapport
à un scalaire t donne :
1
n
x t
t
x t
∂
∂ =
∂
∫∫
∫x et 1
Tnt x t x t ∂ = ∂ ∂ ∫ ∫ ∫x ,
ijt a t ∂ = ∂ ∫ ∫A .
2. Définition d'une fonction vectorielle
Un ensemble de fonctions multivariables à valeurs réelles, 1( )f x , 2 ( )f x , ..., ( )mf x , n∈x R ,
peut être représenté par une unique fonction vectorielle, : n m→f R R , : nif →R R :
[ ]1 2( ) ( ) ( ) ( ) Tmf f f=f x x x x .
Si ( )f x est une fonction vectorielle, [ ]1 2( ) ( ) ( ) ( ) Tmf f f= =y f x x x x , où n∈x R et
: n m→f R R .
La dérivée de la fonction f relative à une constante t vaut : ( ) 2T T T
t∂
= + =∂yQy y Qy y Qy y Qy avec
( )t t
∂ ∂= =∂ ∂y f xy et avec Q une matrice de
pondération.
3. Le gradient d’une fonction scalaire
Soit une fonction multivariable à valeurs scalaires, définie par :
1 2( ) ( , , , )mf f x x x=x , : nf →R R .
x est un vecteur de dimension n, n∈x R .
Le gradient de la fonction f par rapport à x a pour expression :
2*1
( ) ( ) ( ) ( ) ( )( )T
i i nn
f f f f ffx x x x
∂ ∂ ∂ ∂ ∂= ∇ = = ∂ ∂ ∂ ∂ ∂
xx x x x xx
x.
Le vecteur gradient représente le vecteur des dérivées premières de la fonction f.
Le gradient de la fonction scalaire ( ) Tf =x x Qx , avec Q une matrice de pondération, *n n∈Q R , n∈x R , vaut :
Patrice Wira - 38 - 1999
( )( ) 2 Tff ∂∇ = =
∂xxx x Q
x.
4. La Jacobienne d’une fonction vectorielle
Soit une fonction vectorielle [ ]1 2( ) ( ) ( ) ( ) Tmf f f=f x x x x , où n∈x R et
: n m→f R R .
La matrice des dérivées premières de la fonction f relatives aux composantes jx du vecteur
x s’écrit :
( ) ( )( ) i
j
fx
∂ ∂= = ∂ ∂
f x xJ xx
.
On appelle cette matrice la matrice Jacobienne de f . Cette matrice s’écrit également :
1 1
11
1
( ) ( )( )
( )( ) ( ) ( )
Tn
Tm m m
n
f fx xf
f f fx x
∂ ∂ ∂ ∂∇ = = ∇ ∂ ∂
∂ ∂
x
x
x xx
J xx x x
.
5. La Hessienne d’une fonction scalaire
Etant donné une fonction scalaire ( )f x , : nf →R R . La matrice Hessienne de ( )f x
relative au vecteur n∈x R est définie comme la matrice symétrique suivante : 2
*
( )( )i j n n
fx x
∂= ∂ ∂
xH x .
En notant ( )f x la fonction vectorielle qui vaut :
2*1
( ) ( ) ( ) ( ) ( )( ) ( ) T
i i nn
f f f f ffx x x x
∂ ∂ ∂ ∂ ∂= ∇ = = = ∂ ∂ ∂ ∂ ∂
xx x x x xf x x
x,
La matrice Hessienne s’écrit :
Patrice Wira - 39 - 1999
[ ] 2
2 2
1 1 1
2 2
1 *
( ) ( )( ) ( ) ( ) ( )
( ) ( )
( ) ( )
TT
n
n n n n n
ff f
f fx x x x
f fx x x x
∂ ∂ ∂ ∂ = = ∇ = ∇ = = ∇ ∂ ∂ ∂ ∂
∂ ∂ ∂ ∂ ∂ ∂ = ∂ ∂ ∂ ∂ ∂ ∂
x x xxf x xH x f x x x
x x x x
x x
x x
.
La matrice Hessienne est la matrice des dérivées secondes de la fonction scalaire f
relativement au vecteur n∈x R . Elle représente la matrice Jacobienne du gradient de la
fonction scalaire f.
6. La dérivation chainée
Soit la fonction scalaire composée : ( ) ( (( ))f h g=x x , n∈x R et : nf →R R .
La règle de dérivation chaînée permet d’écrire :
i i
f h gx g x∂ ∂ ∂
=∂ ∂ ∂
.
Dans le cas général, si : r m→h R R , : n r→g R R et : n m→f R R , alors :
( ) ( ( )) ( )∇ = ∇ ∇x g xf x h g x g x .
7. Expansions en série de Taylor et de Maclaurin
Expansion en série de Taylor d'une fonction scalaire multivariable Soit une fonction scalaire multivariable ( )f x , : nf →R R , n∈x R .
L’expansion en série de Taylor de ( )f x au voisinage d’un point 0x en termes de
0 0i i ix x x∆ = − = ∆ = −x x x (i = 1, ..., n) s’exprime ainsi : 2
0 0 01 1 1
( ) 1 ( )( ) ( ) ( ) ( )2
n n n
i i ji i ji i j
f ff f f x x xx x x
ε= = =
∂ ∂= + ∆ = + ∆ + ∆ ∆ +
∂ ∂ ∂∑ ∑∑x xx x x x x
où 0( )ε x sont les termes d’ordres supérieur impliquants les dérivées partielles d’ordre
supérieur, négligeables lorsque ∆x est suffisamment petit.
En notation vectorielle, on obtient :
20 0 0 0
1( ) ( ) ( ) ( ) ( )2
T Tf f f ε= + ∆ ∇ + ∆ ∇ ∆ +x xx x x f x x x x x
Patrice Wira - 40 - 1999
Série de Taylor à deux variables Soit une fonction scalaire ( , )f x y à deux variables admettant des dérivées partielles d’ordre
n+1 dans un certain domaine, pour des points 0 0( , )x y et ( , )x y .
L’expansion en série de Taylor de ( , )f x y au voisinage d’un point 0 0( , )x y est :
0 0 0 00 0 0 0
2 2 2 2 20 0 0 0 0 0 0 0
0 0 0 02 2
( , ) ( , )( , ) ( , ) ( ) ( )
( ) ( , ) ( , ) ( ) ( , )( )( ) ( , )2 2
f x y f x yf x y f x y x x y yx y
x x f x y f x y y y f x yx x y y x yx x y y
ε
∂ ∂= + − + −
∂ ∂
− ∂ ∂ − ∂+ + − − + +
∂ ∂ ∂ ∂
Avec 0x x x∆ = − et 0y y y∆ = − , on a :
0 0 0 00 0 0 0
2 2 2 2 20 0 0 0 0 0
0 02 2
( , ) ( , )( , ) ( , )
( , ) ( , ) ( , ) ( , )2 2
f x y f x yf x x y y f x y x yx y
x f x y f x y y f x yx y x yx x y y
ε
∂ ∂+ ∆ + ∆ = + ∆ + ∆
∂ ∂
∆ ∂ ∂ ∆ ∂+ + ∆ ∆ + +
∂ ∂ ∂ ∂
Par rapport au cas multivariable, on a posé : [ ]Tx y=x , [ ]0 0 0Tx y=x .
Série de Taylor à une variable (à l’ordre n) L’expansion en série de Taylor à l'ordre n d'une une fonction scalaire ( )f x dépendant d'une
unique variable x est : 2 2
0 0 0 0 00 0 02
( ) ( ) ( ) ( ) ( )( ) ( ) ( ) ... ( )2 !
n n
n
f x x x f x x x f xf x f x x x xx x n x
ε∂ − ∂ − ∂= + − + + + +
∂ ∂ ∂,
c'est à dire, avec 0x x x∆ = − et 0y y y∆ = − : 2 2
0 0 00 0 02
( ) ( ) ( )( ) ( ) ... ( )2 !
n n
n
f x x f x x f xf x x f x x xx x n x
ε∂ ∆ ∂ ∆ ∂+ ∆ = + ∆ + + + +
∂ ∂ ∂.
Série de Maclaurin à une variable (à l’ordre n) L’expansion en série de Maclaurin est un cas particulier de celle de la série de Taylor. Cette
particularité est marquée par le fait que l'expansion se fait autour de 0 0x = ce qui revient à
dire que x x∆ = : 2 2
2
(0) (0) (0)( ) (0) ...2 !
n n
n
f x f x ff x f xx x n x
∂ ∂ ∂= + + + +
∂ ∂ ∂.
Patrice Wira - 41 - 1999
Série de Maclaurin à deux variables Soit une fonction scalaire ( , )f x y à deux variables. Son expansion en série de Maclaurin
s'écrit : 2 2 2 2 2
2 2
(0,0) (0,0) (0,0) (0,0) (0,0)( , ) (0,0) ...2 2
f f x f f y ff x y f x y xyx y x x y y
∂ ∂ ∂ ∂ ∂= + + + + + +
∂ ∂ ∂ ∂ ∂ ∂.
Expansion en série de Maclaurin d'une fonction scalaire multivariable Si ( )f x est une fonction scalaire multivariable, : nf →R R , n∈x R , son expansion en série
de Maclaurin au voisinage de 0x et en termes de 0 0i i ix x x∆ = − = ∆ = −x x x (i = 1, ..., n) est
donné par : 2
1 1 1
(0) 1 (0)( ) (0) ...2
n n n
i i ji i ji i j
f ff f x x xx x x= = =
∂ ∂= + + +
∂ ∂ ∂∑ ∑∑x .
La notation vectorielle est plus adaptée :
21( ) (0) (0) (0) ...2
T Tf f f= + ∇ + ∇ +x xx x f x x .
Patrice Wira - 42 - 1999
Bibliographie
Ayres, F., Jr., 1991. Matrices : cours et problèmes, McGraw Hill, New York.
Cairoli, R., 1996. Algèbre linéaire, Presses Polytechniques et Universitaires Romandes,
Lausanne.
Christol, G., Pilibossian, P., and Yammine, S., 1996. Algèbre, cours et exercices corrigés,
Ellipses-Edition Marketing, Paris.
Kohonen, T., 1984. Self-Organization and Associative Memory, Springer-Verlag, Berlin.
Rotella, F., and Borne, P., 1995. Théorie et pratique du calcul matriciel, Editions Technip,
Paris.
Stoer, J., and Bulirsch, R., 1993. Introduction to Numerical Analysis, Springer-Verlag, New
York.
Strang G., 1993. Introduction to Linear Algebra, .Welleley Cambridge Press, Wellesley.
Annexe
Alphabet Grec
Alpha Α α Nu Ν ν
Bêta Β β Xi Ξ ξ
Gamma Γ γ Omicron Ο ο
Delta ∆ δ Pi Π π
Epsilon Ε ε Rhô Ρ ρ
Zêta Ζ ζ Sigma Σ σ
Êta Η η Tau Τ τ
Thêta Θ θ Upsilon Υ υ
Iota Ι ι Phi Φ φ, ϕ
Kappa Κ κ Khi Χ χ
Lambda Λ λ Psi Ψ ψ
Mu Μ µ Oméga Ω ω