47
Un rappel sur les matrices Patrice Wira Université de Haute-Alsace Faculté des Sciences et Techniques 2000 - 2001

Un rappel sur les matrices - Laboratoire MIPS - TROP Calculs matriciels (matrix algebra) 1 1. Représentation matricielle et notations 1 2. L’addition

  • Upload
    dangnga

  • View
    215

  • Download
    0

Embed Size (px)

Citation preview

Page 1: Un rappel sur les matrices - Laboratoire MIPS - TROP Calculs matriciels (matrix algebra) 1 1. Représentation matricielle et notations 1 2. L’addition

Un rappel

sur les matrices

Patrice Wira

Université de Haute-Alsace Faculté des Sciences et Techniques

2000 - 2001

Page 2: Un rappel sur les matrices - Laboratoire MIPS - TROP Calculs matriciels (matrix algebra) 1 1. Représentation matricielle et notations 1 2. L’addition
Page 3: Un rappel sur les matrices - Laboratoire MIPS - TROP Calculs matriciels (matrix algebra) 1 1. Représentation matricielle et notations 1 2. L’addition

Sommaire Calculs matriciels (matrix algebra) ........................................................................................ 1

1. Représentation matricielle et notations................................................................................................. 1 2. L’addition ................................................................................................................................................ 1

L’addition matricielle...................................................................................................................................... 1 Propriétés de l’addition ................................................................................................................................... 2 Exemples : l’addition et la soustraction matricielle ........................................................................................ 2 Exemples : l’addition et la combinaison linéaire de deux vecteurs................................................................. 3

3. Le produit ................................................................................................................................................ 3 La multiplication d’une matrice avec un scalaire............................................................................................ 3 Propriétés de la multiplication entre une matrice et un scalaire ...................................................................... 4 La multiplication matricielle ........................................................................................................................... 4 Propriétés élémentaires de la multiplication matricielle.................................................................................. 4 Quelques exemples.......................................................................................................................................... 5 Un produit matriciel particulier : le produit de Hadamard .............................................................................. 5

4. Les produits vectoriels............................................................................................................................ 5 Le produit interne............................................................................................................................................ 6 Le produit vectoriel ......................................................................................................................................... 7 Le produit mixte.............................................................................................................................................. 7 Le produit externe ........................................................................................................................................... 7 Propriétés des produits scalaire et vectoriel .................................................................................................... 8 Interprétation géométrique .............................................................................................................................. 8 Exemples :..................................................................................................................................................... 10

5. L’opérateur de transposition ............................................................................................................... 10 Propriétés élémentaires de la transposition ................................................................................................... 10

6. Matrices particulières........................................................................................................................... 10 La matrice nulle ............................................................................................................................................ 10 Matrice diagonale.......................................................................................................................................... 11 La matrice identité......................................................................................................................................... 11 Matrice triangulaire....................................................................................................................................... 11 Matrices symétrique et antisymétrique.......................................................................................................... 11 Matrice idempotente...................................................................................................................................... 11 Propriétés de la matrice nulle ........................................................................................................................ 11 Propriété de la matrice identité...................................................................................................................... 12

7. Matrices partitionnées.......................................................................................................................... 12 8. Le déterminant d’une matrice ............................................................................................................. 13

Quelques propriétés du déterminant d’une matrice :..................................................................................... 13 Quelques théorèmes ...................................................................................................................................... 13

9. Les mineurs, les cofacteurs et la matrice adjointe ............................................................................. 14 Les mineurs ................................................................................................................................................... 14 Les mineurs directeurs .................................................................................................................................. 14 Les cofacteurs ............................................................................................................................................... 14 La matrices adjointe ...................................................................................................................................... 15

Page 4: Un rappel sur les matrices - Laboratoire MIPS - TROP Calculs matriciels (matrix algebra) 1 1. Représentation matricielle et notations 1 2. L’addition

Propriétés ...................................................................................................................................................... 15 Exemples....................................................................................................................................................... 15 Calcul du déterminant d’une matrice avec les cofacteurs ............................................................................. 15 Calcul de la solution d’un système d’équations linéaires - Règle de Cramer................................................ 16

10. Matrice inverse et pseudo-inverse ....................................................................................................... 17 1er cas, m = n : ............................................................................................................................................ 18 Propriétés de la matrice inverse : .................................................................................................................. 18 Calcul de la matrice inverse : ........................................................................................................................ 18 Calcul de l'inverse d'une matrice partitionnée............................................................................................... 19 2ème cas, m < n :.......................................................................................................................................... 19 3ème cas, m > n :.......................................................................................................................................... 19 Propriétés de la pseudo-inverse :................................................................................................................... 20 Détermination récursive de la pseudo-inverse (théorème de Gréville) : ....................................................... 20 Le Lemme d’inversion matricielle (The matrix inversion Lemma) .................................................... 20 Le noyau d'une matrice ................................................................................................................................. 21 Résolution de l’équation =AXB C ........................................................................................................... 21

11. Indépendance linéaire de vecteurs, la singularité .............................................................................. 22 12. Le rang d’une matrice .......................................................................................................................... 22

Propriété :...................................................................................................................................................... 22 13. La trace d’une matrice ......................................................................................................................... 23

Propriété :...................................................................................................................................................... 23 14. La norme ............................................................................................................................................... 23

La norme vectorielle ..................................................................................................................................... 23 La norme matricielle ..................................................................................................................................... 24

15. L’orthogonalité ..................................................................................................................................... 25 Propriétés ...................................................................................................................................................... 25 Quelques théorèmes ...................................................................................................................................... 25

16. Valeurs et vecteurs propres ................................................................................................................. 25 Propriétés ...................................................................................................................................................... 26

17. Diagonalisation d’une matrice ............................................................................................................. 26 Intérêt de la diagonalisation .......................................................................................................................... 27 Puissance n-ème d'une matrice...................................................................................................................... 27

18. Formes quadratiques............................................................................................................................ 28 19. Définitivité ............................................................................................................................................. 28 20. Changement de base ............................................................................................................................. 29

Définition d'une base..................................................................................................................................... 29 Application : plusieurs repères dans l'espace 3D .......................................................................................... 30 Application : les axes principaux d'une ellipse ............................................................................................. 33

21. Matrice racine carrée ........................................................................................................................... 34 Les fonctions vectorielles (matrix calculus) ......................................................................... 36

1. La différentiation et l’intégration par rapport à un scalaire ............................................................ 36 Quelques propriétés sur la dérivation :.......................................................................................................... 36

2. Définition d'une fonction vectorielle ................................................................................................... 37 3. Le gradient d’une fonction scalaire..................................................................................................... 37 4. La Jacobienne d’une fonction vectorielle............................................................................................ 38 5. La Hessienne d’une fonction scalaire .................................................................................................. 38 6. La dérivation chainée ........................................................................................................................... 39 7. Expansions en série de Taylor et de Maclaurin.................................................................................. 39

Expansion en série de Taylor d'une fonction scalaire multivariable ............................................................. 39 Série de Taylor à deux variables ................................................................................................................... 40 Série de Taylor à une variable (à l’ordre n)................................................................................................... 40 Série de Maclaurin à une variable (à l’ordre n) ............................................................................................. 40 Série de Maclaurin à deux variables.............................................................................................................. 41 Expansion en série de Maclaurin d'une fonction scalaire multivariable........................................................ 41

Bibliographie........................................................................................................................... 42 Annexe ..................................................................................................................................... 42

Page 5: Un rappel sur les matrices - Laboratoire MIPS - TROP Calculs matriciels (matrix algebra) 1 1. Représentation matricielle et notations 1 2. L’addition
Page 6: Un rappel sur les matrices - Laboratoire MIPS - TROP Calculs matriciels (matrix algebra) 1 1. Représentation matricielle et notations 1 2. L’addition

Patrice Wira - 1 - 1999

Calculs matriciels (matrix algebra)

1. Représentation matricielle et notations

Une matrice est un tableau rectangulaire d’éléments, généralement des nombres ou des

fonctions. Ces grandeurs sont généralement des réels ou des complexes. Dans la suite, nous ne

considérerons que des grandeurs réelles. Une matrice A de dimension m*n est notée *m n∈A R . Cette matrice est une matrice de m lignes et de n colonnes :

11 1

1

n

ij ij

m mn

a aa a

a a

= =

A .

Une matrice V qui ne comporte qu’une seule colonne, *1m∈V R , est appelé un vecteur

colonne :

1

2

v

v

=

V .

Une matrice V qui ne comporte qu’une seule ligne, 1*n∈V R , est appelé un vecteur ligne :

[ ]1 2v v=V .

Par convention, tout vecteur est désigné comme une matrice colonne.

Si m = n, alors la matrice est carrée.

2. L’addition

L’addition matricielle L’addition matricielle n’est définie qu’entre deux matrices de même dimensions. La matrice

résultante est de la même dimension que les matrices additionnées et chacun de ses éléments

est la somme des éléments des deux matrices correspondant à la même ligne et à la même

colonne.

Soient *m n∈A R et *m n∈B R . L’addition de ces deux matrices est donnée par :

ij ij ijc a b = = + C .

On la note : = +C A B , *m n∈C R .

Il en va de même pour la soustraction, au signe près. La soustraction des matrices A et B

est donnée par :

ij ij ijc a b = = − C .

Page 7: Un rappel sur les matrices - Laboratoire MIPS - TROP Calculs matriciels (matrix algebra) 1 1. Représentation matricielle et notations 1 2. L’addition

Patrice Wira - 2 - 1999

On la note : = −C A B , *m n∈C R .

Propriétés de l’addition En considérant trois matrices, *m n∈A R , *m n∈B R et *m n∈C R , on a les trois propriétés

suivantes :

+ = +A B B A Commutativité (commutative law).

( )+ = +C A B CA CB Distributivité (distributive law).

( ) ( )+ + = + +A B C A B C Associativité (associative law).

Exemples : l’addition et la soustraction matricielle

Si 2*3∈A R et 2*3∈B R tel que 1 4 02 7 3

=

A , 5 2 60 1 1

=

B , alors :

1 5 4 2 0 6 6 6 62 0 7 1 3 1 2 8 4+ + +

+ = = + + + A B et

4 2 62 6 2− −

− =

A B .

Page 8: Un rappel sur les matrices - Laboratoire MIPS - TROP Calculs matriciels (matrix algebra) 1 1. Représentation matricielle et notations 1 2. L’addition

Patrice Wira - 3 - 1999

Exemples : l’addition et la combinaison linéaire de deux vecteurs

L'addition de deux vecteurs (de dimensions

2, 2, ∈v w R ) permet de définir un

parallélogramme. Le vecteur résultant u

est une des diagonale du parallélogramme.

Prenons par exemple 42

=

v et

13−

=

w , on obtient alors :

4 1 32 3 5

− = + = + =

u v w

| | | | | | | |vw

u

------

Figure 1: L'addition de deux vecteurs.

Une combinaison linéaire de deux vecteurs 2∈v R et 2∈w R est l'addition de deux

vecteurs à qui on fait subir un changement

de longueur par des coefficients scalaires.

Reprenons les vecteurs exemple 42

=

v et

13−

=

w :

4 12 2

2 3

8 1 9 94 3 1 1

− = − + = − +

− − −

= + = = − − −

u v w

| | | | | | | | | | | | |

-2 v

w

u

--------

Figure 2 : La soustraction de deux vecteurs.

3. Le produit

La multiplication d’une matrice avec un scalaire La multiplication entre une matrice et un nombre scalaire donne une matrice dont chaque

élément de la matrice est multiplié par le scalaire.

Etant donné *m n∈A R une matrice, et b un scalaire, alors les éléments de la matrice C

résultante sont donnés par :

ij ikc ba= .

La matrice b=C A est de même dimension que A , *m n∈C R .

Page 9: Un rappel sur les matrices - Laboratoire MIPS - TROP Calculs matriciels (matrix algebra) 1 1. Représentation matricielle et notations 1 2. L’addition

Patrice Wira - 4 - 1999

Propriétés de la multiplication entre une matrice et un scalaire Si c est un scalaire, alors :

c c=A A Commutativité, *m n∈A R .

( )c c c+ = +A B A B Distributivité, *m n∈A R et *m n∈B R .

( ) ( ) ( ) ( )c c c c= = =AB A B A B AB Associativité, où AB est la multiplication

matricielle entre les matrices *m n∈A R et

*n p∈B R .

Si c et b sont des scalaires, alors :

( )b c b c+ = +A A A Distributivité, *m n∈A R .

( ) ( )bc b c=A A Associativité, *m n∈A R .

La multiplication matricielle La multiplication entre deux matrices n’est définie que lorsque leurs dimensions son

compatibles : le nombre de colonnes de la matrice à gauche de l’opérateur doit correspondre

au nombre de lignes de la matrice à droite de l’opérateur.

Si *m n∈A R , et si B *n p∈R , la multiplication entre les matrices A et B donne une

matrice C de dimensions m*p telle que tous ses éléments :

1

n

ij ik kjk

c a b=

= ∑ .

On note cette opération : *= =C A B AB , . .

Propriétés élémentaires de la multiplication matricielle ≠AB BA La commutativité n’est pas toujours vraie

(the commutative law is usually broken).

( )+ = +C A B CA CB Distributivité à gauche

(distributive law from the left)

avec A , B *m n∈R et C *p m∈R .

Page 10: Un rappel sur les matrices - Laboratoire MIPS - TROP Calculs matriciels (matrix algebra) 1 1. Représentation matricielle et notations 1 2. L’addition

Patrice Wira - 5 - 1999

( )+ = +A B C AC BC Distributivité à droite

(distributive law from the right)

avec A , B *m n∈R et C *n p∈R .

( ) ( )=A BC AB C Associativité (associative law)

avec A *m n∈R , B *n p∈R et C *p q∈R .

Quelques exemples

• Si 2*2∈A R et 2*3∈B R tel que 5 34 2

− =

A , 8 2 67 0 9

− =

B , alors

5 3 8 2 6 5(8) ( 3)(7) 5( 2) ( 3)0 5(6) ( 3)(9) 19 10 34 2 7 0 9 4(8) 2(7) 4( 2) 2(0) 4(6) 2(9) 46 8 42

− − + − − + − + − − = = = + − + + −

AB

• Si on dispose d’un vecteur ligne 4∈x R et d’un vecteur colonne 4∈y R tel que

[ ]1 3 5 1= −x et [ ]2 4 2 6 T= −y , alors

[ ] [ ]

24

1 3 5 1 1( 2) 3(4) 5(2) ( 1)(6) 1426

− = − = − + + + − =

xy .

Un produit matriciel particulier : le produit de Hadamard La matrice résultante du produit de Hadamard entre deux matrices de même taille contient

le résultat d’une multiplication élément par élément.

On note le produit entre les matrices *m n∈A R et *m n∈B R :

= ⊗C A B , *m n∈C R ,

ij ij ijc a b = = C .

4. Les produits vectoriels

Si l’addition de vecteur n’est pas très différente de l’addition matricielle, il n’en va pas de

même en ce qui concerne la multiplication. En effet, multiplier deux vecteurs n’a pas la même

Page 11: Un rappel sur les matrices - Laboratoire MIPS - TROP Calculs matriciels (matrix algebra) 1 1. Représentation matricielle et notations 1 2. L’addition

Patrice Wira - 6 - 1999

signification que multiplier deux matrices, c’est pourquoi on distingue les produits vectoriels

des produits matriciels.

La multiplication de deux vecteurs peut être définie de trois façon différentes, selon que le

résultat est un scalaire, un vecteur ou une matrice. On les appelle respectivement produit

interne (scalaire), vectoriel et produit externe.

Les produits interne et externe sont des cas particulier de la multiplication matricielle définie

en toute généralité précédemment.

Le produit interne Soient deux vecteurs de même dimension, n∈x R et n∈y R . On appelle produit interne (en

Anglais on parlera de « inner product » ou de « vector dot product ») la somme des

multiplications éléments par éléments de chaque vecteur :

1

,n

T T Ti i

i

y x=

= = = ∑x y x y y x .

Cette opération retourne un scalaire. Le produit interne est aussi appelé produit scalaire, il

n’est défini que si les deux vecteurs sont de même taille.

Le produit interne est un moyen de mesurer comment deux vecteurs sont parallèles. Deux

vecteurs sont orthogonaux si leur produit scalaire est nul.

Remarque : angle en deux vecteurs.

Si deux vecteurs qui ne sont pas parallèles forment un angle entre eux.

Si x et y sont deux vecteurs Euclidiens, alors ils forment un angle θ définit par :

,cosθ =

x yx y

.

Les deux vecteurs x et y sont dit orthogonaux quand leur produit interne est nul (θ =90°),

on le note ⊥x y .

Remarque : parfois le produit entre deux matrices en également appelé produit scalaire, mais

l’ordre de x et y est important : T T≠x y y x qui donne un nombre, et qu’il faut différencier

de Tyx (produit externe) qui est une matrice.

Page 12: Un rappel sur les matrices - Laboratoire MIPS - TROP Calculs matriciels (matrix algebra) 1 1. Représentation matricielle et notations 1 2. L’addition

Patrice Wira - 7 - 1999

Le produit vectoriel Le produit vectoriel de deux vecteur se traduit en Anglais par « vector product » ou « cross

product ». Le produit vectoriel de deux vecteurs de trois composantes est défini par :

1 1 2 3 3 2

2 2 3 1 1 3

3 3 1 2 2 1

x y x y x yx y x y x yx y x y x y

− × = × = − −

x y .

Formellement, ce produit peut être considéré comme un déterminant, avec les vecteurs

( , , )i j k constituants la base dans la première colonne :

1 12 2 1 1 1 1

2 23 3 3 3 2 2

3 3

x yx y x y x y

x yx y x y x y

x y× = = − +

ix y j i j k

k,

2 3 3 2 3 1 1 3 1 2 2 1( ) ( ) ( )x y x y x y x y x y x y× = − + − + −x y i j k .

Remarque : ce n’est pas un vrai déterminant dans le sens où il ne retourne pas une grandeur

scalaire.

Le produit mixte Soit trois vecteurs x , y et z n∈R . Le nombre réel ( ).×x y z , c'est à dire le produit scalaire

du vecteur ×x y par le vecteur z , s'appelle le produit mixte des trois vecteurs x , y , z

(dans cet ordre). Le résultat est un scalaire. On parle en Anglais de « scalar triple product ».

Le produit externe Considérons deux vecteurs de dimensions différentes, m∈x R et n∈y R . On appelle produit

externe (traduit en Anglais par « outer product » ou « dyadic product ») :

1 1 1

1

, n

Ti j

m m n

x y x yx y

x y x y

= =

x y xy , avec 1,...,i m= , 1,...,j n= .

Tij i jz x y = = = z xy , avec 1,...,i m= , 1,...,j n= .

Cette opération retourne une matrice de m lignes et n colonnes. Ce produit peut être défini

comme un produit matricielle.

Le produit externe joue un rôle important lorsqu’il s’agit de déterminer comment sont

corrélés les éléments d’un vecteur avec ceux d’un autre.

Page 13: Un rappel sur les matrices - Laboratoire MIPS - TROP Calculs matriciels (matrix algebra) 1 1. Représentation matricielle et notations 1 2. L’addition

Patrice Wira - 8 - 1999

Remarque : si [ ]1 2 3 10 T=x … contient toutes les valeurs possibles entre 1 et 10,

alors T=z xx contient les tables de multiplication jusqu’à 10 :

1 2 3 4 5 6 7 8 9 102 4 6 8 10 12 14 16 18 203 6 9 12 15 18 21 24 27 304 8 12 16 20 24 28 32 36 405 10 15 20 25 30 35 40 45 506 12 18 24 30 36 42 48 54 607 14 21 28 35 42 49 56 63 708 16 24 32 40 48 56 64 72 809 18 27 36 45 54 63 72 81 90

10 20 30 40 50 60 70 80 90 100

T

=

xx

.

Propriétés des produits scalaire et vectoriel Soient x , y et z trois vecteurs n∈R et soit a un scalaire.

Le produit scalaire est distributif : .( ) . .+ = +x y z x y x z .

est commutatif : . .=x y y x .

est associatif : ( ). ( . )a a=x y x y .

Le produit vectoriel est distributif : x x x( )+ = +x y z x y x z .

N’est PAS commutatif : x x= −x y y x .

est associatif : x x( ) ( )a a=x y x y .

Interprétation géométrique

Page 14: Un rappel sur les matrices - Laboratoire MIPS - TROP Calculs matriciels (matrix algebra) 1 1. Représentation matricielle et notations 1 2. L’addition

Patrice Wira - 9 - 1999

.A B

BA

X

Z

Y

θ

xB A B

A

X

Z

Y

xA B

aire = xA B

Figure 3: Les produits scalaire (à gauche) et vectoriel (à droite) de deux vecteurs.

Le produit scalaire :

Le scalaire qui est retourné est proportionnel à la projection du premier vecteur sur le second.

Cet opération est fréquemment utilisée pour mesurer l’orthogonalité de deux vecteurs mais

aussi pour décrire la composante d’un vecteur dans une direction particulière.

Le produit vectoriel :

Le produit vectoriel, noté ×A B est un vecteur orthogonal à A et à B . Il est nul si A et B

sont parallèles. Il est utilisé pour déterminer la normale de deux droites. C’est ainsi qu’on

défini le vecteur normal d’une surface en un point quelconque.

Le produit mixte :

La valeur absolue du produit mixte est le produit de la longueur de la projection du vecteur

z sur la perpendiculaire au plan de même direction que les vecteurs x et y sur la surface du

parallélogramme construit sur les vecteurs x et y . Autrement dit, c'est le volume du

parallélépipède construit sur les trois vecteurs x , y et z . On dit aussi que le produit mixte

représente le volume algébrique de ce parallélépipède.

x

yzx × y

Figure 4: Le produit mixte de trois vecteurs.

Page 15: Un rappel sur les matrices - Laboratoire MIPS - TROP Calculs matriciels (matrix algebra) 1 1. Représentation matricielle et notations 1 2. L’addition

Patrice Wira - 10 - 1999

Exemples : Considérons un espace de dimensions trois défini par les vecteurs i , j et k .

Les vecteurs x et y s’écrivent par rapport à cette base :

i j kx x x= + +x i j k et i j ky y y= + +y i j k .

Le produit scalaire de x et y vaut alors :

. cos( , ) i i j j k kx y x y x y= = + +x y x y x y .

Le produit vectoriel vaut quand à lui

x ( ) ( ) ( )j k k j k i i k i j j ix y x y x y x y x y x y= − + − + −x y i j k ,

et x sin( , )=x y x y x y .

On rappelle que 2 2 2 1 2( )i j kx x x= + +x .

5. L’opérateur de transposition

La transposée d’une matrice A est la matrice TA (notée parfois aussi 'A ) définie par : *m n∈A R , *T n m∈A R ,

*ij m na = A ,

*T

ji n ma = A .

Propriétés élémentaires de la transposition ( )T T =A A où A *m n∈R .

( )T T T+ = +A B A B avec A , B *m n∈R .

( )T T T=AB B A où *m n∈A R , *n p∈B R et

1 *

n

ik kjk m p

a b=

= ∑AB .

6. Matrices particulières

La matrice nulle La matrice dont tous les termes sont nuls est appelée matrice nulle. On la note =A 0 :

0ija = , i∀ , j∀ .

Page 16: Un rappel sur les matrices - Laboratoire MIPS - TROP Calculs matriciels (matrix algebra) 1 1. Représentation matricielle et notations 1 2. L’addition

Patrice Wira - 11 - 1999

Matrice diagonale Une matrice diagonale *n n∈A R est une matrice carrée dont tous les éléments non diagonaux

sont nuls, c'est à dire que 0ija = , i j∀ ≠ . Elle est de la forme :

11 0 00

00 0

ij ij

nn

a

a a

a

= =

A .

La matrice identité Une matrice identité est une matrice diagonale *n n∈A R (donc carrée) qui voit tous ses

éléments nuls sauf ceux de sa diagonale principale qui sont unitaires. On la note nI ou I :

= ⇔A I01

ij

ii

aa

=

=,

1,...,i j

i n∀ ≠=

.

Matrice triangulaire Une matrice triangulaire supérieure (respectivement inférieure) est une matrice carrée

*n n∈A R dont les éléments qui se trouvent au-dessous (respectivement au-dessus) de la

diagonale principale sont nuls, c'est à dire telle que 0ija = , i j∀ > ( i j∀ < ). Elle est donc de

la forme :

11 12 1

220

0 0

n

ij

nn

a a aa

a

a

= =

A (respectivement

11

21 22

1

0 0

0ij

n nn

aa a

a

a a

= =

A ).

Matrices symétrique et antisymétrique Soit *n n∈A R une matrice carrée.

- Si T =A A , alors A est dite matrice symétrique.

- Si T = −A A , alors A est dite matrice antisymétrique.

Matrice idempotente Considérons une matrice carrée *n n∈A R . Si T =A A A , alors A est dite idempotente.

Propriétés de la matrice nulle Soit A une matrice, A *m n∈R :

Page 17: Un rappel sur les matrices - Laboratoire MIPS - TROP Calculs matriciels (matrix algebra) 1 1. Représentation matricielle et notations 1 2. L’addition

Patrice Wira - 12 - 1999

= =A0 0A 0 C’est l’opérateur nul de la multiplication

+ = + =A 0 0 A A C’est l’opérateur neutre de l’addition

Propriété de la matrice identité Soit A une matrice, A *m n∈R :

= =AI IA I C’est l’opérateur neutre de la multiplication

7. Matrices partitionnées

La composante de base d’une matrice A de dimensions quelconques est ija . Il est parfois

intéressant de considérer une matrice en tant que tableau de matrices élémentaires.

Soit :

11 12

21 22

ijamn

p q

= =

A AA

A A ,

avec *11

m p∈A R , *12

m q∈A R , *21

n p∈A R , *22

n q∈A R .

La matrice A est une matrice de m+n lignes et de p+q colonnes, ( )*( )m n p q+ +∈A R .

Considérons une seconde matrice B partitionnée ainsi : 1

2

=

BB

B, où *1

1p∈B R , *1

2q∈B R .

On peut alors écrire :

11 12 1 11 1 12 2

21 22 2 21 1 22 2

+ = = +

A A B A B A BAB

A A B A B A B.

Cette relation est souvent utilisée avec les notations suivantes :

A B E AE + BF=

C D F CE + DF.

Toutes les sous-matrices doivent comporter des dimensions compatibles avec les règles du

produit matriciel.

La transposée d'une matrice partionnée est donnée par : T T T

T T

=

A B A CC D B D

.

Page 18: Un rappel sur les matrices - Laboratoire MIPS - TROP Calculs matriciels (matrix algebra) 1 1. Représentation matricielle et notations 1 2. L’addition

Patrice Wira - 13 - 1999

8. Le déterminant d’une matrice

On appelle déterminant d’une matrice A carrée, *n n∈A R , le nombre noté det( )A ou | A |

et égal à :

11

1

det( ) ( 1) det( )n

ii i

i

a+

=

= −∑A A où iA est la matrice obtenue en rayant la

1ère colonne et la i-ième ligne.

Si n = 2, 11 1211 22 12 21

21 22

det( )a a

a a a aa a

= = −

A .

Si n = 3, 11 22 33 13 32 21 12 23 31 11 23 32 22 13 31 33 12 21det( ) a a a a a a a a a a a a a a a a a a= + + − − −A .

Lorsque le déterminant d’une matrice est nul, on dit que la matrice est singulière.

Remarques :

1

det( )n

kj kjj

a c=

= ∑A pour tous les lignes k de A .

1

det( )n

il ili

a c=

= ∑A pour tous les colonnes l de A .

Quelques propriétés du déterminant d’une matrice : det( ) det( )det( )=AB A B avec A *n n∈R .

1 1det( )det( )

− =AA

avec A *n n∈R .

( ) ( ) ( ) ( ) ( )1 1det det det det = det det− − = = − −

D EA G D EG F D G FD E

F G

où *n n = ∈

D EA

F GR , D *m m∈R et les dimensions des matrices E , F et G sont

en accord avec celles de A et D ; 1−D doit exister

Quelques théorèmes 1. Si tous les éléments d'une ligne (colonne) d'une matrice *n n∈A R sont nuls alors

det( ) 0=A .

2. Si tous les éléments d'une ligne (colonne) du déterminant d'une matrice *n n∈A R sont

multiplié par un scalaire k, alors le déterminant est multiplié par k.

3. Si B est obtenue à partir de *n n∈A R en échangeant deux de ces lignes (colonnes), alors

det( ) det( )= −B A .

4. Si B est obtenue à partir de *n n∈A R en faisant passer la i-ème ligne (colonne) par

dessus p lignes (colonnes), alors det( ) ( 1) det( )p= −B A .

Page 19: Un rappel sur les matrices - Laboratoire MIPS - TROP Calculs matriciels (matrix algebra) 1 1. Représentation matricielle et notations 1 2. L’addition

Patrice Wira - 14 - 1999

5. Si deux lignes (colonnes) de *n n∈A R sont identiques, alors det( ) 0=A .

6. Si, aux éléments d’une ligne (colonne) on ajoute k fois les éléments correspondants d’une

autre ligne (colonne), la valeur du déterminant reste inchangée.

Pour tous ces théorèmes, on trouvera la démonstration dans (Ayres, 1991).

Le calcul du déterminant d'une matrice 3*3∈A R peut être calculé par la règle dite de Sarrus

(Christol et al. 1996, p. 108).

9. Les mineurs, les cofacteurs et la matrice adjointe

Les mineurs Les mineurs ijm des éléments ija d’une matrice A carrée, *n n∈A R , sont les déterminants de

la partie restante de A lorsqu’on ne tient pas compte de la ligne i et de la colonne j.

Les mineurs directeurs Les mineurs directeurs d’une matrice A carrée, *n n∈A R , appelés aussi mineurs principaux

(en Anglais « leading minors ») sont définis comme suit :

1 11m a=

11 122

21 22

deta a

ma a

=

113

33

deta

ma

=

...

( ) detnm = A

Les cofacteurs Les cofacteurs ijc des éléments ija d’une matrice A carrée, *n n∈A R , sont donnés par :

c =( 1)i jij ijm+− .

Le cofacteur est souvent aussi noté ij∆ .

Page 20: Un rappel sur les matrices - Laboratoire MIPS - TROP Calculs matriciels (matrix algebra) 1 1. Représentation matricielle et notations 1 2. L’addition

Patrice Wira - 15 - 1999

La matrices adjointe La matrice des cofacteurs ijc des éléments ija d’une matrice A carrée, *n n∈A R , lorsqu’elle

est transposée, est appelé la matrice adjointe de A . On note généralement cette matrice A∼

ou encore adj( )A .

A∼

=11 1

1

adj( )

Tn

T

ij ij

n nn

c cc c

c c

= =

A ,

adj( ) T=A C , avec ijc = C

Propriétés

= =A A A A A I∼ ∼

où A est le déterminant de la matrice A .

adj( ) adj( ).adj( )=AB A B .

Exemples

En ce qui concerne la matrice 3*3∈A R , 11 12 13

21 22 23

31 32 33

a a aa a aa a a

=

A , nous avons le mineur

11 1223

31 32

a am

a a

=

et le cofacteur 11 122 323

31 32

( 1)ij

a ac m

a a+

= − = −

.

Calcul du déterminant d’une matrice avec les cofacteurs La valeur d’un déterminant d’ordre n d’une matrice carrée *n n∈A R est la somme des n

produits obtenus en multipliant chaque élément d’une ligne (colonne) donnée de la matrice

par son cofacteur.

On peut donc, par exemple, calculer le déterminant d’ordre 3 de la matrice 3*3∈A R ,

11 12 13

21 22 23

31 32 33

a a aa a aa a a

=

A par un développement selon la seconde colonne :

12 12 22 22 32 32

21 23 11 13 11 1312 22 32

31 33 31 33 21 23

det( ) a c a c a c

a a a a a aa a a

a a a a a a

= + +

= − + −

A

.

Page 21: Un rappel sur les matrices - Laboratoire MIPS - TROP Calculs matriciels (matrix algebra) 1 1. Représentation matricielle et notations 1 2. L’addition

Patrice Wira - 16 - 1999

En choisissant judicieusement la ligne (ou la colonne) par laquelle en effectue le

développement, on peut très largement simplifier les calculs. On cherchera notamment à

effectuer les développement selon les lignes ou les colonnes qui comportent le plus de valeurs

nulles.

Ainsi, si

3 5 81 0 24 0 3

=

A , alors 1 2

det( ) 5 51(3) 2(4) 254 3

= − = − − =

A .

Calcul de la solution d’un système d’équations linéaires - Règle de Cramer On peut déterminer la solution d’équations linéaires par les déterminants. On appelle cette

méthode la règle de Cramer.

Soit le système de trois équations linéaires à trois inconnues 1x , 2x et 3x :

11 12 13 1 1

21 22 23 2 2

31 32 33 3 3

a a a x ba a a x ba a a x b

=

.

Soit A le déterminant de la matrice 3*3∈A R .

La valeur numérique des coefficients de A est multipliée par 1x si chaque élément de la

première colonne est multipliée par 1x (théorème 2) :

1 11 12 13

1 1 21 22 23

1 31 32 33

x a a ax x a a a

x a a a

=

A

En ajoutant à chaque élément de la première colonne de ce dernier déterminant, 2x fois

l’élément correspondant d la seconde colonne et 3x fois l’élément de la troisième colonne

(théorème 6), on obtient :

1 11 2 12 3 13 12 13 1 12 13

1 1 21 2 22 3 23 22 23 2 22 23

1 31 2 32 3 33 32 33 3 32 33

x a x a x a a a b a ax x a x a x a a a b a a

x a x a x a a a b a a

+ + = + + =

+ +

A ,

c’est à dire

1 12 13

2 22 23

3 32 331

b a ab a ab a a

x

=

A, à condition que 0≠A .

Page 22: Un rappel sur les matrices - Laboratoire MIPS - TROP Calculs matriciels (matrix algebra) 1 1. Représentation matricielle et notations 1 2. L’addition

Patrice Wira - 17 - 1999

Il en va de même pour 2x et 3x :

11 1 12 13

21 2 23

31 3 332

a b a aa b aa b a

x

=

A,

11 12 1

21 22 2

31 32 33

a a ba a ba a b

x

=

A.

Cette règle peut être appliquée à n’importe quel système de n équations linéaires à n

inconnues, pourvu que le déterminant des coefficients ija soit différent de zéro.

10. Matrice inverse et pseudo-inverse

Deux matrices A et B sont inverses si leur produit est égal à la matrice identité : =AB I ,

alors 1−=B A .

Les matrices inverse, et plus généralement les pseudo-inverses, trouvent leurs applications à

la résolution des systèmes d’équations linéaires quelles que soient leurs dimensions :

=y Ax , *m n∈A R , m∈y R est le vecteur cherché, n∈x R est le vecteur des connaissances.

L’inverse généralisée d’un tel système est noté +A .

L’inverse généralisée +A satisfait les conditions suivantes : + =AA A A

+ + +=A AA A ( )T+ +=AA AA Condition de symétrie

( )T+ +=A A A A

La solution d’un système linéaire à partir de la pseudo-inverse +A s’écrit alors : +=x A y .

La résolution d’un tel système met en évidence trois cas. Selon les dimensions m et n , on

définira les matrices inverse, pseudo-inverse à gauche et pseudo-inverse à droite.

La matrice inverse est la solution d'un problème qui possède autant d'inconnues (variables à

déterminées) que de contraintes. Cela ne signifie pas pour autant qu'il existe une solution.

Page 23: Un rappel sur les matrices - Laboratoire MIPS - TROP Calculs matriciels (matrix algebra) 1 1. Représentation matricielle et notations 1 2. L’addition

Patrice Wira - 18 - 1999

La pseudo-inverse à gauche est une solution d’un problème sur-déterminé, qui contient des

informations redondantes, elle minimise l’erreur quadratique moyenne, « mean square error »

en Anglais.

La pseudo-inverse à droite est une solution d’un problème sous-déterminé, qui ne contient pas

suffisamment d’information pour donner une solution unique, mais donne une solution

particulière, celle qui minimise la norme quadratique.

En fait, ces deux pseudo-inverses qu'on appelle généralement matrice inverse généralisée de

Moore-Penrose, sont données par : 2 1 2 1

0 0lim ( ) lim ( )T T T Tδ δδ δ+ − −→ →= + = +A A A I A A AA I .

Si les colonnes de A sont linéairement indépendantes, on peut prendre 0δ = .

1er cas, m = n :

C’est la cas d’une matrice carrée. Si A est une matrice non singulière (c’est à dire

det( ) 0 ≠A ), alors 1+ −=A A est la matrice inverse de A . La matrice 1−A vérifie la

propriété 1 1nI− −= =A A AA .

Propriétés de la matrice inverse : Si A et B sont deux matrices non singulières, A *n n∈R et B *n n∈R , alors :

1 1( )− − =A A 1 1( ) ( )T T− −=A A

1 1 1( )− − −=AB B A (par extension 1 1 1 1( )− − − −=ABC C B A si la

matrice C est inversible.

1 1det( )det( )

− =AA

1 1( ) ( )n nI I− −+ = +A A A A si 1( )nI −+ A existe. 1 1( ) ( )n n nI I I− −+ + + =A A A si 1( )nI −+ A existe.

1 1( ) ( )n mI I− −+ = +A BA AB A si A *m n∈R , B *n m∈R et si 1( )nI −+BA

et 1( )mI −+ AB existent. 1 1( ) ( )m n mI I I− −+ + + =AB A BA B si A *m n∈R , B *n m∈R et si 1( )nI −+BA

et 1( )mI −+ AB existent.

Calcul de la matrice inverse : La matrice inverse 1−A d’une matrice A carrée, *n n∈A R , est donnée par la relation :

1 adj( )det( )

− =AAA

.

Page 24: Un rappel sur les matrices - Laboratoire MIPS - TROP Calculs matriciels (matrix algebra) 1 1. Représentation matricielle et notations 1 2. L’addition

Patrice Wira - 19 - 1999

Pour qu’une matrice soit inversible, il faut que sont déterminant soit différent de 0. On dit

alors que la matrice est régulière ou non singulière.

Exemple lorsque n = 2 :

Si 11 12

21 22

a aa a

=

A , on détermine 11 21

12 22

T a aa a

=

A puis on remplace chaque élément de TA

par son cofacteur pour déterminer 22 12

21 11

adj( )a aa a

− = −

A .

On calcule 11 22 12 21det( ) a a a a= −A , puis on détermine la matrice inverse 1−A en divisant

chaque élément de adj( )A par det( )A .

On peut également calculer l'inverse d'une matrice A par la méthode du pivot de Gauss

(Christol et al. 1996, p. 19) dans le cas particulier où la matrice est carrée et est inversible.

Le système, caractérisé par la matrice A , est alors dit système de Cramer ou système

régulier dans ce cas.

Calcul de l'inverse d'une matrice partitionnée

Soit A *n n∈R une matrice partitionnée en quatre sous-matrices telle que :

=

D EA

F G, où

D *m m∈R et les dimensions des matrices E , F et G sont en accord avec celles de A et D .

L'inverse 1−A de la matrice A est donnée par : 1 1 1 1 1 1 1 1

11 1 1 1 1

( ) ( )( ) ( )

− − − − − − − −−

− − − − −

+ − − −= − − −

D D E G FD E FD D E G FD EA

G FD E FD G FD E

si 1−D existe.

2ème cas, m < n :

Il existe une infinité de solution, parmi lesquelles ont peut retenir celle qui minimise la norme

x : 1( )T T+ −=A A AA

Cette matrice est appelée pseudo-inverse à droite, elle vérifie la propriété mI+ =AA .

3ème cas, m > n :

Il existe une solution approchée au sens des moindres carrés : 1( )T T+ −=A A A A

Cette matrice est appelée pseudo-inverse à gauche, elle vérifie la propriété In+ =AA .

Page 25: Un rappel sur les matrices - Laboratoire MIPS - TROP Calculs matriciels (matrix algebra) 1 1. Représentation matricielle et notations 1 2. L’addition

Patrice Wira - 20 - 1999

Propriétés de la pseudo-inverse : Si A est une matrice et α un scalaire, *α ∈R :

( )+ + =A A 1( )α α+ − +=A A

( ) ( )T T+ +=A A

( ) ( )T T T T+ + += =A A A A A AA

( )T T+ + =AA A A A T T+ =A AA A

rang( ) rang( ) rang( )T+ = =A A A

Détermination récursive de la pseudo-inverse (théorème de Gréville) : Soit *m n∈A R . La détermination récursive de la matrice pseudo-inverse de A repose sur

l’idée de partition de A en colonnes.

A un instant k donné, la pseudo-inverse est calculée à partir de 1k+−A et de la colonne

courante d’indice k de la matrice A .

Soit 1k k ka− = A A où ka désigne la k-ième colonne de kA , alors (Kohonen, 1984, p. 51) :

1( )Tk k k

k Tk

+ − −=

A I a pA

p

2

1 1 1 1 1 12

1 1 1

( ) / ( ) si ( ) 0

( ) /(1 ) sinon

k k k k k k k k kk

Tk k k k k

+ + +− − − − − −

+ + +− − −

− − − ≠= +

I A A a I A A a I A A ap

A A a A a

Les conditions initiales sont les suivantes :

1 1 =A a 1

1 1 1 11

( ) si 00 sinon

T T

T

−+ ≠=

a a a aA

Le Lemme d’inversion matricielle (The matrix inversion Lemma)

Considérons l'expression suivante :

CDCBA 111 −−∆

− += T [1].

Quelle est alors l'expression de 11)( −−= AA ?

Multiplions [1] à gauche par A :

CDACABI 11 −− += T [2].

Multiplions [2] à droite par B :

CBDACAB 1−+= T [3].

Page 26: Un rappel sur les matrices - Laboratoire MIPS - TROP Calculs matriciels (matrix algebra) 1 1. Représentation matricielle et notations 1 2. L’addition

Patrice Wira - 21 - 1999

Multiplions [3] à droite par TC :

)(11 TTTTTT CBCDDACCBCDACACBC +=+= −− [4].

Multiplions [4] à droite par 1][ −+ TCBCD :

11][ −− =+ DACCBCDBC TTT [5].

Multiplions [5] à droite par CB :

CBCBCDBCCBDAC 11 ][ −− += TTT [6].

Retranchons [6] de B :

CBCBCDBCBCBDACB 11 ][ −− +−=− TTT [7].

D'après [3], on tire que ABCBDAC −=−1T et on peut déduire que :

CBCBCDBCBA 1][ −+−= TT [8].

Finalement, on retiendra une des deux formulations suivantes :

111111 ]1[ −−−−−−∆

+−=⇒+= CBDBCDBBACDBA TTT

CBCBCDBCBACDCBA 1111 ][ −−−∆

− +−=⇒+= TTT

Le noyau d'une matrice Pour un système d'équations homogènes 0=Ax , *m n∈A R , n∈x R , l'ensemble des solutions

x constitue un espace vectoriel appelé noyau de A , noté Ker( )A . La dimension de cet

espace sera notée NA .

Remarque : Une équation linéaire 1 1 2 2 3 3 ... n na x a x a x a x h+ + + = est dite non homogène si

0h ≠ .

Théorème : pour *m n∈A R on a rang( ) N n+ =AA .

Résolution de l’équation =AXB C Considérons l'équation =AXB C (Kohonen, 1984, p.53), avec A , B et C des matrices

quelconques dont les dimensions sont en accords avec les règles de la multiplication

matricielle et où l'inconnu à déterminer est X .

La condition nécessaire et suffisante pour avoir une solution à cette équation est :

Page 27: Un rappel sur les matrices - Laboratoire MIPS - TROP Calculs matriciels (matrix algebra) 1 1. Représentation matricielle et notations 1 2. L’addition

Patrice Wira - 22 - 1999

+ + =AA CB B C .

La solution générale est de la forme : + + + += + −X A CB Y A AYBB ,

avec Y de mêmes dimensions que X .

Une solution particulière est + +=X A CB (cas pour 0=Y ), c'est la solution dont la norme

Euclidienne est minimale.

11. Indépendance linéaire de vecteurs, la singularité

Soit un ensemble 1a , 2a ,..., na de n vecteurs de dimension m, et 1α , 2α ,..., nα un ensemble de

scalaires.

Le vecteur défini par 1

n

i ii

α=

= ∑c a forme une combinaison linéaire de vecteurs, notée ia .

L’ensemble des vecteurs ia est linéairement indépendants si :

0= ⇔c 1 2 ... ... 0i nα α α α= = = = = =

Soit A une matrice, *m n∈A R .

- Les colonnes de A sont linéairement indépendantes si et seulement si TA A est une

matrice non singulière de rang plein,

- Les lignes de A sont linéairement indépendantes si et seulement si TA A est non

singulière.

Une matrice carrée *n n∈A R , est dite non singulière (ou inversible) si *n n∃ ∈B R telle que :

det( ) 0= = ⇔ ≠AB BA I A .

12. Le rang d’une matrice

Le rang d’une matrice correspond au nombre maximum de colonnes ou de lignes linéairement

indépendantes. C’est aussi l’ordre du plus grand déterminant non nul. Si k est cet ordre, on

dit que la matrice est de rang k.

Une matrice A , *m n∈A R , est dite de rang plein si : rang( ) min( , )m n=A .

Propriété : Quelle que soit une matrice A , *m n∈A R ,

rang( ) rang( ) rang( ) rang( )T T T= = =A A AA A A .

Page 28: Un rappel sur les matrices - Laboratoire MIPS - TROP Calculs matriciels (matrix algebra) 1 1. Représentation matricielle et notations 1 2. L’addition

Patrice Wira - 23 - 1999

13. La trace d’une matrice

La trace d’une matrice A , *n n∈A R est égale à la somme des éléments de la diagonale de

cette matrice :

1

trace( ) n

iii

a=

= ∑A .

Propriété : trace( ) trace( ) =AB BA A *n n∈R , B *n n∈R .

(trace( ))T∂=

∂AB B

A *n m∈A R , *n m∈B R .

(trace( )) 2T∂

= =∂

ABAD ABA

*n m∈D R et *n m∈A R , *m m∈B R .

14. La norme

La norme vectorielle On appelle p-norme, la norme notée également pL d’un vecteur n∈x R :

1/

1

pnp

ipi

x=

= ∑x .

Les normes les plus usuelles sont :

- la norme 1L également appelée norme absolue, 1

1

n

ii

x=

= ∑x ,

- la norme 2L ou norme Euclidienne, ( )1/ 2

1/ 22

21

nT

ii

x=

= = = ∑x x x x .

Voici quelques propriétés de la norme Euclidienne, x et n∈y R :

- + ≤ +x y x y ,

- .T ≤x y x y ,

- . ≤v w v w si n∈v R et n∈w R , on appelle cette propriété l'inégalité de

Schwartz.

La norme Euclidienne est aussi appelé norme quadratique (c’est la distance Euclidienne).

Une norme peut être pondérée. Ceci est surtout utilisé en Physique, lorsque les éléments d’un

vecteur sont de nature différente (représentent des grandeurs dans des unités différentes).

Soit x un vecteur à normer, n∈x R , on pose, n∈y R : =y Dx .

On calcule alors la norme (Euclidienne par exemple) du vecteur y plutôt que celle de x :

Page 29: Un rappel sur les matrices - Laboratoire MIPS - TROP Calculs matriciels (matrix algebra) 1 1. Représentation matricielle et notations 1 2. L’addition

Patrice Wira - 24 - 1999

( ) ( ) ( )1/ 2 1/ 2 1/ 2T T T T= = = =y y y Dx x D Dx x Qx .

La matrice T=Q D D est une matrice de pondération de la forme quadratique Tx Qx

présente dans l’expression de la norme y .

Pour la matrice *n n∈D R , on prend souvent une matrice diagonale avec chaque terme comme

étant l’inverse de la valeur maximale que peut prendre l’élément concerné :

1max

max

max

1 01

0 1i

n

xx

x

=

D .

La norme matricielle Il existe plusieurs normes matricielles. La norme d’une matrice peut être définie dans

différent sens, elle doit satisfaire les contraintes posées par n’importe quel espace (Kohonen,

1984, p.47).

Les normes matricielles, sont définies de la même façon que les normes vectorielles.

On appelle p-norme d'une matrice A , *m n∈A R , la norme : 1/

1 1

pm n p

ijpi j

a= =

= ∑∑A .

La norme matricielle la plus connue et la plus utilisées est l'équivalente de la norme

Euclidienne chez les vecteurs, on l'appelle la norme de Frobenius :

trace( )TE

= =A A A A , 1/ 2

2

1 1

m n

iji j

a= =

= ∑∑A .

La norme de Frobenius est la norme Euclidienne au sens matricielle, qui n’est pas compatible

avec la norme Euclidienne vectorielle (it is not consistent with the Euclidean vector norm).

Si A est une matrice carrée, *n n∈A R , et x un vecteur de n éléments, :

=Ax x .

La norme suivante est elle compatible avec la norme vectorielle :

1max == xA Ax .

Page 30: Un rappel sur les matrices - Laboratoire MIPS - TROP Calculs matriciels (matrix algebra) 1 1. Représentation matricielle et notations 1 2. L’addition

Patrice Wira - 25 - 1999

15. L’orthogonalité

L’ensemble des vecteurs ia , , 1,...,ni i k∈ ∀ =a R , est orthogonal si :

0, Ti j i j= ∀ ≠a a .

Ce même ensemble est orthogonal si :

0, Ti j i j= ∀ ≠a a ,

1, Ti i i= ∀a a .

Ceci se note également : T

i j ijδ=a a ,

où ijδ est l’opérateur de Kronecker.

Une matrice carrée *n n∈A R est dite orthogonale si ses colonnes forment un ensemble

orthogonale : 1T T T

nI −= = ⇒ =A A AA A A .

Propriétés Si A est une matrice carrée orthogonale, *n n∈A R , et x un vecteur de n éléments, n∈x R :

=Ax x

( )( )= T TAx Ay x y

Si *m n∈A R , la condition d’orthogonalité se traduit par TnI=A A .

Quelques théorèmes 1. Si A est une matrice orthogonale, son inverse et sa transposée le sont également.

2. Le produit de plusieurs matrices orthogonales est une matrice orthogonale.

3. Le déterminant d'une matrice orthogonale est égal à 1± .

16. Valeurs et vecteurs propres

Soit A une matrice carrée, *n n∈A R . Les valeurs propres iλ de cette matrices (appelées

aussi valeurs caractéristiques) sont les racines de l’équation polynomiale :

det( ) 0iλ− =A I

L’ensemble des valeurs propres d’une matrice constitue son spectre.

Page 31: Un rappel sur les matrices - Laboratoire MIPS - TROP Calculs matriciels (matrix algebra) 1 1. Représentation matricielle et notations 1 2. L’addition

Patrice Wira - 26 - 1999

Les vecteurs propres (ou vecteurs caractéristiques) iv de cette matrices se déduisent de la

définition suivante :

i i iλ=Av v

Comme le système est indéterminé, les vecteurs propres sont obtenus à une constante

multiplicative près, c’est à dire que l’on détermine des directions propres.

Remarques :

det( ) 0iλ− =A I est appelé polynôme caractéristique de A .

iλ −I A est appelé la matrice caractéristique de A .

Deux matrices sont dites semblables si elles ont le même polynôme caractéristique.

Propriétés Si A est une matrice carrée, *n n∈A R , ayant pour valeurs propres iλ , 1,...,i n= :

1

det( )n

ii

λ=

=∏A

1

trace( )n

ii

λ=

= ∑A

17. Diagonalisation d’une matrice

Si les valeurs propres d’une matrice *n n∈A R sont réelles et simples, on obtient n directions

propres distinctes que l’on peut utiliser comme axes de coordonnées. Dans ce nouveau

système d’axes, la matrice A devient une matrice D diagonale telle que :

1

n

0

0i

λλ

λ

=

D .

Soit P la matrice formée par les composantes des vecteurs propres iv :

[ ]1... ...i n=P v v v .

Cette matrice ( *n n∈P R ) est appelée la matrice modèle de A . On montre alors que (Christol

et al., 1996, p 141) : 1−=D P AP .

La diagonalisation d'une matrice permet de résoudre de façon élégante des problèmes qui

peuvent sembler complexes au premier abord (Rotella et Borne, 1995).

Page 32: Un rappel sur les matrices - Laboratoire MIPS - TROP Calculs matriciels (matrix algebra) 1 1. Représentation matricielle et notations 1 2. L’addition

Patrice Wira - 27 - 1999

Elle est souvent, dans le cas des problèmes complexes (les problèmes basés sur l'inversion de

matrices singulières), l'unique façon de procéder. On utilise alors d'autres méthodes pour

calculer les valeurs propres (Strang, 1993).

Les méthodes numériques prennent également de plus en plus d'importance dans le calcul

d'inversion de telles matrices (Stoer et Bulirsch, 1993).

Intérêt de la diagonalisation Considérons le système différentiel linéaire suivant, représenté dans une base quelconque :

=x Ax .

Il est constitué de n équations différentielles du premier ordre dépendantes. Effectuons le

changement de base défini par :

=x Py ou 1−=y P x .

Le système différentiel devient alors : 1 1 1− − −= = =y P x P Ax P APy ,

donc en fait : =y Dy ,

où D est une matrice diagonale. La résolution du système différentiel obtenu par

changement de base se réduit alors à n équations différentielles du premier ordre

indépendantes.

La diagonalisation permet également la simplification et l’étude des formes quadratiques

(Cairoli, 1991). Une autre application directe de la diagonalisation d'une matrice est la calcul

de ces puissances entières.

Puissance n-ème d'une matrice La formule 1−=D P AP avec A une matrice diagonalisable s'écrit aussi 1−=A PDP . On en

déduit que : 1 1 1 1...n n− − − −= =A PDP PDP PDP PD P .

La matrice D (respectivement A ) représente l'endomorphisme (application linéaire) u dans

une base f formée de vecteurs propres (respectivement dans la base canonique e). La formule

précédente exprime simplement le fait que les matrices nD et nA représentent le même

endomorphisme nu respectivement dans la base f et dans la base e.

Le produit de deux matrices est très facile à calculer : la matrice produit est diagonale et le i-

ème terme de sa diagonale est le produit des i-èmes termes des diagonales des deux matrices.

Page 33: Un rappel sur les matrices - Laboratoire MIPS - TROP Calculs matriciels (matrix algebra) 1 1. Représentation matricielle et notations 1 2. L’addition

Patrice Wira - 28 - 1999

On en déduit que la puissance n-ème de la matrice diagonale D s'obtient simplement en

élevant à la puissance n chacun des termes de sa diagonale.

18. Formes quadratiques

Une forme quadratique est un polynôme homogène du second degré en n variables

1x , 2x ,..., nx :

11 1

( ,..., )n n

n ij i ji j

f x x a x x= =

= ∑∑ .

On peut représenter la forme quadratique grâce aux notations matricielles. Pour cela,

considérons A une matrice carrée, *n n∈A R , et x un vecteur de n éléments, n∈x R :

[ ]1 ... Tnx x=x , ija = A ,

alors ( ) Tf =x x Ax .

Remarque : On dit que de l’expression ( , ) Tf =x y x Ay qu’elle est de la forme bilinéaire, avec

y un vecteur de dimension n, n∈y R .

Supposons que A soit une matrice réelle.

Toute matrice carrée peut être décomposée en une matrice sA symétrique, Ts s=A A , et en

une matrice aA anti-symétrique, Ta a= −A A .

Ainsi, s a= +A A A avec :

2

T

s+

=A AA et

2

T

a−

=A AA .

Si la matrice A n’est pas symétrique au départ, on peut écrire :

( )T T T Ts a s a= + = +x Ax x A A x x A x x A x .

Dans cette expression, les deux termes sont des scalaires, ils sont donc égaux à leur

transposé, en particulier :

( )T T T T T Ta a a a= = − = −x A x x A x x A x x A x

qui doit être nul, d’où T T

s=x Ax x A x .

On peut donc affirmer sans perdre de généralité que la matrice A de la forme quadratique

est symétrique.

19. Définitivité

On dit qu’une matrice *n n∈A R , est définie positive, 0>A , si la forme quadratique qui lui

est associée est définie positive :

0 0T> ⇔ >A x Ax , 0∀ ≠x .

Page 34: Un rappel sur les matrices - Laboratoire MIPS - TROP Calculs matriciels (matrix algebra) 1 1. Représentation matricielle et notations 1 2. L’addition

Patrice Wira - 29 - 1999

A est définie semi-positive, 0≥A , si 0T ≥x Ax pour tout vecteur 0≠x .

A est définie négative, 0<A , si 0T <x Ax pour tout 0≠x .

A est définie semi- négative, 0≤A , si 0T ≤x Ax pour tout vecteur 0≠x .

On parle, selon la cas, de positivité ou de négativité.

En fait, une forme quadratique est dite non définie si son signe dépend du vecteur x .

Pour tester la positivité d’une matrice, on peut utiliser le critère de Sylvester qui dit qu’une

matrice est définie positive si tous ses mineurs principaux sont positifs :

0 ssi 0im> >A , 1,...,i n∀ = .

Ce critère n’est plus valable pour la semi-positivité :

0 ssi m 0i≥ ≥A , 1,...,i n∀ = n’est pas vrai, mais :

0 ssi m 0i≥ ≥A et 0ijm ≥ , 1,...,i n∀ = , 1,...,j n∀ = .

Les mêmes raisonnements sont valables pour les cas négatifs.

Cela peut également se vérifier en utilisant les valeurs propres iλ , 1,...,i n∀ = , de la matrice

A :

0 ssi 0iλ> >A ,

0 ssi 0iλ≥ ≥A ,

0 ssi 0iλ< <A ,

0 ssi 0iλ≤ ≤A .

20. Changement de base

Définition d'une base Lorsqu'on travaille avec les combinaisons linéaires, il est commode d'introduire la notion de

famille de vecteurs d'un espace E qui généralise la notion de partie. Dans une famille, les

vecteurs sont rangés dans un certain ordre et le même vecteur peut apparaître plusieurs fois

(dans le langage des dénombrements mathématiques, une famille est un arrangement avec

répétition, alors qu'une partie est une combinaison). Les familles les plus intéressantes sont

celles ayant un nombre n fini d'éléments et pour lesquelles les vecteurs sont distincts. Ces

considérations faites, la différence entre famille et partie ne concerne alors plus que l'ordre des

vecteurs. On note une famille de n vecteurs indicés par l'ensemble 1,..., I n= par ( )i i Ia ∈ ou

plus simplement, ( )ia .

Page 35: Un rappel sur les matrices - Laboratoire MIPS - TROP Calculs matriciels (matrix algebra) 1 1. Représentation matricielle et notations 1 2. L’addition

Patrice Wira - 30 - 1999

Une famille de vecteurs libre est un ensemble de vecteurs linéairement indépendants. A

l'inverse, une famille liée contient au moins un vecteur qui est une combinaison linéaire des

autres.

On dit que la famille A est génératrice d'un sous-espace vectoriel F de E si A est contenu

dans F et si tout vecteur de F est une combinaison linéaire de vecteurs de A.

Une famille de vecteurs d'un espace vectoriel E qui est à la fois libre et génératrice de E est

appelé base de E.

Exemple : la base canonique.

La famille 1 2( , ,... )ne e e formée des n vecteurs 1 (1,0,...0)=e , 2 (0,1,0,...0)=e , …

(0,0,...,1,0,...0)i =e , … (0,0,...,0,1)n =e de nR est une base de nR appelée base canonique.

Application : plusieurs repères dans l'espace 3D L’objectif que l’on se fixe est de représenter n’importe point de l'espace 3D dans plusieurs

bases.

On se place dans un repère 3D 1R , défini par une base orthonormée. A partir de ce premier

repère, on définit par rapport à 1R un second repère 2R , également défini par une base

orthonormée.

Le passage d'un repère à un autre fait intervenir deux opérations essentielles : la translation

et la rotation.

Le repère 2R est donc défini par la position de son origine 2O dans le repère 1R (c'est la

translation, définie par un vecteur 3∈t R ) et par l'orientation des vecteurs formant sa base

(c'est la rotation, définie par une matrice 3*3∈A R ) par rapport à ceux qui constituent la

base de 1R .

Considérons dans un premier temps qu'une simple translation de [ ]4 2 2 T=t comme le

montre la figure suivante.

S'il n'y a pas de rotation pour passer d'un repère à l'autre, la matrice de rotation est la

matrice identité : 3I=A .

Page 36: Un rappel sur les matrices - Laboratoire MIPS - TROP Calculs matriciels (matrix algebra) 1 1. Représentation matricielle et notations 1 2. L’addition

Patrice Wira - 31 - 1999

0 1 2 3 4 5 60

1

2

3

4

P

O2

x

y

Q

O1 Figure 5 : Les points P et Q dans le premier repère

par rapport aux axes x et y.

0 1 2 3 4 5 60

1

2

3

4

O2

O1

P

Q

z

y

Figure 6 : Les points P et Q dans le premier repère

par rapport aux axes y et z.

Connaissant les coordonnées d'un point [ ]1 1 1 T=2RP dans le repère 2R , on veut connaître

ses coordonnées 1RP dans le repère 1R :

= +A t1 2R RP P .

On trouve alors : [ ]5 3 3 T=1RP .

On peut poser le problème inverse : quelles sont les coordonnées dans 2R d'un point défini

dans 1R ?

Dans 1R définissons le point Q tel que [ ]1 1 1 T=1RQ . Les coordonnées de Q dans 2R sont

données par l'application inverse à celle définie précédemment :

Q= +A t1 2R RQ ,

1 )Q −= −A t2 1R R(Q .

L'application numérique donne [ ]3 1 1 T= − − −2RQ .

Considérons maintenant, que le passage de 1R à 2R ne se fasse non seulement par la

translation de [ ]4 2 2 T=t mais aussi par une rotation définie par la matrice

0 1 00 0 11 0 0

− = −

A (les angles d'Euler équivalents sont : [ ] [ ]0 / 2 / 2T Tψ ϑ ϕ π π= ).

Page 37: Un rappel sur les matrices - Laboratoire MIPS - TROP Calculs matriciels (matrix algebra) 1 1. Représentation matricielle et notations 1 2. L’addition

Patrice Wira - 32 - 1999

01

23

45 0

1

2

3

4

5

0

1

2

3

4

5

y

x

z

0 1 2 3 4

0

1

2

3

4

x

y

0 1 2 3 40

1

2

3

4

x

z

0 1 2 3 4

0

1

2

3

4

y

z

Figure 7 : Un cube dans un espace 3D, le point Q est représenté par un cercle magenta.

Le point S, défini dans 2R par [ ]1 1 1 T=2RS et représenté sur les figures précédentes par

un cercle (un des sommets du cube) a pour coordonnées dans 1R 1RS selon la formule :

S= +A t1 2R RS ,

soit après calcul, [ ]3 1 3 T=1RS .

Le point T, défini dans le repère 1R par [ ]3 8 3 T= −1RT voit ses coordonnées

2RT dans

2R données par l'application inverse : 1 )T −= −A t

2 1R R(T .

Le calcul donne [ ]1 1 10 T=2RT .

On voit finalement, que le passage d'un repère à l'autre utilise une multiplication à gauche,

que ce soit pour passer de 1R à 2R , ou inversement de 2R à 1R . La multiplication à cause

peut donc de façon générale être assimilé à un changement de base.

Page 38: Un rappel sur les matrices - Laboratoire MIPS - TROP Calculs matriciels (matrix algebra) 1 1. Représentation matricielle et notations 1 2. L’addition

Patrice Wira - 33 - 1999

Application : les axes principaux d'une ellipse L’objectif que l’on se fixe est de représenter n’importe quelle ellipse en coordonnées polaires.

Dans un premier temps, on rappelle un cas particulier, celui où les axes de l’ellipse sont

parallèles aux axes de coordonnées. On généralisera ensuite pour le cas des axes quelconques.

Axes de l’ellipse parallèles aux axes de coordonnées :

L'équation d'une ellipse est donnée par : 2 2

0 0( ) ( )a x x b y y d− + − = ,

avec 0 0, x y le centre de l’ellipse et a ,b et d positifs.

On peut aussi écrire : 2 2

0 02 2

( ) ( ) 1a b

x x y yρ ρ− −

+ = ,

avec /a d aρ = et /b d bρ = .

Les coordonnées polaires qui représentent cette ellipse sont alors :

0

0

cos( )cos( )

a

b

x xy y

ρ ϑρ ϑ

= +

= +

avec 0 2ϑ π≤ ≤ .

Axes de l’ellipse quelconques :

L'équation générale d'une ellipse quelconque décrite dans un référentiel est : 2 2

0 0 0 0( ) ( ) 2 ( )( )a x x b y y c x x y y d− + − + − − = .

On peut aussi l’écrire sous forme quadratique :

[ ] 00 0

0

x xa cx x y y d

y yc b−

− − = − .

Soit, en notation matricielle : T d=x Ax .

La courbe correspondante est une ellipse si la matrice A est définie positive, c’est à dire si a

et b sont positifs et si det( ) 0>A , soit 2ab c> .

Caractériser une ellipse revient à déterminer ses axes principaux qui sont les directions

propres de la matrice A . Les vecteurs propres de A sont définis par :

det( ) 0iλ− =A I ,

Page 39: Un rappel sur les matrices - Laboratoire MIPS - TROP Calculs matriciels (matrix algebra) 1 1. Représentation matricielle et notations 1 2. L’addition

Patrice Wira - 34 - 1999

soit, 2 2a+b ( ) 4=

2ia b cλ ± − +

.

Soient 1d et 2d les directions propres et 1v et 2v les vecteurs propres A . Les vecteurs

propres vérifient la relation :

i i iλ=Av v .

Ces vecteurs sont définis à une constante près : on ne connaît que leurs directions 1d et 2d ,

soit :

1 1 1 1

2 2 2 2

: ( ) /avec : ( ) /avec

d y x a cd y x a c

α α λα α λ

= = − = = −

Soient v et w les coordonnées d’un point dans les axes définis par les directions 1d et 2d .

Avec ces coordonnées, l’équation de l’ellipse s’écrit : 2 2

1 2v w dλ λ+ = ,

ou 2 2

2 21 2

1v wρ ρ

+ = ,

avec 1 1/dρ λ= et 2 2/dρ λ= .

On peut donc facilement tracer l’ellipse avec les coordonnées , v w , puis passer dans les axes

, x y par une matrice de changement de base.

Soit B la matrice de changement de base telle que :

x vy w

=

B

On démontre alors que :

2 21 2

1 22 21 1

1 11 1

1 1

α α

α αα α

+ + =

+ +

B .

21. Matrice racine carrée

Page 40: Un rappel sur les matrices - Laboratoire MIPS - TROP Calculs matriciels (matrix algebra) 1 1. Représentation matricielle et notations 1 2. L’addition

Patrice Wira - 35 - 1999

Toute matrice A , *n n∈A R , définie semi-positive, 0≥A , peut être factorisée en deux

matrices racines carrées tel que : T=A A A ou T=A A A .

Les matrices racines carrées « gauche » et « droite » des deux expressions précédentes ne

sont pas forcément les mêmes.

Il peut y avoir plusieurs matrices racines carrées, et de toutes sortes. En fait, si M est une

matrice orthogonale, 1T −=M M , *n n∈M R , alors on montre que : T T=A A M M A .

T TA M est une matrice racine carrée de A .

Si 0>A , alors toutes les matrices racines carrées de A sont non singulières.

Page 41: Un rappel sur les matrices - Laboratoire MIPS - TROP Calculs matriciels (matrix algebra) 1 1. Représentation matricielle et notations 1 2. L’addition

Patrice Wira - 36 - 1999

Les fonctions vectorielles (matrix calculus)

1. La différentiation et l’intégration par rapport à un scalaire

Soit x vecteur, n∈x R et soit A une matrice, *m n∈A R .

La dérivée du vecteur x par rapport à un scalaire t vaut :

1

n

x t

tx t

∂ ∂ ∂ = ∂

∂ ∂

x et [ ]1

T

nx t x tt

∂= ∂ ∂ ∂ ∂

∂x

.

La dérivée de la matrice A par rapport à un scalaire t vaut :

ijat t

∂ ∂= ∂ ∂

A.

Quelques propriétés sur la dérivation : Soient *m n∈A R et *m n∈B R des matrices et soit n∈x R un vecteur :

( )t t t∂ ∂ ∂

+ = +∂ ∂ ∂

A BA B

( )t t t∂ ∂ ∂

= +∂ ∂ ∂

A BAB B A

1 2 1n

n n n

t t t t− − −∂ ∂ ∂ ∂

= + + +∂ ∂ ∂ ∂A A A AA A A A

11 1

t t

−− −∂ ∂

= −∂ ∂A AA A

trace( )t t

∂ ∂=

∂ ∂A A A

1( ) 0t t

−∂ ∂= =

∂ ∂AA I

Remarque : dérivée d'un déterminant par un scalaire

La dérivée det( )t∂∂

A du déterminant d'une matrice *n n∈A R est la somme des n

déterminants obtenus en remplaçant de toutes les manières possibles les éléments d'une ligne

(colonne) de det( )A par leurs dérivées par rapport à t.

Page 42: Un rappel sur les matrices - Laboratoire MIPS - TROP Calculs matriciels (matrix algebra) 1 1. Représentation matricielle et notations 1 2. L’addition

Patrice Wira - 37 - 1999

Si x est un vecteur, n∈x R et si A est une matrice, *m n∈A R , leur intégration par rapport

à un scalaire t donne :

1

n

x t

t

x t

∂ =

∫∫

∫x et 1

Tnt x t x t ∂ = ∂ ∂ ∫ ∫ ∫x ,

ijt a t ∂ = ∂ ∫ ∫A .

2. Définition d'une fonction vectorielle

Un ensemble de fonctions multivariables à valeurs réelles, 1( )f x , 2 ( )f x , ..., ( )mf x , n∈x R ,

peut être représenté par une unique fonction vectorielle, : n m→f R R , : nif →R R :

[ ]1 2( ) ( ) ( ) ( ) Tmf f f=f x x x x .

Si ( )f x est une fonction vectorielle, [ ]1 2( ) ( ) ( ) ( ) Tmf f f= =y f x x x x , où n∈x R et

: n m→f R R .

La dérivée de la fonction f relative à une constante t vaut : ( ) 2T T T

t∂

= + =∂yQy y Qy y Qy y Qy avec

( )t t

∂ ∂= =∂ ∂y f xy et avec Q une matrice de

pondération.

3. Le gradient d’une fonction scalaire

Soit une fonction multivariable à valeurs scalaires, définie par :

1 2( ) ( , , , )mf f x x x=x , : nf →R R .

x est un vecteur de dimension n, n∈x R .

Le gradient de la fonction f par rapport à x a pour expression :

2*1

( ) ( ) ( ) ( ) ( )( )T

i i nn

f f f f ffx x x x

∂ ∂ ∂ ∂ ∂= ∇ = = ∂ ∂ ∂ ∂ ∂

xx x x x xx

x.

Le vecteur gradient représente le vecteur des dérivées premières de la fonction f.

Le gradient de la fonction scalaire ( ) Tf =x x Qx , avec Q une matrice de pondération, *n n∈Q R , n∈x R , vaut :

Page 43: Un rappel sur les matrices - Laboratoire MIPS - TROP Calculs matriciels (matrix algebra) 1 1. Représentation matricielle et notations 1 2. L’addition

Patrice Wira - 38 - 1999

( )( ) 2 Tff ∂∇ = =

∂xxx x Q

x.

4. La Jacobienne d’une fonction vectorielle

Soit une fonction vectorielle [ ]1 2( ) ( ) ( ) ( ) Tmf f f=f x x x x , où n∈x R et

: n m→f R R .

La matrice des dérivées premières de la fonction f relatives aux composantes jx du vecteur

x s’écrit :

( ) ( )( ) i

j

fx

∂ ∂= = ∂ ∂

f x xJ xx

.

On appelle cette matrice la matrice Jacobienne de f . Cette matrice s’écrit également :

1 1

11

1

( ) ( )( )

( )( ) ( ) ( )

Tn

Tm m m

n

f fx xf

f f fx x

∂ ∂ ∂ ∂∇ = = ∇ ∂ ∂

∂ ∂

x

x

x xx

J xx x x

.

5. La Hessienne d’une fonction scalaire

Etant donné une fonction scalaire ( )f x , : nf →R R . La matrice Hessienne de ( )f x

relative au vecteur n∈x R est définie comme la matrice symétrique suivante : 2

*

( )( )i j n n

fx x

∂= ∂ ∂

xH x .

En notant ( )f x la fonction vectorielle qui vaut :

2*1

( ) ( ) ( ) ( ) ( )( ) ( ) T

i i nn

f f f f ffx x x x

∂ ∂ ∂ ∂ ∂= ∇ = = = ∂ ∂ ∂ ∂ ∂

xx x x x xf x x

x,

La matrice Hessienne s’écrit :

Page 44: Un rappel sur les matrices - Laboratoire MIPS - TROP Calculs matriciels (matrix algebra) 1 1. Représentation matricielle et notations 1 2. L’addition

Patrice Wira - 39 - 1999

[ ] 2

2 2

1 1 1

2 2

1 *

( ) ( )( ) ( ) ( ) ( )

( ) ( )

( ) ( )

TT

n

n n n n n

ff f

f fx x x x

f fx x x x

∂ ∂ ∂ ∂ = = ∇ = ∇ = = ∇ ∂ ∂ ∂ ∂

∂ ∂ ∂ ∂ ∂ ∂ = ∂ ∂ ∂ ∂ ∂ ∂

x x xxf x xH x f x x x

x x x x

x x

x x

.

La matrice Hessienne est la matrice des dérivées secondes de la fonction scalaire f

relativement au vecteur n∈x R . Elle représente la matrice Jacobienne du gradient de la

fonction scalaire f.

6. La dérivation chainée

Soit la fonction scalaire composée : ( ) ( (( ))f h g=x x , n∈x R et : nf →R R .

La règle de dérivation chaînée permet d’écrire :

i i

f h gx g x∂ ∂ ∂

=∂ ∂ ∂

.

Dans le cas général, si : r m→h R R , : n r→g R R et : n m→f R R , alors :

( ) ( ( )) ( )∇ = ∇ ∇x g xf x h g x g x .

7. Expansions en série de Taylor et de Maclaurin

Expansion en série de Taylor d'une fonction scalaire multivariable Soit une fonction scalaire multivariable ( )f x , : nf →R R , n∈x R .

L’expansion en série de Taylor de ( )f x au voisinage d’un point 0x en termes de

0 0i i ix x x∆ = − = ∆ = −x x x (i = 1, ..., n) s’exprime ainsi : 2

0 0 01 1 1

( ) 1 ( )( ) ( ) ( ) ( )2

n n n

i i ji i ji i j

f ff f f x x xx x x

ε= = =

∂ ∂= + ∆ = + ∆ + ∆ ∆ +

∂ ∂ ∂∑ ∑∑x xx x x x x

où 0( )ε x sont les termes d’ordres supérieur impliquants les dérivées partielles d’ordre

supérieur, négligeables lorsque ∆x est suffisamment petit.

En notation vectorielle, on obtient :

20 0 0 0

1( ) ( ) ( ) ( ) ( )2

T Tf f f ε= + ∆ ∇ + ∆ ∇ ∆ +x xx x x f x x x x x

Page 45: Un rappel sur les matrices - Laboratoire MIPS - TROP Calculs matriciels (matrix algebra) 1 1. Représentation matricielle et notations 1 2. L’addition

Patrice Wira - 40 - 1999

Série de Taylor à deux variables Soit une fonction scalaire ( , )f x y à deux variables admettant des dérivées partielles d’ordre

n+1 dans un certain domaine, pour des points 0 0( , )x y et ( , )x y .

L’expansion en série de Taylor de ( , )f x y au voisinage d’un point 0 0( , )x y est :

0 0 0 00 0 0 0

2 2 2 2 20 0 0 0 0 0 0 0

0 0 0 02 2

( , ) ( , )( , ) ( , ) ( ) ( )

( ) ( , ) ( , ) ( ) ( , )( )( ) ( , )2 2

f x y f x yf x y f x y x x y yx y

x x f x y f x y y y f x yx x y y x yx x y y

ε

∂ ∂= + − + −

∂ ∂

− ∂ ∂ − ∂+ + − − + +

∂ ∂ ∂ ∂

Avec 0x x x∆ = − et 0y y y∆ = − , on a :

0 0 0 00 0 0 0

2 2 2 2 20 0 0 0 0 0

0 02 2

( , ) ( , )( , ) ( , )

( , ) ( , ) ( , ) ( , )2 2

f x y f x yf x x y y f x y x yx y

x f x y f x y y f x yx y x yx x y y

ε

∂ ∂+ ∆ + ∆ = + ∆ + ∆

∂ ∂

∆ ∂ ∂ ∆ ∂+ + ∆ ∆ + +

∂ ∂ ∂ ∂

Par rapport au cas multivariable, on a posé : [ ]Tx y=x , [ ]0 0 0Tx y=x .

Série de Taylor à une variable (à l’ordre n) L’expansion en série de Taylor à l'ordre n d'une une fonction scalaire ( )f x dépendant d'une

unique variable x est : 2 2

0 0 0 0 00 0 02

( ) ( ) ( ) ( ) ( )( ) ( ) ( ) ... ( )2 !

n n

n

f x x x f x x x f xf x f x x x xx x n x

ε∂ − ∂ − ∂= + − + + + +

∂ ∂ ∂,

c'est à dire, avec 0x x x∆ = − et 0y y y∆ = − : 2 2

0 0 00 0 02

( ) ( ) ( )( ) ( ) ... ( )2 !

n n

n

f x x f x x f xf x x f x x xx x n x

ε∂ ∆ ∂ ∆ ∂+ ∆ = + ∆ + + + +

∂ ∂ ∂.

Série de Maclaurin à une variable (à l’ordre n) L’expansion en série de Maclaurin est un cas particulier de celle de la série de Taylor. Cette

particularité est marquée par le fait que l'expansion se fait autour de 0 0x = ce qui revient à

dire que x x∆ = : 2 2

2

(0) (0) (0)( ) (0) ...2 !

n n

n

f x f x ff x f xx x n x

∂ ∂ ∂= + + + +

∂ ∂ ∂.

Page 46: Un rappel sur les matrices - Laboratoire MIPS - TROP Calculs matriciels (matrix algebra) 1 1. Représentation matricielle et notations 1 2. L’addition

Patrice Wira - 41 - 1999

Série de Maclaurin à deux variables Soit une fonction scalaire ( , )f x y à deux variables. Son expansion en série de Maclaurin

s'écrit : 2 2 2 2 2

2 2

(0,0) (0,0) (0,0) (0,0) (0,0)( , ) (0,0) ...2 2

f f x f f y ff x y f x y xyx y x x y y

∂ ∂ ∂ ∂ ∂= + + + + + +

∂ ∂ ∂ ∂ ∂ ∂.

Expansion en série de Maclaurin d'une fonction scalaire multivariable Si ( )f x est une fonction scalaire multivariable, : nf →R R , n∈x R , son expansion en série

de Maclaurin au voisinage de 0x et en termes de 0 0i i ix x x∆ = − = ∆ = −x x x (i = 1, ..., n) est

donné par : 2

1 1 1

(0) 1 (0)( ) (0) ...2

n n n

i i ji i ji i j

f ff f x x xx x x= = =

∂ ∂= + + +

∂ ∂ ∂∑ ∑∑x .

La notation vectorielle est plus adaptée :

21( ) (0) (0) (0) ...2

T Tf f f= + ∇ + ∇ +x xx x f x x .

Page 47: Un rappel sur les matrices - Laboratoire MIPS - TROP Calculs matriciels (matrix algebra) 1 1. Représentation matricielle et notations 1 2. L’addition

Patrice Wira - 42 - 1999

Bibliographie

Ayres, F., Jr., 1991. Matrices : cours et problèmes, McGraw Hill, New York.

Cairoli, R., 1996. Algèbre linéaire, Presses Polytechniques et Universitaires Romandes,

Lausanne.

Christol, G., Pilibossian, P., and Yammine, S., 1996. Algèbre, cours et exercices corrigés,

Ellipses-Edition Marketing, Paris.

Kohonen, T., 1984. Self-Organization and Associative Memory, Springer-Verlag, Berlin.

Rotella, F., and Borne, P., 1995. Théorie et pratique du calcul matriciel, Editions Technip,

Paris.

Stoer, J., and Bulirsch, R., 1993. Introduction to Numerical Analysis, Springer-Verlag, New

York.

Strang G., 1993. Introduction to Linear Algebra, .Welleley Cambridge Press, Wellesley.

Annexe

Alphabet Grec

Alpha Α α Nu Ν ν

Bêta Β β Xi Ξ ξ

Gamma Γ γ Omicron Ο ο

Delta ∆ δ Pi Π π

Epsilon Ε ε Rhô Ρ ρ

Zêta Ζ ζ Sigma Σ σ

Êta Η η Tau Τ τ

Thêta Θ θ Upsilon Υ υ

Iota Ι ι Phi Φ φ, ϕ

Kappa Κ κ Khi Χ χ

Lambda Λ λ Psi Ψ ψ

Mu Μ µ Oméga Ω ω