Skip to content

Rappels d'algèbre linéaire

Vecteurs et matrices

Vecteurs

Un vecteur xRn est un tableau ordonné de n nombres réels :

x=[x1x2xn]

Le produit scalaire entre deux vecteurs x,yRn est défini par :

x,y=xTy=i=1nxiyi

La norme euclidienne est x=xTx.

Deux vecteurs sont orthogonaux si xTy=0.

Matrices

Une matrice ARm×n est un tableau de m lignes et n colonnes. Les opérations fondamentales sont :

  • Transposée : [AT]ij=[A]ji
  • Produit matriciel : [AB]ij=kaikbkj
  • Trace : tr(A)=iaii (matrices carrées)
  • Déterminant : det(A) (matrices carrées)

Propriétés du produit :

  • (AB)T=BTAT
  • (ABC)=A(BC) (associativité)
  • En général, ABBA (non-commutatif)

Matrices particulières

TypeDéfinitionPropriétés
SymétriqueA=ATValeurs propres réelles
OrthogonaleATA=IPréserve les normes
Diagonaleaij=0 si ijA1=diag(1/aii)
IdentitéIij=δijAI=IA=A

Transformations linéaires

Une matrice ARm×n définit une application linéaire f:RnRm par f(x)=Ax.

L'image du cercle unité par différentes matrices illustre la nature géométrique des transformations linéaires :

Transformations linéaires

Figure 1 : Image du cercle unité par différentes transformations linéaires

Systèmes linéaires et inverse

Inverse d'une matrice

Une matrice carrée ARn×n est inversible s'il existe A1 telle que :

AA1=A1A=I

A est inversible si et seulement si det(A)0.

Propriétés :

  • (A1)1=A
  • (AB)1=B1A1
  • (AT)1=(A1)T

Résolution de systèmes linéaires

Le système Ax=b admet :

  • Une solution unique si A est inversible : x=A1b
  • Une infinité de solutions si le système est sous-déterminé (m<n)
  • Aucune solution exacte si le système est sur-déterminé (m>n), ce qui conduit à la notion de moindres carrés

Valeurs propres et vecteurs propres

Définition

Un scalaire λ et un vecteur non nul v sont respectivement une valeur propre et un vecteur propre de A si :

Av=λv

Les valeurs propres sont les racines du polynôme caractéristique det(AλI)=0.

Diagonalisation

Si A possède n vecteurs propres linéairement indépendants, elle est diagonalisable :

A=PΛP1

Λ=diag(λ1,,λn) et les colonnes de P sont les vecteurs propres.

Pour une matrice symétrique A=AT :

  • Toutes les valeurs propres sont réelles
  • Les vecteurs propres sont orthogonaux : A=QΛQT avec Q orthogonale
Valeurs propres et conditionnement

Figure 2 : Vecteurs propres d'une matrice symétrique, spectre et conditionnement

Conditionnement

Le nombre de conditionnement d'une matrice inversible est :

κ(A)=AA1=λmaxλmin

Un conditionnement élevé (κ1) signifie que le système est mal conditionné : de petites perturbations sur b entraînent de grandes variations sur la solution x. Ce problème est central en régression linéaire et motive l'utilisation de la régularisation.

Projection orthogonale

Principe

La projection orthogonale de b sur l'image de A (notée Im(A)) est le vecteur b^Im(A) qui minimise la distance bb^ :

b^=A(ATA)1ATb

La matrice P=A(ATA)1AT est la matrice de projection sur Im(A).

Propriétés :

  • P2=P (idempotente)
  • PT=P (symétrique)
  • Le résidu e=bb^ est orthogonal à Im(A) : ATe=0
Projection orthogonale

Figure 3 : Projection orthogonale sur une droite (2D) et sur un plan (3D)

Lien avec les moindres carrés

La solution au sens des moindres carrés du système sur-déterminé Axb est :

x^=argminxbAx2=(ATA)1ATb

C'est exactement le vecteur x tel que Ax^=b^, la projection de b sur Im(A). Cette formule est au coeur de la régression linéaire.

Décomposition en valeurs singulières (SVD)

Définition

Toute matrice ARm×n admet une décomposition en valeurs singulières :

A=UΣVT

où :

  • URm×m est orthogonale (vecteurs singuliers gauches)
  • ΣRm×n est diagonale avec σ1σ20 (valeurs singulières)
  • VRn×n est orthogonale (vecteurs singuliers droits)

Géométriquement, la SVD décompose toute transformation linéaire en trois étapes : rotation, dilatation, rotation.

Décomposition SVD

Figure 4 : Interprétation géométrique de la SVD : rotation → dilatation → rotation

Propriétés

  • Le rang de A est le nombre de valeurs singulières non nulles
  • Les valeurs propres de ATA sont σi2
  • AF=iσi2 (norme de Frobenius)
  • La pseudo-inverse de Moore-Penrose est A+=VΣ+UT

Formes quadratiques et matrices définies positives

Forme quadratique

Une forme quadratique associée à une matrice symétrique A est la fonction :

q(x)=xTAx=i,jaijxixj

La nature de la forme quadratique dépend du signe des valeurs propres de A :

TypeConditionValeurs propres
Définie positiveq(x)>0 pour tout x0Toutes >0
Semi-définie positiveq(x)0 pour tout xToutes 0
Indéfinieq change de signePositives et négatives
Formes quadratiques

Figure 5 : Lignes de niveau de formes quadratiques selon la nature de la matrice

Matrices définies positives

Les matrices définies positives jouent un rôle central en estimation statistique :

  • La matrice de covariance Σ est semi-définie positive
  • La matrice ATA est toujours semi-définie positive
  • ATA est définie positive si et seulement si A est de rang plein

Propriétés : Si A est définie positive, alors :

  • A est inversible
  • det(A)>0
  • A1 est aussi définie positive
  • Il existe une unique matrice A1/2 définie positive telle que A1/2A1/2=A

Dérivation matricielle

Les dérivées matricielles sont essentielles pour l'optimisation en estimation et régression.

Gradient

Le gradient d'une fonction scalaire f:RnR par rapport à x est :

xf=[fx1fxn]

Formules utiles

Pour A matrice constante, b vecteur constant :

FonctionGradient
f(x)=bTxf=b
f(x)=xTAxf=(A+AT)x
f(x)=xTAx (A symétrique)f=2Ax
f(x)=|bAx|2f=2AT(bAx)

La dernière formule est directement utilisée pour dériver la solution des moindres carrés : en posant f=0, on obtient les équations normales ATAx=ATb.