58

le hasard au service des algorithmes …membres-timc.imag.fr/Olivier.Francois/MPA_Cours1.pdfLois gaussiennes I Mélange de gaussiennes.Les composantes du mélanges sont des lois normales

  • Upload
    others

  • View
    0

  • Download
    0

Embed Size (px)

Citation preview

Page 1: le hasard au service des algorithmes …membres-timc.imag.fr/Olivier.Francois/MPA_Cours1.pdfLois gaussiennes I Mélange de gaussiennes.Les composantes du mélanges sont des lois normales

Modèles probabilistes pour l'apprentissage

le hasard au service des algorithmes

[email protected] [email protected]

Page 2: le hasard au service des algorithmes …membres-timc.imag.fr/Olivier.Francois/MPA_Cours1.pdfLois gaussiennes I Mélange de gaussiennes.Les composantes du mélanges sont des lois normales

Qu'entend-t-on par apprentissage?

I Méthodes qui permettent à une � machine � d'évoluer grâce à

un processus automatique

I Principe : Modéliser la réponse d'un système à partir des

variables d'entrées et des données empiriques recueillies pour

ce système

I Adaptatif et �exible, prenant en compte l'évolution de la base

d'information des comportements enregistrés

Page 3: le hasard au service des algorithmes …membres-timc.imag.fr/Olivier.Francois/MPA_Cours1.pdfLois gaussiennes I Mélange de gaussiennes.Les composantes du mélanges sont des lois normales

Histoire

I 1943 : McCulloch et Pitts, Turing, von Neuman, considérent

les fonctions mentales comme des fonctions mathématiques

auto-régulées.

A Logical Calculus of Ideas Immanent in Nervous Activity, 1943,

Bull. Math. Biophys. 5:115-133.

I 1957 : Perceptron de Rosenblatt (Mark 1) �The fundamental

laws of organization which are common to all information

handling systems, machines and men included, may eventually

be understood�

Page 4: le hasard au service des algorithmes …membres-timc.imag.fr/Olivier.Francois/MPA_Cours1.pdfLois gaussiennes I Mélange de gaussiennes.Les composantes du mélanges sont des lois normales

Applications

I Reconnaissance des formes, reconnaissance vocale, vision par

ordinateur

I Aide au diagnostic, détection de fraude, d'anomalies, de

spams, analyse �nancière, bio-informatique

I Sites web adaptatifs : Recommandation de produits (Amazon,

Net�ix)

I Moteurs de recherche

Page 5: le hasard au service des algorithmes …membres-timc.imag.fr/Olivier.Francois/MPA_Cours1.pdfLois gaussiennes I Mélange de gaussiennes.Les composantes du mélanges sont des lois normales

Contenu de cet exposé

I Principes d'analyse bayésienne

I Recherche d'un objet

I Estimation d'une probabilité

I Reconnaître des groupes dans les données

I Prédire vos préférences cinématographiques

Page 6: le hasard au service des algorithmes …membres-timc.imag.fr/Olivier.Francois/MPA_Cours1.pdfLois gaussiennes I Mélange de gaussiennes.Les composantes du mélanges sont des lois normales

Objectifs d'une analyse bayésienne

I Apprentissage : Mettre à jour l'information disponible sur un

phénomène à partir d'observations de ce phénomène

I Quanti�er l'incertitude sur les paramètres expliquant le

phénomène

I Prédire les valeurs de nouvelles données et évaluer l'incertitude

de cette prédiction

Page 7: le hasard au service des algorithmes …membres-timc.imag.fr/Olivier.Francois/MPA_Cours1.pdfLois gaussiennes I Mélange de gaussiennes.Les composantes du mélanges sont des lois normales

The blind men and the elephant

Page 8: le hasard au service des algorithmes …membres-timc.imag.fr/Olivier.Francois/MPA_Cours1.pdfLois gaussiennes I Mélange de gaussiennes.Les composantes du mélanges sont des lois normales

Lien avec �la� statistique

I En statistique, l'objectif est généralement de tester une

hypothèse et de déterminer la zone de rejet du test

I L'incertitude sur le paramètre à tester n'est pas modélisée. La

seule source d'incertitude prise en compte provient de

l'échantillonnage.

Page 9: le hasard au service des algorithmes …membres-timc.imag.fr/Olivier.Francois/MPA_Cours1.pdfLois gaussiennes I Mélange de gaussiennes.Les composantes du mélanges sont des lois normales

La formule de Bayes

I Soit A,B des événements de probabilité non-nulle

P(B|A) =P(A|B)P(B)

P(A)∝ P(A|B)P(B)

Page 10: le hasard au service des algorithmes …membres-timc.imag.fr/Olivier.Francois/MPA_Cours1.pdfLois gaussiennes I Mélange de gaussiennes.Les composantes du mélanges sont des lois normales

Exemple 1 : Recherche d'un objet

I Un exemple élémentaire où l'observation permet de (re)mettre

à jour des connaissances a priori.

Page 11: le hasard au service des algorithmes …membres-timc.imag.fr/Olivier.Francois/MPA_Cours1.pdfLois gaussiennes I Mélange de gaussiennes.Les composantes du mélanges sont des lois normales

USS ne répond plus

I Uss Scorpion (SSN-589): un sous-marin nucléaire américain

qui a coulé dans l'océan atlantique en 1968

I L'épave a été retrouvée au bout de 5 mois de recherche à l'aide

de signaux sonores et d'une méthode de recherche bayésienne

I Principe ?

Page 12: le hasard au service des algorithmes …membres-timc.imag.fr/Olivier.Francois/MPA_Cours1.pdfLois gaussiennes I Mélange de gaussiennes.Les composantes du mélanges sont des lois normales

Recherche d'un objet

Page 13: le hasard au service des algorithmes …membres-timc.imag.fr/Olivier.Francois/MPA_Cours1.pdfLois gaussiennes I Mélange de gaussiennes.Les composantes du mélanges sont des lois normales

Cartes de probabilité

I Carte a priori :

pi = P(Uss est dans la cellule i)

I Probabilité d'erreur de mesure = 1− q

I Supposons que le résultat de la recherche dans la cellule i est

infructueux

I Mise à jour des probabilités

P(Uss est dans la cellule i |Resultat negatif) =(1− q)pi1− qpi

.

Page 14: le hasard au service des algorithmes …membres-timc.imag.fr/Olivier.Francois/MPA_Cours1.pdfLois gaussiennes I Mélange de gaussiennes.Les composantes du mélanges sont des lois normales

Jour 0

Page 15: le hasard au service des algorithmes …membres-timc.imag.fr/Olivier.Francois/MPA_Cours1.pdfLois gaussiennes I Mélange de gaussiennes.Les composantes du mélanges sont des lois normales

Jour 1

Page 16: le hasard au service des algorithmes …membres-timc.imag.fr/Olivier.Francois/MPA_Cours1.pdfLois gaussiennes I Mélange de gaussiennes.Les composantes du mélanges sont des lois normales

Jour 5

Page 17: le hasard au service des algorithmes …membres-timc.imag.fr/Olivier.Francois/MPA_Cours1.pdfLois gaussiennes I Mélange de gaussiennes.Les composantes du mélanges sont des lois normales

Jour 13

Page 18: le hasard au service des algorithmes …membres-timc.imag.fr/Olivier.Francois/MPA_Cours1.pdfLois gaussiennes I Mélange de gaussiennes.Les composantes du mélanges sont des lois normales

Jour 37

Page 19: le hasard au service des algorithmes …membres-timc.imag.fr/Olivier.Francois/MPA_Cours1.pdfLois gaussiennes I Mélange de gaussiennes.Les composantes du mélanges sont des lois normales

Jour 57

Page 20: le hasard au service des algorithmes …membres-timc.imag.fr/Olivier.Francois/MPA_Cours1.pdfLois gaussiennes I Mélange de gaussiennes.Les composantes du mélanges sont des lois normales

Jour 67

Page 21: le hasard au service des algorithmes …membres-timc.imag.fr/Olivier.Francois/MPA_Cours1.pdfLois gaussiennes I Mélange de gaussiennes.Les composantes du mélanges sont des lois normales

Modèle probabiliste pour l'analyse bayésienne

I Paramètre θ = (θ1, . . . , θJ), J ≥ 1.

I Données y = (y1, . . . , yn), n ≥ 1.

I Un modèle est décrit par une loi de probabilité jointe :

p(y , θ) = p(y |θ)p(θ)

Page 22: le hasard au service des algorithmes …membres-timc.imag.fr/Olivier.Francois/MPA_Cours1.pdfLois gaussiennes I Mélange de gaussiennes.Les composantes du mélanges sont des lois normales

Modèle probabiliste pour l'analyse bayésienne

I p(θ) est la loi a priori. Elle peut être informative ou

non-informative.

I p(y |θ) est la vraisemblance. Elle décrit la manière dont sont

générées les données observées dans le modèle.

p(y , θ) = p(y |θ)p(θ)

Page 23: le hasard au service des algorithmes …membres-timc.imag.fr/Olivier.Francois/MPA_Cours1.pdfLois gaussiennes I Mélange de gaussiennes.Les composantes du mélanges sont des lois normales

Inférence bayésienne

I On utilise la formule de Bayes pour calculer la loi a posteriori

p(θ|y) =p(y |θ)p(θ)

p(y)

où p(y) =∫p(y |θ)p(θ)dθ est la loi marginale.

I En général, on cherche à éviter le calcul de la loi marginale et

on écrit

p(θ|y) ∝ p(y |θ)p(θ)

Page 24: le hasard au service des algorithmes …membres-timc.imag.fr/Olivier.Francois/MPA_Cours1.pdfLois gaussiennes I Mélange de gaussiennes.Les composantes du mélanges sont des lois normales

Exemple 2 : Sondage

I Une source émet des signaux binaires, xi , et on cherche à

estimer la probabilité d'émettre un 1.

I On note cette probabilité θ

p(xi = 1|θ) = θ

I Puis on observe une suite de signaux émis par la source :

1, 0, 1, . . .

Page 25: le hasard au service des algorithmes …membres-timc.imag.fr/Olivier.Francois/MPA_Cours1.pdfLois gaussiennes I Mélange de gaussiennes.Les composantes du mélanges sont des lois normales

Apprentissage : x = 1, 0, 1, · · ·

Etape 1:

p(θ|x1 = 1) ∝ p(x1 = 1|θ)p(θ) = θ (p(θ) = 1)

Etape 2:

p(θ|x2 = 0, x1 = 1) ∝ p(x2 = 0|θ)p(θ|x1 = 1) = (1− θ)θ

Etape 3:

p(θ|x3 = 1, x2 = 0, x1 = 1) ∝ p(x3 = 1|θ)(1− θ)θ = (1− θ)θ2

Page 26: le hasard au service des algorithmes …membres-timc.imag.fr/Olivier.Francois/MPA_Cours1.pdfLois gaussiennes I Mélange de gaussiennes.Les composantes du mélanges sont des lois normales

Apprentissage

0.0 0.2 0.4 0.6 0.8 1.0

0.6

0.8

1.0

1.2

1.4

Loi a priori

dbet

a(u,

1, 1

)

0.0 0.2 0.4 0.6 0.8 1.0

0.0

0.5

1.0

1.5

2.0

Donnée = 1db

eta(

u, 2

, 1)

0.0 0.2 0.4 0.6 0.8 1.0

0.0

0.5

1.0

1.5

Donnée = 0

dbet

a(u,

2, 2

)

0.0 0.2 0.4 0.6 0.8 1.0

0.0

0.5

1.0

1.5

Donnée = 1

dbet

a(u,

3, 2

)

Probabilité

Page 27: le hasard au service des algorithmes …membres-timc.imag.fr/Olivier.Francois/MPA_Cours1.pdfLois gaussiennes I Mélange de gaussiennes.Les composantes du mélanges sont des lois normales

Loi Beta(θ) ∝ θα−1(1− θ)β−1

0.0 0.2 0.4 0.6 0.8 1.0

24

68

10

α = β = 1/2

x0.0 0.2 0.4 0.6 0.8 1.0

0.6

0.8

1.0

1.2

1.4

α = β = 1

x0.0 0.2 0.4 0.6 0.8 1.0

0.0

0.5

1.0

1.5

2.0

2.5

α = 2 β = 5

x

I Espérance et mode de la loi Beta

E[θ] =α

α + βMode(θ) =

α− 1

α + β − 2

Page 28: le hasard au service des algorithmes …membres-timc.imag.fr/Olivier.Francois/MPA_Cours1.pdfLois gaussiennes I Mélange de gaussiennes.Les composantes du mélanges sont des lois normales

Modèle Beta-binomial

I La loi a priori est uniforme θ ∼ beta(1,1).

I Données: On observe y =∑

xi = 9 fois la valeur 1 dans un

échantillon de n = 20 répétitions (fréquence = .45)

I Vraisemblance

p(y |θ) = binom(n, θ)(y) ∝ θy (1− θ)n−y

I Loi a posteriori

p(θ|y) = beta(y + 1, n + 1− y)(θ)

Page 29: le hasard au service des algorithmes …membres-timc.imag.fr/Olivier.Francois/MPA_Cours1.pdfLois gaussiennes I Mélange de gaussiennes.Les composantes du mélanges sont des lois normales

Remarques

I Estimateur bayésien

E[θ|y ] =y + 1

n + 2≈ y

n, lorsque n→∞

I Intervalle de crédibilité, I , tel que Pr(θ ∈ I |y) = .95

I = (0.25, 0.65)

Page 30: le hasard au service des algorithmes …membres-timc.imag.fr/Olivier.Francois/MPA_Cours1.pdfLois gaussiennes I Mélange de gaussiennes.Les composantes du mélanges sont des lois normales

Loi jointe

● ●

●●

●●

●●

●●

●●

●●

● ●

● ●

●●

●●

●●

●●

●●

●●

●●

●●

●●

●●

●●

● ●

●●

●●

●●

●●

●●

●●

● ●●

●●

●●

●●

● ●

●●

● ●

●●●

●●

●●

●●

●●

●●

●●

●●

●●

● ●

●●

●●

●●

●●

●●

●●

●●

● ●

● ●

●●

●●

●●

● ●

●●

●●

● ●

●●

● ●

●●

●●

●●

●●

●●

●●

●●

●●

●●

● ●

●●

● ●

●●

●●

●●

● ●

● ●

●●

●●

●●

●●

●●

●●

●●

●●

●●

●●

●●

●●

● ●

●● ●

●●

●●

●●

●●

●●

●●

●●

●●

●●

●●

● ●

●●

●●

●●

● ●

● ●

●●

●●

●●

●●

●●

●●

●●

●●

●●

●●

● ●

●●

●●

●●

●●

●●

●●

●●

●●

● ●

●●

●●

●●

●●

●●

●●

●●●

●●

●●

●●

●●

●●

●●

●●

●●

●●●

●●

●●

●●

●●

●●

●●

●●

●●

●●

●●

●●

● ●●

●●

●●

●●

●●

●●

●●

●●

●●

●●

●●

●●

●●

●●

●●

● ●

●●

●●

●●

●●

●●

● ●

●●

●●

●●

●●

●●●

●●

●●

●●

●●

●●

●●

●●

●●

●●

●●

● ●

●●

●●

●●

●●

● ●

●●

●●

●●

●●

●●

●●

● ●

●●

●●

●●

●●

●●

●●

● ●

●●

● ●

●●

●●

●●

●●

●●

● ●

●●

●●

●●

●●

●●

●●

●●

●●

●●

●●

●●

●●

●●

●●

●●

●●

●●

●●

●●

●●

● ●

●●

●●

●●

●●

●●

●●

● ●

●●

●●

●●

●●

●●

● ●

●●

●●

●●

●●

●●

●●

●●●

●●

●●

●●

●●

● ●●

●●

●●

●●

●●

●●●

●●

●●

● ●

●●

●●

●●

● ●

●●

●● ●

●●

● ●

●●

●●

●●

●●

●●

●●

● ●

● ●

●●

● ●

●● ●

●●

●●

●●

●●

●●

● ●

●●

● ●

●●

●●

●●

●●

●●

● ●

●●

●●

●●

● ●

●●

●●

● ●

●●

●●

●●

●●

● ●

●●

●●

● ●

●●

● ●

●●

● ●

● ●

●●

●●

● ●

●●

●●

●●

● ●

●●

●●

●●

●●

● ●●

●●

●●●

● ●

●●

●●

●●

●●

●●

●●

● ●

●●

●●

●●

●●

● ●

●●

● ●

●●

●●

● ●

●●

●●

●●

●●

●●

● ●

● ●

●●

●●

●●

●●

●●

●●

●●

●●

●●

● ●

●●

●● ●

●●

●●

●●

●●

●●

●●

● ●

●●

●●

●●

●●

●●

●●

● ●

●●

●●

●●

●●

●●

●●

● ●

●●●

●●

●● ●

●●

●●

●●

● ●

●●

●●

●●

● ●

●●

●●

●●

●●

●●

● ●

● ●

● ●

●●

●●

●●

●●

●●

●●

●●

●●

●●

●●

● ●

●●

●●

●●

●●

●●

●●

● ●

●●

●●

●●

●●

●●

●●

●●

●●

●●

●●

●●

● ●

●●

●●

●●

●●

●●

● ●

●●

● ●

●●

●●

0 5 10 15 20

0.0

0.2

0.4

0.6

0.8

1.0

Y.sim

thet

a

●●

●●

●●

●●

●●●

●●

●●●

●●

●●

●●

●●

●●

●●

●●

●●●

●●

●●●

●●

●●

●●

●●

●●

●●

●●

●●

●●

●●

●●

●●

●●

●●●

●●

●●

●●

●●

●●

●●

●●

●●●●

●●

●●

●●

●●

●●●

●●

●●

●●●

●●

●●●●

●●

●●

●●

Page 31: le hasard au service des algorithmes …membres-timc.imag.fr/Olivier.Francois/MPA_Cours1.pdfLois gaussiennes I Mélange de gaussiennes.Les composantes du mélanges sont des lois normales

Simuler la loi a posteriori

I Algorithme de rejet :

Repeat

theta <- unif(0,1)

y.s <- binom(n,theta)

Until (y.s == y)

return(theta)

I De manière générale, cet algorithme produit des simulations

selon la loi a posteriori p(θ|y)

py (θ) =∞∑s=1

(1− p(y))s−1p(y , θ) = p(θ|y).

Page 32: le hasard au service des algorithmes …membres-timc.imag.fr/Olivier.Francois/MPA_Cours1.pdfLois gaussiennes I Mélange de gaussiennes.Les composantes du mélanges sont des lois normales

Résultat de la simulation

0.0 0.2 0.4 0.6 0.8 1.0

01

23

Posterior distribution

u

Fre

quen

cy

posterior predictive distribution

y.rep

Den

sity

5 10 150.

000.

040.

080.

12

Page 33: le hasard au service des algorithmes …membres-timc.imag.fr/Olivier.Francois/MPA_Cours1.pdfLois gaussiennes I Mélange de gaussiennes.Les composantes du mélanges sont des lois normales

Exemple 3 : Classi�cation non-supervisée

I Une observation, y ∈ R, est supposée provenir d'un mélange

de K sources.

I Combinaison convexe de densités. Soit (pk)k=1,...,K , tels que∑Kk=1 pk = 1, et θ = (θk)k=1,...,K .

I On appelle mélange le modèle suivant

p(y |θ) =K∑

k=1

pkp(y |θk)

Page 34: le hasard au service des algorithmes …membres-timc.imag.fr/Olivier.Francois/MPA_Cours1.pdfLois gaussiennes I Mélange de gaussiennes.Les composantes du mélanges sont des lois normales

Lois gaussiennes

I Mélange de gaussiennes. Les composantes du mélanges sont

des lois normales de paramètres θk = (mk , σ2

k)

p(y |θk) = N(mk , σ2

k)(y)

Page 35: le hasard au service des algorithmes …membres-timc.imag.fr/Olivier.Francois/MPA_Cours1.pdfLois gaussiennes I Mélange de gaussiennes.Les composantes du mélanges sont des lois normales

Questions principales

I Combien de groupes peut on distinguer dans les données ?

I Quelles sont les moyennes et les variances des groupes ?

I Pour un individu donné, quelle est la probabilité pour qu'il

provienne du groupe k ?

Page 36: le hasard au service des algorithmes …membres-timc.imag.fr/Olivier.Francois/MPA_Cours1.pdfLois gaussiennes I Mélange de gaussiennes.Les composantes du mélanges sont des lois normales

Exemple de mélange (K = 2)

Histogram of y

y

Den

sity

−2 0 2 4 6

0.00

0.05

0.10

0.15

0.20

Histogram of y

yD

ensi

ty

−2 0 2 4 6

0.00

0.05

0.10

0.15

0.20

pjaune = 30% pbleu = 70%

Page 37: le hasard au service des algorithmes …membres-timc.imag.fr/Olivier.Francois/MPA_Cours1.pdfLois gaussiennes I Mélange de gaussiennes.Les composantes du mélanges sont des lois normales

Modèle de mélange

I Pour un échantillon : y = (y1, . . . , yn)

I Vraisemblance

p(y |θ) =n∏

i=1

(K∑

k=1

pkp(yi |θk)

)

I Mélange gaussien: Pour tout i = 1, . . . , n,

p(yi |θk) = N(mk , σ2

k)(yi ) .

Page 38: le hasard au service des algorithmes …membres-timc.imag.fr/Olivier.Francois/MPA_Cours1.pdfLois gaussiennes I Mélange de gaussiennes.Les composantes du mélanges sont des lois normales

Les mélanges vus comme modèles hiérarchiques

I Introduisons une variable latente (non observée) représentant

une étiquette de classe zi ∈ {1, . . . ,K} pour tout yiI Pour tout i = 1, . . . , n, considérons

p(yi |θ, zi ) = p(yi |θzi) = N(mzi

, σ2zi)(yi )

I Avec cette représentation, nous retrouvons le mélange

p(yi |θ) =K∑

k=1

p(yi |θk)p(zi = k)

Page 39: le hasard au service des algorithmes …membres-timc.imag.fr/Olivier.Francois/MPA_Cours1.pdfLois gaussiennes I Mélange de gaussiennes.Les composantes du mélanges sont des lois normales

Classi�cation bayésienne

I Classer consiste à estimer l'étiquette de classe zi , pour tout i .

I On atteint cet objectif en calculant la loi marginale a posteriori

p(zi |y),

I à partir de la loi jointe a posteriori

p(θ, z |y) ∝ p(y |θ, z)p(θ)p(z)

Page 40: le hasard au service des algorithmes …membres-timc.imag.fr/Olivier.Francois/MPA_Cours1.pdfLois gaussiennes I Mélange de gaussiennes.Les composantes du mélanges sont des lois normales

Lois marginales a posteriori des étiquettes de classe p(zi |y)

Histogram of y

y

Den

sity

−2 0 2 4 6

0.00

0.05

0.10

0.15

0.20

0.0

0.6

Page 41: le hasard au service des algorithmes …membres-timc.imag.fr/Olivier.Francois/MPA_Cours1.pdfLois gaussiennes I Mélange de gaussiennes.Les composantes du mélanges sont des lois normales

Lois marginales a posteriori des étiquettes de classe p(zi |y)

Histogram of y

y

Den

sity

−2 0 2 4 6

0.00

0.05

0.10

0.15

0.20

0.0

0.2

0.4

0.6

0.8

1.0

Page 42: le hasard au service des algorithmes …membres-timc.imag.fr/Olivier.Francois/MPA_Cours1.pdfLois gaussiennes I Mélange de gaussiennes.Les composantes du mélanges sont des lois normales

Illustration numérique : Iris de Fisher

Page 43: le hasard au service des algorithmes …membres-timc.imag.fr/Olivier.Francois/MPA_Cours1.pdfLois gaussiennes I Mélange de gaussiennes.Les composantes du mélanges sont des lois normales

Exemple 4 : Systèmes de recommandation

I Un ensemble de n utilisateurs peut accéder à L ressources (par

exemple, des �lms) et indiquer ses appréciations au système

I Au fur et à mesure qu'un utilisateur entre ses appréciations, le

système lui suggère de nouvelles ressources, susceptibles de lui

plaire.

I Filtrage collaboratif

I Concours Net�ix

Page 44: le hasard au service des algorithmes …membres-timc.imag.fr/Olivier.Francois/MPA_Cours1.pdfLois gaussiennes I Mélange de gaussiennes.Les composantes du mélanges sont des lois normales

Matrices de données

I n individus, L �lms, chacun noté par une partie des n individus

seulement

I yi` = note de préférence entre 0 et 10, ou manquante.

Mov1 Mov2 Mov3

ind1 10 8 �

ind2 2 � 4

...

Page 45: le hasard au service des algorithmes …membres-timc.imag.fr/Olivier.Francois/MPA_Cours1.pdfLois gaussiennes I Mélange de gaussiennes.Les composantes du mélanges sont des lois normales

Factorisation de matrice

I Modèle :

yi` = µ` +K∑

k=1

uikvk` + εi`

I εi` est un bruit de variance σ2.

I Les vecteurs V` sont indépendants et de loi N(0, IdK )(orthogonaux).

I Ces vecteurs représentent K axes factoriels principaux.

I En termes matriciels

Y = µ+ UTV + ε

Page 46: le hasard au service des algorithmes …membres-timc.imag.fr/Olivier.Francois/MPA_Cours1.pdfLois gaussiennes I Mélange de gaussiennes.Les composantes du mélanges sont des lois normales

Facteurs latents

Koren et al. 2009

Page 47: le hasard au service des algorithmes …membres-timc.imag.fr/Olivier.Francois/MPA_Cours1.pdfLois gaussiennes I Mélange de gaussiennes.Les composantes du mélanges sont des lois normales

Vraisemblance

I Soit C = UUT + σ2Id

ln p(y |U, σ2, µ) = −n2

(L ln(2π) + ln |C |+ tr(C−1S)

)I où S est la matrice de covariance empirique

S =1

n

n∑i=1

(yi − µ)(yi − µ)T

Page 48: le hasard au service des algorithmes …membres-timc.imag.fr/Olivier.Francois/MPA_Cours1.pdfLois gaussiennes I Mélange de gaussiennes.Les composantes du mélanges sont des lois normales

Maximum de vraisemblance : SVD (Tipping et Bishop 1999)

I Projection sur les axes factoriels:

Umax = UK (ΛK − σ2Id)1/2R

I UK est la matrice (L× K ) formée des K premiers vecteurs

propres de la matrice de covariance empirique S

I ΛK est une matrice diagonale (K × K ) contenant les K plus

grandes valeurs propres de S

I R est une matrice de rotation arbitraire.

Page 49: le hasard au service des algorithmes …membres-timc.imag.fr/Olivier.Francois/MPA_Cours1.pdfLois gaussiennes I Mélange de gaussiennes.Les composantes du mélanges sont des lois normales

Projections sur les axes principaux

Koren et al. 2009

Page 50: le hasard au service des algorithmes …membres-timc.imag.fr/Olivier.Francois/MPA_Cours1.pdfLois gaussiennes I Mélange de gaussiennes.Les composantes du mélanges sont des lois normales

Aparté: Application en génétique humaine

yi` = variant génétique (Novembre et al. 2008)

Page 51: le hasard au service des algorithmes …membres-timc.imag.fr/Olivier.Francois/MPA_Cours1.pdfLois gaussiennes I Mélange de gaussiennes.Les composantes du mélanges sont des lois normales

Prédire les préférences des utilisateurs d'un site web

I Pour la recommandation : la loi prédictive peut être approchée

par

yi` ∼ µ` + N(0,UmaxUTmax) + εi`

I problème : L'analyse spectrale ne gère pas les (nombreuses)

données manquantes dans le tableau de données de départ.

Page 52: le hasard au service des algorithmes …membres-timc.imag.fr/Olivier.Francois/MPA_Cours1.pdfLois gaussiennes I Mélange de gaussiennes.Les composantes du mélanges sont des lois normales

Loi prédictive

I La loi prédictive a posteriori est dé�nie par

p(yrep|y) =

∫p(yrep|θ)p(θ|y)dθ

I Elle est obtenue concrètement de la manière suivanteI simuler θ selon p(θ|y)I simuler yrep selon p(yrep|θ)

Page 53: le hasard au service des algorithmes …membres-timc.imag.fr/Olivier.Francois/MPA_Cours1.pdfLois gaussiennes I Mélange de gaussiennes.Les composantes du mélanges sont des lois normales

Un algorithme stochastique pour la prédiction

I On simule des réalisations a posteriori des matrices U et V (U

gaussien)

I En alternant la simulation des lois conditionnelles U|V , y et

V |U, yI Elles sont calculables facilement car elles correspondent à des

régressions linéaires classiques

I Loi prédictive :

y ∼ µ+ UTpostVpost + ε

I Gestion des données manquantes!

Page 54: le hasard au service des algorithmes …membres-timc.imag.fr/Olivier.Francois/MPA_Cours1.pdfLois gaussiennes I Mélange de gaussiennes.Les composantes du mélanges sont des lois normales

THM

I Utilisation des probabilités pour l'analyse de données

I Approche par modèle, sans approximation asymptotique

I Quanti�cation de l'incertitude

I Données manquantes, données latentes

I Approches prédictives

Page 55: le hasard au service des algorithmes …membres-timc.imag.fr/Olivier.Francois/MPA_Cours1.pdfLois gaussiennes I Mélange de gaussiennes.Les composantes du mélanges sont des lois normales

Pour aller plus loin

I Gelman A et al. (2004) Bayesian Data Analysis, CRC Press.

I Bishop C (2007) Pattern Recognition and Machine Learning,

Springer.

I Hastie T et al. (2009) Elements of Statistical Learning,

Springer

http://www.stanford.edu/ hastie/

Page 56: le hasard au service des algorithmes …membres-timc.imag.fr/Olivier.Francois/MPA_Cours1.pdfLois gaussiennes I Mélange de gaussiennes.Les composantes du mélanges sont des lois normales

Derniers mots

It was six men of Indostan

To learning much inclined

Who went to see the Elephant

(Though all of them were blind)

That each by observation

Might satisfy his mind

Page 57: le hasard au service des algorithmes …membres-timc.imag.fr/Olivier.Francois/MPA_Cours1.pdfLois gaussiennes I Mélange de gaussiennes.Les composantes du mélanges sont des lois normales

à J.G. Saxe

And so these men of Indostan

Disputed loud and long,

Each in his own opinion

Exceeding sti� and strong,

Though each was partly in the right,

And all were in the wrong!

J.G. Saxe (1816 − 1887)

Page 58: le hasard au service des algorithmes …membres-timc.imag.fr/Olivier.Francois/MPA_Cours1.pdfLois gaussiennes I Mélange de gaussiennes.Les composantes du mélanges sont des lois normales

Merci pour votre attention!