Apprentissage Statistique 04-06-2019 Automatants · Apprentissage statistique Apprentissage...

Preview:

Citation preview

Amphi de révisionApprentissage Statistique

04-06-2019

Automatants

Apprentissage statistique

Apprentissage statistique

Supervisé Non supervisé

Régression ClassificationRéduction de dimensions

Partitionnement

Apprentissage supervisé

Variable à expliquer

𝑌

Variable explicatives

𝑋

Modèle statistique𝑝𝜃(𝑌|𝑋)

Consommation d’électricité d’une

villeℝ

Température,Heure,

Ensoleillement,Proportion en

vacances…ℝ4

Apprentissage

Estimation des paramètres du modèle 𝜃→ fonction de décision

Nouvelles entrées Prédictions

Apprentissage supervisé

Variable à expliquer

𝑌

Variable explicatives

𝑋

Modèle statistique𝑝𝜃(𝑌|𝑋)

Consommation d’électricité d’une

villeℝ

Température,Heure,

Ensoleillement,Proportion en

vacances…ℝ4

Apprentissage

Estimation des paramètres du modèle 𝜃→ fonction de décision

Nouvelles entrées Prédictions

Régressionℝ𝒎 ℝ𝒏

Apprentissage supervisé

Régressionℝ𝒎 ℝ𝒏

Variables à expliquer

𝑌

Variables explicatives

𝑋

Modèle statistique

linéaire

Apprentissage supervisé

Régressionℝ𝒎 ℝ𝒏

Variables à expliquer

𝑌

Variables explicatives

𝑋

Modèle statistique entrainé

Apprentissage supervisé

Variable à expliquer

𝑌

Variable explicatives

𝑋

Modèle statistique𝑝𝜃(𝑌|𝑋)

Chiffre{1, 2, 3, … }

Valeurs des pixels d’une image

ℝ𝑛

Apprentissage

Estimation des paramètres du modèle 𝜃→ fonction de décision

Nouvelles entrées Prédictions

Classificationℝ𝒎 {𝐴, 𝐵, 𝐶, … }

Apprentissage statistique

Apprentissage statistique

SuperviséPrédire Y connaissant X

Non supervisé

Régression𝑌 ∈ ℝ𝑑

Classification𝑌 ∈ {𝐴, 𝐵, 𝐶, … }

Réduction de dimensions

Partitionnement

Apprentissage non supervisé

Vecteurs de représentation

Variables𝑋

ModèleValeurs des pixels d’une image 8x8

ℝ64

Apprentissage

Estimation des paramètres du modèle 𝜃→ fonction de description

Nouvelles entrées Représentations

Représentation de l’image d’un

chiffre en dimension 2

ℝ2

Apprentissage non supervisé

1 image de chiffre décrite par 64 réels 1 image de chiffre décrite par 2 réels

Variable initialesVecteurs de

représentation obtenues après entrainement

Apprentissage non supervisé

1 vecteur décrit par 3 réels 1 vecteur décrit par 2 réels

Variable initialesVariable de

représentation obtenues après entrainement

Apprentissage non supervisé

Vecteurs de représentation

Variable𝑋

ModèleValeurs des pixels d’une image 8x8

ℝ64

Apprentissage

Estimation des paramètres du modèle 𝜃→ fonction de description

Nouvelles entrées Représentations

Représentation de l’image d’un

chiffre en dimension 2

ℝ2

Apprentissage non supervisé

Vecteurs de représentation

Variable𝑋

ModèleValeurs des pixels d’une image 8x8

ℝ64

Estimation des paramètres du modèle 𝜃→ fonction de description

Nouvelles entrées Représentations

Représentation de l’image d’un

chiffre en dimension 2

ℝ2

Apprentissage

Réduction de dimensions

ℝ𝒎 ℝ𝒏

Apprentissage non supervisé

Vecteurs de représentation

Variable𝑋

Modèle

Âge, temps passé sur FB,

Préférence politique…ℝ3

Estimation des paramètres du modèle 𝜃→ fonction de description

Nouvelles entrées Représentations

1 catégorie par personne

{𝐴, 𝐵, 𝐶, … }

Apprentissage

Clustering /Partitionnement

ℝ𝒎 {𝐴, 𝐵, 𝐶, … }

Apprentissage non supervisé

1 vecteur décrit par 2 réels 1 vecteur décrit par une catégorie

Variable initialeVecteurs de

représentation obtenue après entrainement

Apprentissage statistique

Apprentissage statistique

SuperviséPrédire Y connaissant X

Non superviséCaractériser 𝑋 par ෨𝑋

Régression𝑌 ∈ ℝ𝑑

Classification𝑌 ∈ {𝐴, 𝐵, 𝐶, … }

Réduction de dimensions෨𝑋 ∈ ℝ𝑑

Partitionnement෨𝑋 ∈ {𝐴, 𝐵, 𝐶,… }

Apprentissage supervisé

Apprentissage statistique

Apprentissage statistique

SuperviséPrédire Y connaissant X

Non superviséCaractériser 𝑋 par ෨𝑋

Régression𝑌 ∈ ℝ𝑑

Classification𝑌 ∈ {𝐴, 𝐵, 𝐶, … }

Réduction de dimensions෨𝑋 ∈ ℝ𝑑

Partitionnement෨𝑋 ∈ {𝐴, 𝐵, 𝐶,… }

Régression linéaire

Fonction de prédiction :𝑓𝜃: 𝑥 ↦ 𝜃𝑥

X Y Y prédit

0.2 0.25 0.097393

0.39 1 0.194943

0.68 1.24 0.223750

0.87 1.6 0.251037

Régression linéaire

X Y Y prédit

0.2 0.25 0.097393

0.39 1 0.194943

0.68 1.24 0.223750

0.87 1.6 0.251037

Fonction de perte :𝐿 𝑦, ℎ(𝑥) = ‖𝑦 − ℎ(𝑥)‖²

Fonction de prédiction :ℎ𝜃: 𝑥 ↦ 𝜃𝑥

Régression linéaire

Fonction de prédiction :ℎ𝜃: 𝑥 ↦ 𝜃𝑥

Régression linéaire

Fonction de prédiction :ℎ𝜃: 𝑥 ↦ 𝜃𝑥

D’autres modèles

𝑔 𝔼 𝑌 𝑋 =

𝑚=1

𝑀

𝛽𝑚𝜓𝑚(𝑋)

Ce qu’on cherche à modéliser

Fonction quelconque

Fonctions de base

𝑔 𝔼 𝑌 𝑋 = 𝑥 = 𝛽0 + 𝛽𝑇𝑥

Ce qu’on cherche à modéliser

Fonction quelconque

Modèle linéaire généralisé

Paramètres variables

Modèle linéaire généralisé à expansion de base

Classification : k plus proches voisins

Classification : k plus proches voisins

Classification : k plus proches voisins

Classification : arbres de décision

Classification : arbres de décision

𝑥1

𝑥2

Sélection d’une partition

Classification : arbres de décision

𝑥1

𝑥2

Sélection d’une partition

Sélection d’une variable (et d’un sens

Classification : arbres de décision

𝑥1

𝑥2

Perte : 0.82Sélection d’une partition

Sélection d’une variable (et d’un sens

Estimation de la frontière

Classification : arbres de décision

𝑥1

𝑥2

Perte : 0.82Sélection d’une partition

Sélection d’une variable (et d’un sens

Estimation de la frontière

Classification : arbres de décision

𝑥1

𝑥2

Perte : 0.82

Perte : 0.63

Sélection d’une partition

Sélection d’une variable (et d’un sens

Estimation de la frontière

Classification : arbres de décision

𝑥1

𝑥2

Perte : 0.82

Perte : 0.63

Perte : 0.55

Sélection d’une partition

Sélection d’une variable (et d’un sens

Estimation de la frontière

Classification : arbres de décision

𝑥1

𝑥2

Perte : 0.82

Perte : 0.63

Perte : 0.55

Perte : 0.85

Sélection d’une partition

Sélection d’une variable (et d’un sens

Estimation de la frontière

Classification : arbres de décision

𝑥1

𝑥2

Perte : 0.82

Perte : 0.63

Perte : 0.55

Perte : 0.85

Sélection d’une partition

Sélection d’une variable (et d’un sens

Estimation de la frontière

Sélection de la meilleure frontière

Classification : arbres de décision

𝑥1

𝑥2

Sélection d’une partition

Sélection d’une variable (et d’un sens

Estimation de la frontière

Sélection de la meilleure frontière

Classification : arbres de décision

𝑥1

𝑥2

Sélection d’une partition

Sélection d’une variable (et d’un sens

Estimation de la frontière

Sélection de la meilleure frontière

Classification → Régression

Variable à expliquer

𝑌

Variable explicatives

𝑋

Modèle statistique𝑝𝜃(𝑌|𝑋)

Fruit correspondant{banane, pomme,

orange, …}

Image de fruitℝ192

Apprentissage

Estimation des paramètres du modèle 𝜃→ fonction de décision

Nouvelles entrées Prédictions

Classificationℝ𝒎 {𝑨, 𝑩, 𝑪,… }

Classification → Régression

Variable à expliquer

𝑌

Variable explicatives

𝑋

Modèle statistique𝑝𝜃(𝑌|𝑋)

Fruit correspondantBanane : 0Pomme : 1Orange : 2

Image de fruitℝ192

Apprentissage

Estimation des paramètres du modèle 𝜃→ fonction de décision

Nouvelles entrées Prédictions

Régressionℝ𝒎 ℝ𝒏

Classification → Régression

4

3

2

1

0

Modèle ?

Classification → Régression

4

3

2

1

0

Modèle Loss = 1

3

Classification → Régression

4

3

2

1

0

Modèle Loss = 9

3

Classification → Régression

0.01

0.43

0.87

0.02

0.10

0

1

0

0

0

Modèle Sortie : 5 valeurs

Classification → Régression

Variable à expliquer

𝑌

Variable explicatives

𝑋

Modèle statistique𝑝𝜃(𝑌|𝑋)

Fruit correspondantUn réel pour chaque

fruitℝ5

Image de fruitℝ192

Apprentissage

Estimation des paramètres du modèle 𝜃→ fonction de décision

Nouvelles entrées Prédictions

Régressionℝ𝒎 ℝ𝒏

Apprentissage statistique

Apprentissage statistique

SuperviséPrédire Y connaissant X

Non superviséCaractériser 𝑋 par ෨𝑋

Régression𝑌 ∈ ℝ𝑑

Classification𝑌 ∈ {𝐴, 𝐵, 𝐶, … }

Réduction de dimensions෨𝑋 ∈ ℝ𝑑

Partitionnement෨𝑋 ∈ {𝐴, 𝐵, 𝐶,… }

Régression linéaire Modèle

linéaire généraliséRéseaux de

neurones

K plus proches voisins

Arbre de décision

Régression

Apprentissage non supervisé

Apprentissage statistique

Apprentissage statistique

SuperviséPrédire Y connaissant X

Non superviséCaractériser 𝑋 par ෨𝑋

Régression𝑌 ∈ ℝ𝑑

Classification𝑌 ∈ {𝐴, 𝐵, 𝐶, … }

Réduction de dimensions෨𝑋 ∈ ℝ𝑑

Partitionnement෨𝑋 ∈ {𝐴, 𝐵, 𝐶,… }

Réduction de dimension

Nom de la Ville Marseille Arcachon Dinard Calais

Latitude 43.31 44.65 48.63 50.9

Longitude 5.41 -1.17 -2.06 1.87

Température de l’air

30° 22° 20° 17°

Température de l’eau

17° 16° 15° 14°

Prix au m2 3 314 € 5 633 € 3 536 € 1 142 €

Réduction de dimension « linéraire »

Sous-espace affine: q<p

A matrice de taille p×q

Résultat :

Réduction de dimension « linéraire »

Sous-espace affine: q<p

A matrice de taille p×q

Résultat : zi

xi

Réduction de dimension « linéraire »

Sous-espace affine: q<p

A matrice de taille p×q

Résultat : zi

xi

xi˄

ACP et Réduction de dimension

1 - Centrer les Observations

2 - Former la matrice X

3 - Décomposition en valeurs singulières

λ 1, … , λ 𝑞 𝑣𝑎𝑙𝑒𝑢𝑟𝑠 𝑝𝑟𝑜𝑝𝑟𝑒𝑠 ≠ 0 𝑑𝑒 𝑋𝑋𝑇

U orthogonale de taille n×n

V orthogonale de taille p×p

𝑡. 𝑞. 𝑋 = 𝑈𝐷𝑉𝑇

𝐼𝑙 𝑒𝑥𝑖𝑠𝑡𝑒

𝑂𝑛 𝑝𝑟𝑒𝑛𝑑 𝑎𝑙𝑜𝑟𝑠 𝑉𝑞 = 𝑣1 … |𝑣𝑞)

4 - Réduction de dimension 𝒛𝒊 = 𝑽𝒒𝑻𝒙𝒊

Variances et Covariances

Variance (empirique): Covariances (empiriques):

Résultats pour les q composantes

˄

Σ𝑍 =1

𝑛𝑑𝑖𝑎𝑔(λ1, … , λ𝑞)

𝑉𝑎𝑟 𝑧 𝑗 =λ𝑗

𝑛𝐶𝑜𝑣 𝑧 𝑗 , 𝑧 𝑖 = 0

𝑝𝑜𝑢𝑟 𝑖 ≠ 𝑗

Clustering (partitionnement)

Cluster : Sous-ensemble de points

Centroïde : Barycentre du cluster

indice

Les métriques

L’Inertie T = W + B

Inertie intra-cluster W Inertie inter-cluster B

x 5x 6

K-Means ( K Moyennes)

Nos données

K-Means ( K Moyennes)

Placement des barycentres aléatoire

K-Means ( K Moyennes)

Pour chaque point:On sélectionne le

cluster le plus proche

K-Means ( K Moyennes)

K-Means ( K Moyennes)

On fait ça pour tous les points

K-Means ( K Moyennes)

On recalcule les barycentres

K-Means ( K Moyennes)

Et on recommence …Jusqu’à convergence

Valeur de K

Indice de Davies-Bouldin

Indice sur les clusters

Minimiser

Pour des clusters homogènes : S faible

Valeur de K

Indice de Davies-Bouldin

Indice sur les clusters

Minimiser

Pour des clusters homogènes : S faible

S diminue

Valeur de K

Coefficient de Silhouette

Indice sur les points et leur cluster

𝑎 𝑥𝑖 ∶ 𝐷𝑖𝑠𝑡𝑎𝑛𝑐𝑒 𝑚𝑜𝑦𝑒𝑛𝑛𝑒𝑎𝑢𝑥 𝑎𝑢𝑡𝑟𝑒𝑠 𝑝𝑜𝑖𝑛𝑡𝑠 𝑑𝑢 𝑐𝑙𝑢𝑠𝑡𝑒𝑟

𝑏 𝑥𝑖 ∶ min(𝐷𝑖𝑠𝑡𝑎𝑛𝑐𝑒 𝑚𝑜𝑦𝑒𝑛𝑛𝑒𝑎𝑢𝑥 𝑎𝑢𝑡𝑟𝑒𝑠 𝑝𝑜𝑖𝑛𝑡𝑠 𝑑′𝑢𝑛 𝑎𝑢𝑡𝑟𝑒 𝑐𝑙𝑢𝑠𝑡𝑒𝑟)

Pour des clusters éloignés et homogènes : b(xi) >> a(xi)

Maximiser

Valeur de K

Coefficient de Silhouette

Indice sur les points et leur cluster

𝑎 𝑥𝑖 ∶ 𝐷𝑖𝑠𝑡𝑎𝑛𝑐𝑒 𝑚𝑜𝑦𝑒𝑛𝑛𝑒𝑎𝑢𝑥 𝑎𝑢𝑡𝑟𝑒𝑠 𝑝𝑜𝑖𝑛𝑡𝑠 𝑑𝑢 𝑐𝑙𝑢𝑠𝑡𝑒𝑟

𝑏 𝑥𝑖 ∶ min(𝐷𝑖𝑠𝑡𝑎𝑛𝑐𝑒 𝑚𝑜𝑦𝑒𝑛𝑛𝑒𝑎𝑢𝑥 𝑎𝑢𝑡𝑟𝑒𝑠 𝑝𝑜𝑖𝑛𝑡𝑠 𝑑′𝑢𝑛 𝑎𝑢𝑡𝑟𝑒 𝑐𝑙𝑢𝑠𝑡𝑒𝑟)

Pour des clusters éloignés et homogènes : b(xi) >> a(xi)

Maximiser

S augmente

La régression en détailsVers les réseaux de neurones !

Retour sur les statistiques

Le Fréquentisme Le Bayésianisme

𝑇𝑏𝑒𝑠𝑡 = argmax𝑡

ℙ(𝐷|𝑡) ℙ 𝑇 𝐷 = ℙ(𝐷|𝑇)ℙ(𝑇)ℙ(𝐷|𝑇)ℙ 𝑇 + σ𝐴≠𝑇 ℙ(𝐷|𝐴)ℙ(𝐴)

En observant des fréquences, on veut trouver la théorie qui maximise la vraisemblance des données :

En observant des événements,on compare la crédence des théories sachant des données :

Donnée𝑋(𝜔) → Y(𝜔)

Modèle paramétrique

Θ

Modèle général

Modèle fonctionnel ℋ

Risque𝑅 = 𝑓(𝑋, 𝜃)

Quadratique𝑅 = ∥ 𝜃 − 𝜃 ∥2

2

Perte𝐿 = 𝑓 𝑦, ℎ 𝑥

Risque𝑅𝜃(ℎ) = 𝔼 𝑃𝑒𝑟𝑡𝑒𝑅𝑋,𝑌(ℎ) = 𝔼 𝑃𝑒𝑟𝑡𝑒

Pas d’hypothèses sur les lois distributions X et Y

La régression linéaire

Fonction de coût :

𝐽𝑏,𝑤(𝑥(𝑖)) = 1

2(ℎ𝑏,𝑤(𝑥(𝑖)) − 𝑦(𝑖))2

1

ℎ𝑏,𝑤(x)𝑥 y𝑤

𝑏

ℎ𝑏,𝑤(x) = b + w x

𝑏 −=1

𝑛

𝑖=1

𝑛𝜕𝐽𝑏,𝑤 𝑥 𝑖

𝜕𝑏

𝑤 −=1

𝑛

𝑖=1

𝑛𝜕𝐽𝑏,𝑤(𝑥

𝑖 )

𝜕𝑤

𝜃 −= 𝔼(∇𝜃𝐽)

w

Vitesse d’apprentissage : 1er hyperparamètre

𝛼

𝑏 −=𝛼

𝑛

𝑖=1

𝑛𝜕𝐽𝑏,𝑤 𝑥 𝑖

𝜕𝑏𝑤 −=

𝛼

𝑛

𝑖=1

𝑛𝜕𝐽𝑏,𝑤(𝑥

𝑖 )

𝜕𝑤

La descente de gradient stochastique

𝑏 −=𝛼

𝑘

𝑖=1

𝑘𝜕𝐽𝑏,𝑤 𝑥 𝑖

𝜕𝑏𝑤 −=

𝛼

𝑘

𝑖=1

𝑘𝜕𝐽𝑏,𝑤(𝑥

𝑖 )

𝜕𝑤

Τ𝑘 𝑛

Perte L1

Plus robuste, moins sensible

Perte L2 (SCR)

Classique

Modèle linéaire

1

ℎ𝑏,𝑤𝑗(X) y

𝑥2

𝑋

𝑥1

𝑥3

𝑥𝑛

𝛽1

𝛽2

𝛽3

𝛽𝑛

𝛽0

𝛽 ∈ ℳ𝑛,1(ℝ)

Différentiation vectoriel

Estimateur

VarianceEspérance

Estimateur

VarianceEspérance

Fonction de prédiction optimaleℎ∗ = 𝑚𝑒𝑑(𝑌|𝑋 = 𝑥)

Fonction de prédiction optimaleℎ∗ = 𝔼(𝑌|𝑋 = 𝑥)

∇𝛽 𝑣𝑇𝛽 = 𝑣 ∇𝛽 𝛽𝑇𝑀𝛽 = (𝑀 +𝑀𝑇)𝛽

𝐿 𝑦, ℎ 𝑥 = 𝑌 − ℎ 𝑋 22 𝐿 𝑦, ℎ 𝑥 = 𝑌 − ℎ 𝑋 1

1

Perceptron et Modèle linéaire généralisé

1

ℎ𝑏,𝑤𝑗(X) y

𝑥2

𝑋

𝑥1

𝑥3

𝑥𝑛

𝛽1

𝛽2

𝛽3

𝛽𝑛

𝛽0

𝛽 ∈ ℳ𝑛,1(ℝ)

𝑧𝑏,𝑤𝑗(X)

𝑔−1𝑓𝑜𝑛𝑐𝑡𝑖𝑜𝑛 𝑑′𝑎𝑐𝑡𝑖𝑣𝑎𝑡𝑖𝑜𝑛

Perte Logarithmique

Régression logistiqueClassification

𝑌|𝑋 ↝ ℒ𝑓 𝑥 𝑦 = 𝐶 𝜂 ℎ 𝑦 exp(𝜂𝑦)

EMV ⇔ Minimisation de 𝑅(ℎ)

Perte L2 (SCR)

Régression

𝐿 𝑦, ℎ 𝑥 = 𝑌 − ℎ 𝑋 22

𝐿 𝑦, ℎ 𝑥 = −𝑦𝑖 ln ℎ𝑖(𝑋)

Perte L1

Plus robuste, moins sensible

𝐿 𝑦, ℎ 𝑥 = 𝑌 − ℎ 𝑋 11

Décomposition sur une base de fonctions

Données

Le Perceptron : régression multi-variables

+𝜆

2

𝑗=1

𝑛

𝑤𝑗2

Fonction de coût :𝐽𝑏,𝑤(𝑥

(𝑖)) = 12(ℎ𝑏,𝑤(𝑥

(𝑖)) − 𝑦(𝑖))2

Training(60%)

Validation(20%)

Test(20%)

1

ℎ𝑏,𝑤𝑗(X) y

𝑥2

𝑋

𝑥1

𝑥3

𝑥𝑛

𝛽1

𝛽2

𝛽3

𝛽𝑛

𝛽0

𝛽 ∈ ℳ𝑛,1(ℝ)

+𝜆𝑊

Fonction de coût :

𝐽𝑏,𝑤(𝑥(𝑖)) = 1

2(𝐻𝑏,𝑤(𝑥

(𝑖)) − 𝑌(𝑖))2

Descente de gradient stochastique :

𝑏 −=𝛼

𝑘

𝑖=1

𝑘𝜕𝐽𝑏,𝑤(𝑥

𝑖 )

𝜕𝑏

𝑊 −=𝛼

𝑘

𝑖=1

𝑘𝜕𝐽𝑏,𝑊(𝑥

𝑖 )

𝜕𝑊

𝑦1

𝑊 ∈ℳ𝑛,𝑝(ℝ)

𝐻𝑏,𝑤𝑗(𝑋) 𝑌

1

𝑥2

𝑋

𝑥1

𝑥3

𝑥𝑛

ℎ𝑏,𝑊(𝑧1)1𝑧𝑏,𝑊(𝑋)1

𝑧𝑏,𝑊(𝑋)2

𝑧𝑏,𝑊(𝑋)3

𝑧𝑏,𝑊(𝑋)𝑝

𝑦2

𝑦3

𝑦𝑝

ℎ𝑏,𝑊(𝑧2)2

ℎ𝑏,𝑊(𝑧3)3

ℎ𝑏,𝑊(𝑧𝑝)𝑝

𝑍

𝑔

Perceptron : Sortie vectorielle et régularisation

+𝜆

2

𝑗=1

𝑛

𝑤𝑗2

𝑎11

𝑦1

𝑊0 ∈ ℳ𝑛1,𝑛(ℝ) 𝐻𝑏,𝑤𝑗(𝑋) 𝑌𝑋

1

𝑥2

𝑥1

𝑥3

𝑥𝑛

ℎ𝑏,𝑤𝑗(𝑥)1

𝑦2

𝑦3

𝑦𝑝

ℎ𝐵,𝑊𝑙(𝑥)2

ℎ𝐵,𝑊𝑙(𝑥)𝑗

ℎ𝐵,𝑊𝑙(𝑥)𝑝

𝐴1

Le Multi-Perceptron : Ajout de couches intermédiaires

𝑎21

𝑎𝑛11

1

𝑎1𝑙

𝑎2𝑙

𝑎𝑘𝑙

1

𝑎𝑛𝐿𝑙

𝐴𝑙𝑊1 ∈ ℳ𝑛2,𝑛1(ℝ) 𝑊𝐿 ∈ ℳ𝑝,𝑛𝐿(ℝ)

𝑎31

ℎ𝐵,𝑊𝑙(𝑥)1 𝑦1

Validité des Classifieurs

SensibilitéTVP

1 - non détecté

SpécificitéTVN

1 - fausse alarme

Validité des Classifieurs

VNFN

VP FP

Etat réel du patientMalade Sain

Préd

icti

on

Nég

atif

Po

siti

f

𝑇

PrédictionNégatif Positif

SpécificitéTVN

1 - fausse alarme

SensibilitéTVP

1 - non détecté

La précision est insuffisante !

SensibilitéTVP

1 - non détecté

SpécificitéTVN

1 - fausse alarme

Validité des Classifieurs

Courbes ROC

VNFN

VP FP

Etat réel du patientMalade Sain

Préd

icti

on

Nég

atif

Po

siti

f

Merci !

Recommended