49
Identification des facteurs de risque Michèle Sebag TAO CNRS INRIA LRI [email protected] Digiteo, 16 novembre 2005

Identification des facteurs de risque › ~sebag › Slides › MS_16_11_05_Incerteo.pdfAdaBoost boosting=100 weak_learner=lgg 13.25 12.91 AdaBoost boosting=1000 weak_learner=lgg

  • Upload
    others

  • View
    1

  • Download
    0

Embed Size (px)

Citation preview

Page 1: Identification des facteurs de risque › ~sebag › Slides › MS_16_11_05_Incerteo.pdfAdaBoost boosting=100 weak_learner=lgg 13.25 12.91 AdaBoost boosting=1000 weak_learner=lgg

Identification des facteurs de risque

Michèle Sebag

TAO � CNRS� INRIA � LRI

[email protected]

Digiteo, 16 novembre 2005

Page 2: Identification des facteurs de risque › ~sebag › Slides › MS_16_11_05_Incerteo.pdfAdaBoost boosting=100 weak_learner=lgg 13.25 12.91 AdaBoost boosting=1000 weak_learner=lgg

Cadre

Apprentissage superviséPrédiction de durée de vie.

RisquesDescripteurs Feature selectionExemples Outliers

Travail joint :Jérome Azé, Mathieu Roche, Jérémie Mary, Antoine Cornuéjols LRIElena Marchiori, Kees Jong Vrije Universiteit Amsterdam

Page 3: Identification des facteurs de risque › ~sebag › Slides › MS_16_11_05_Incerteo.pdfAdaBoost boosting=100 weak_learner=lgg 13.25 12.91 AdaBoost boosting=1000 weak_learner=lgg

Plan

� Etat de l’art

� Receiver Operating Characteristics (ROC) Analysis

� Optimiser l’aire sous la courbe ROC

� Applications

– Visualisation du risque

– Feature Selection

– Chimiometrie

Page 4: Identification des facteurs de risque › ~sebag › Slides › MS_16_11_05_Incerteo.pdfAdaBoost boosting=100 weak_learner=lgg 13.25 12.91 AdaBoost boosting=1000 weak_learner=lgg

MotivationsAvant l’apprentissage : décrire les données...� Une description trop pauvre on ne peut rien faire� Une description trop riche on doit filter les descripteurs

Pourquoi ?� L’apprentissage n’est pas un problème bien posé� =) Rajouter de l’information inutile peut dégrader les hypothèsesobtenues.

Le but caché : sélectionner ou construire des descripteurs ?� Feature Construction : construire les bons descripteurs� A partir desquels il sera facile d’apprendre� Les meilleurs descripteurs = les bonnes hypothèses...

Page 5: Identification des facteurs de risque › ~sebag › Slides › MS_16_11_05_Incerteo.pdfAdaBoost boosting=100 weak_learner=lgg 13.25 12.91 AdaBoost boosting=1000 weak_learner=lgg

Quand l’apprentissage c’est la sélectiond’attribut

Bio-informatique� 30 000 gènes� peu d’exemples (chers)� but : trouver les gènes pertinents

Page 6: Identification des facteurs de risque › ~sebag › Slides › MS_16_11_05_Incerteo.pdfAdaBoost boosting=100 weak_learner=lgg 13.25 12.91 AdaBoost boosting=1000 weak_learner=lgg

Position du problèmeButs� Sélection : trouver un sous-ensemble d’attributs� Ordre/Ranking : ordonner les attributs

FormulationSoient les attributsA = fa1; ::adg. Soit la fonction :

F : P(A) 7! IRA � A 7! Err(A) = erreur min. des hypothèses fondées surATrouver Argmin(F)

Difficultés� Un problème d’optimisation combinatoire (2d)� D’une fonctionF inconnue...

Page 7: Identification des facteurs de risque › ~sebag › Slides › MS_16_11_05_Incerteo.pdfAdaBoost boosting=100 weak_learner=lgg 13.25 12.91 AdaBoost boosting=1000 weak_learner=lgg

Approches

Filter méthode univariéeDéfinir score(ai); ajouter itérativement les attributs maximisantscore

ou retirer itérativement les attributs minimisantscore+ simple - pas cher� optima très locauxRq : on peut bactracker : meilleurs optima, mais plus cher

Wrapping méthode multivariéeMesurer la qualité d’attributs en rapport avec d’autres attributs :

estimerF(ai1; :::aik)� cher : une estimation = un pb d’apprentissage.+ optima meilleurs

Page 8: Identification des facteurs de risque › ~sebag › Slides › MS_16_11_05_Incerteo.pdfAdaBoost boosting=100 weak_learner=lgg 13.25 12.91 AdaBoost boosting=1000 weak_learner=lgg

Approches filtre

NotationsBase d’apprentissage :E = f(xi; yi); i = 1::n; yi 2 f�1; 1gga(xi) = valeur attributa pour exemple(xi)Gain d’information arbres de décision

p([a = v]) = Pr(y = 1ja(xi) = v)QI([a = v]) = �p log p � (1� p) log (1� p)QI =Xv p(v)QI([a = v])

Corrélation

corr(a) = Pi a(xi):yipPi(a(xi))2 � Pi y2i /Xi a(xi):yi

Page 9: Identification des facteurs de risque › ~sebag › Slides › MS_16_11_05_Incerteo.pdfAdaBoost boosting=100 weak_learner=lgg 13.25 12.91 AdaBoost boosting=1000 weak_learner=lgg

Approches wrapper

Principe générer/testerEtant donné une liste de candidatsL = fA1; ::; Apg� Générer un candidatA� CalculerF(A)� apprendrehA à partir deEjA� testerhA sur un ensemble de test = F̂(A)� Mettre à jourL.

Algorithmes� hill-climbing / multiple restart� algorithmes génétiques Vafaie-DeJong, IJCAI 95� (*) programmation génétique & feature construction.Krawiec, GPEH 01

Page 10: Identification des facteurs de risque › ~sebag › Slides › MS_16_11_05_Incerteo.pdfAdaBoost boosting=100 weak_learner=lgg 13.25 12.91 AdaBoost boosting=1000 weak_learner=lgg

Approches a posteriori

Principe� Construire des hypothèses� En déduire les attributs importants� Eliminer les autres� Recommencer

Algorithme : SVM Recursive Feature Elimination Guyon et al. 03� SVM linéaire! h(x) = sign(Pwi:ai(x) + b)� Si jwij est petit,ai n’est pas important� Eliminer lesk attributs ayant un poids min.� Recommencer.

Page 11: Identification des facteurs de risque › ~sebag › Slides › MS_16_11_05_Incerteo.pdfAdaBoost boosting=100 weak_learner=lgg 13.25 12.91 AdaBoost boosting=1000 weak_learner=lgg

Limites

Hypothèses linéaires� Un poids par attribut.

Quantité des exemples� Les poids des attributs sont liés.� La dimension du système est liée au nombre d’exemples.

Or le pb de FS se pose souvent quand il n’y a pas assez d’exemples

Page 12: Identification des facteurs de risque › ~sebag › Slides › MS_16_11_05_Incerteo.pdfAdaBoost boosting=100 weak_learner=lgg 13.25 12.91 AdaBoost boosting=1000 weak_learner=lgg

Plan

� Etat de l’art

� Receiver Operating Characteristics (ROC) Analysis

� Optimiser l’aire sous la courbe ROC

� Applications

– Visualisation du risque

– Feature Selection

– Chimiometrie

Page 13: Identification des facteurs de risque › ~sebag › Slides › MS_16_11_05_Incerteo.pdfAdaBoost boosting=100 weak_learner=lgg 13.25 12.91 AdaBoost boosting=1000 weak_learner=lgg

Receiver Operating Characteristics

Principe traitement du signal, médecineSoith(x) mesurant le risque du patientx. h : X 7! IR

t 2 IR 7! ht(x) = � malade si h(x) > tOK sinonPourht, définir:� TP(t) : true positive rate,Pr(ht(x) = maladejx malade)� FP(t) : false positive rate,Pr(ht(x) = maladejx pas malade).Tracer la courbe(TP (t); FP (t); t 2 IR).

Page 14: Identification des facteurs de risque › ~sebag › Slides › MS_16_11_05_Incerteo.pdfAdaBoost boosting=100 weak_learner=lgg 13.25 12.91 AdaBoost boosting=1000 weak_learner=lgg

ROC Curve

False Positive Rate

Tru

e P

osit

ive

Rat

e

0 10.5

0

1

0.5

ROC Curve Best Tradeoff

ROC Curve

Page 15: Identification des facteurs de risque › ~sebag › Slides › MS_16_11_05_Incerteo.pdfAdaBoost boosting=100 weak_learner=lgg 13.25 12.91 AdaBoost boosting=1000 weak_learner=lgg

ROC Curve, 2

ROC depicts the trade-off False Positive / True Positive.

Standard: misclassification cost (Domingos, KDD 99)

F = # false positive+ c� # false negative

In a multi-objective perspective, ROC = Pareto front.

Best solution: intersection of Pareto front with�(�c;�1)ROC: Extensively Used by Physicians

Page 16: Identification des facteurs de risque › ~sebag › Slides › MS_16_11_05_Incerteo.pdfAdaBoost boosting=100 weak_learner=lgg 13.25 12.91 AdaBoost boosting=1000 weak_learner=lgg

ROC Curve, 3

Used to compare learners Bradley 97multi-objective-likeinsensitive to imbalanced distributionsshows sensitivity to error cost.

Used as learning criterion: Area under the ROC curveGiven Dataset =f(xi; yi);xi 2 IRd; yi 2 f�1; 1g gGenotype: hypothesish 7! Phenotype: ordered examples

+++�++�++++���+���+���������

F(h) = sum of ranks of positive examples. AUC : to be minimized

Page 17: Identification des facteurs de risque › ~sebag › Slides › MS_16_11_05_Incerteo.pdfAdaBoost boosting=100 weak_learner=lgg 13.25 12.91 AdaBoost boosting=1000 weak_learner=lgg

Plan

� Etat de l’art

� Receiver Operating Characteristics (ROC) Analysis

� Optimiser l’aire sous la courbe ROC (AUC)

� Applications

– Visualisation du risque

– Feature Selection

– Chimiometrie

Page 18: Identification des facteurs de risque › ~sebag › Slides › MS_16_11_05_Incerteo.pdfAdaBoost boosting=100 weak_learner=lgg 13.25 12.91 AdaBoost boosting=1000 weak_learner=lgg

Area Under the ROC Curve

PreviousEP-based NN optimization Fogel+, 1998GA-based linear optimization Mozer+, 2001greedy Decision Tree optimization Ferri-Flach, 2002

ROGER: ROC-based Genetic Evolutionary LearneR(� + �)-ES (Evolution Strategy)

Parameters

population size # parents� 10# offspring� 50

max nb evaluations 10,000crossover uniform rate .6mutation self-adaptive rate 1

Page 19: Identification des facteurs de risque › ~sebag › Slides › MS_16_11_05_Incerteo.pdfAdaBoost boosting=100 weak_learner=lgg 13.25 12.91 AdaBoost boosting=1000 weak_learner=lgg

ExperimentsReference results: Support Vector Machines (SVMTorch)

Search space: linear classifiers :IRd

Datasets from Irvine repository

#att #weight #Train #TestBr. Canc. 9 42 189 97

Crx 15 47 70 620German 25 25 100 900

Promoters 59 229 70 36Satimage 36 36 139 1237Vehicle 18 18 125 291Votes 16 32 287 148

Waveform 22 22 211 3321

ROGER SVMTorchAUC time AUC time

.674� .05 7” .672� .05 1”

.816� .06 7” .839� .04 886”

.712� .03 6” .690� .02 96”

.863� .07 2” .974� .02 < 1”

.918� .01 4” .876� .02 14”.994� .005 1” .993� .007 < 1”.993� .004 7” .989� .005 > 1,000.971� .004 4” .963� .008 2”

Experimental setting10 train/test splitsFor each split, 1 SVMTorch run, 21 ROGER runs (take median)

EA 03, IEEE ICDM 03

Page 20: Identification des facteurs de risque › ~sebag › Slides › MS_16_11_05_Incerteo.pdfAdaBoost boosting=100 weak_learner=lgg 13.25 12.91 AdaBoost boosting=1000 weak_learner=lgg

Plan

� Etat de l’art

� Receiver Operating Characteristics (ROC) Analysis

� Optimiser l’aire sous la courbe ROC (AUC)

� Applications

– Visualisation du risque

– Feature Selection

– Chimiometrie

Page 21: Identification des facteurs de risque › ~sebag › Slides › MS_16_11_05_Incerteo.pdfAdaBoost boosting=100 weak_learner=lgg 13.25 12.91 AdaBoost boosting=1000 weak_learner=lgg

A Medical Data Mining Application

Page 22: Identification des facteurs de risque › ~sebag › Slides › MS_16_11_05_Incerteo.pdfAdaBoost boosting=100 weak_learner=lgg 13.25 12.91 AdaBoost boosting=1000 weak_learner=lgg

Understanding Cardio-vascular Diseases

PKDD 2002-2003 Challenge� Study Atherosclerosis Risk FactorsFirst death cause in Western countries

Data� ENTRY database (medical cliché, 1419 men, 219 attributes, 1976)� CONTROL database (longitudinal study of a sample, 1976-1996)

First goal� Given the medical cliché att0, predict health state att0 + 20.

Page 23: Identification des facteurs de risque › ~sebag › Slides › MS_16_11_05_Incerteo.pdfAdaBoost boosting=100 weak_learner=lgg 13.25 12.91 AdaBoost boosting=1000 weak_learner=lgg

Some limitations of the data

Initial description:very detailed diseases 1st..4th brother, 1st..4th sister

...not usable... 4th sister INF MYOCARD....

What cannot be learned: sufficient conditions for diseases(1) If father or mother diabetic(2) And high stress(3) And does not laugh once a day

Then disease... (Condition 3 likely missing in hospital db)! find at best necessary conditions

Page 24: Identification des facteurs de risque › ~sebag › Slides › MS_16_11_05_Incerteo.pdfAdaBoost boosting=100 weak_learner=lgg 13.25 12.91 AdaBoost boosting=1000 weak_learner=lgg

Changing the problem

Initial goal: classification predefined classes

Patient7! f normal, at risk, pathologicalgAlternative: ranking Mr X is more at risk than MsY

(Patient� Patient)7! ftrue; falsegconcept is smoother (frontier between normal and pathological)

more flexible (medical / economical concerns)

Proposed: “underconstrained regression” Risk(MrX) is 3.7

Patient7! IR

Page 25: Identification des facteurs de risque › ~sebag › Slides › MS_16_11_05_Incerteo.pdfAdaBoost boosting=100 weak_learner=lgg 13.25 12.91 AdaBoost boosting=1000 weak_learner=lgg

AtherosclerosisExperimental setting: 2/3 training, 1/3 test � 10

On each training set, 21 independent runsDisplay the median ROC curve

False Positive

Tru

e P

osit

ive

0 10.50

1

0.5

ROGERSVM

ROC Curves on Atherosclerosis

Page 26: Identification des facteurs de risque › ~sebag › Slides › MS_16_11_05_Incerteo.pdfAdaBoost boosting=100 weak_learner=lgg 13.25 12.91 AdaBoost boosting=1000 weak_learner=lgg

Influence Analysis - The tobacco factorProcedure

A = { 100 non smoking individuals }B = { 100 most smoking individuals }Sort A and B by increasing value of the riskPlot (i, risk(i))

10 30 50 70 90

300

400

500

600

heavy smokers light smokersmedian

Page 27: Identification des facteurs de risque › ~sebag › Slides › MS_16_11_05_Incerteo.pdfAdaBoost boosting=100 weak_learner=lgg 13.25 12.91 AdaBoost boosting=1000 weak_learner=lgg

Influence Analysis - The alcool factorA = { 100 light drinkers }B = { 100 heavy drinkers }Sort A and B by increasing value of the riskPlot (i, risk(i))

10 30 50 70 90

300

400

500

heavy drinkers light drinkersmedian

Page 28: Identification des facteurs de risque › ~sebag › Slides › MS_16_11_05_Incerteo.pdfAdaBoost boosting=100 weak_learner=lgg 13.25 12.91 AdaBoost boosting=1000 weak_learner=lgg

Visualizing the risk

� Good predictive performances� Affordable complexity� UNDERSTANDABLE RESULTSUsing Vision to Think, Card et al. 2001

Page 29: Identification des facteurs de risque › ~sebag › Slides › MS_16_11_05_Incerteo.pdfAdaBoost boosting=100 weak_learner=lgg 13.25 12.91 AdaBoost boosting=1000 weak_learner=lgg

Plan

� Etat de l’art

� Receiver Operating Characteristics (ROC) Analysis

� Optimiser l’aire sous la courbe ROC (AUC)

� Applications

– Visualisation du risque

– Feature Selection

– Chimiometrie

Page 30: Identification des facteurs de risque › ~sebag › Slides › MS_16_11_05_Incerteo.pdfAdaBoost boosting=100 weak_learner=lgg 13.25 12.91 AdaBoost boosting=1000 weak_learner=lgg

Sensitivity Analysis - For free

Attributes

Weig

hts

0 10 20

0

1

0.5

Sensitivity analysis

21 runs, 21 solutions, 21 curves:(i; weight(attributei))

Page 31: Identification des facteurs de risque › ~sebag › Slides › MS_16_11_05_Incerteo.pdfAdaBoost boosting=100 weak_learner=lgg 13.25 12.91 AdaBoost boosting=1000 weak_learner=lgg

Un espace d’hypothèses plus intéressantEspace linéaire

h(x) =Xi wiai(x) h � w 2 IRdEspace non linéaire pauvre

h(x) =Xi wijai(x)� cij h � (w; c) 2 IR2dIntérêt

hypothèses non linéairesespace de recherche linéaireIR2dscore(atribut ai) = wi.

Page 32: Identification des facteurs de risque › ~sebag › Slides › MS_16_11_05_Incerteo.pdfAdaBoost boosting=100 weak_learner=lgg 13.25 12.91 AdaBoost boosting=1000 weak_learner=lgg

Roger - Feature Selection

Principle Ensemble learning for freeT runs! T hypotheses

Quality of a featureproportional to its |weight|averaged over all hypotheses

Page 33: Identification des facteurs de risque › ~sebag › Slides › MS_16_11_05_Incerteo.pdfAdaBoost boosting=100 weak_learner=lgg 13.25 12.91 AdaBoost boosting=1000 weak_learner=lgg

Algorithme de référence

Stoppiglia et al., JMLR 2003

Score d’un attribut� Cosinus : score(a) =Pi a(xi):yi

Projection itérative de Gauss� Trouver le meilleur attributa� Projeter les données et le concept sur l’espace ortogonal àa

Page 34: Identification des facteurs de risque › ~sebag › Slides › MS_16_11_05_Incerteo.pdfAdaBoost boosting=100 weak_learner=lgg 13.25 12.91 AdaBoost boosting=1000 weak_learner=lgg

Mesure de performance

Qualité pour une sélection itérativepb probabilité du top d’être pertinent

Qualité pour une élimination itérativepw pire rang d’un attribut pertinent

CompromisTaux de vrais pertinentsvstaux de faux pertinents : AUC.

Page 35: Identification des facteurs de risque › ~sebag › Slides › MS_16_11_05_Incerteo.pdfAdaBoost boosting=100 weak_learner=lgg 13.25 12.91 AdaBoost boosting=1000 weak_learner=lgg

Comparaison sur des concepts linéaires

False relevant rate

True

relev

ant r

ate

0 10.5

0

1

0.5

e=0,s=0 e=0,s=.1 e=10%,s=0 e=10%,s=.1

Cosine, Linear Concepts, M50 N100 n10 k1

False relevant rate

True

relev

ant r

ate

0 10.5

0

1

0.5

e=0,s=0 e=0,s=.1 e=10%,s=0 e=10%,s=.1

EFR, Linear Concepts, M50 N100 n10 k1

Stoppiglia ROGER

Stoppiglia>> ROGER>> Random

nb descripteurs 100; nb exemples 50; nb desc. pertinents: 10;

Page 36: Identification des facteurs de risque › ~sebag › Slides › MS_16_11_05_Incerteo.pdfAdaBoost boosting=100 weak_learner=lgg 13.25 12.91 AdaBoost boosting=1000 weak_learner=lgg

Comparaison sur des concepts non linéaires

False relevant rate

True

relev

ant r

ate

0 10.5

0

1

0.5

e=0,s=0 e=0,s=.1 e=10%,s=0 s=10%,s=.1

Cosine, Non-Linear Concepts, M50 N100 n10 k1

False relevant rate

True

relev

ant r

ate

0 10.5

0

1

0.5

e=0,s=0 e=0,s=.1 e=10%,s=0 s=10%,s=.1

EFR, Non-Linear Concepts, M50 N100 n10 k1

Stoppiglia ROGER

ROGER>> Stoppiglia = Random

nb descripteurs 100; nb exemples 50; nb desc. pertinents: 10;

Page 37: Identification des facteurs de risque › ~sebag › Slides › MS_16_11_05_Incerteo.pdfAdaBoost boosting=100 weak_learner=lgg 13.25 12.91 AdaBoost boosting=1000 weak_learner=lgg

Ensemble Feature Ranking

21/

09/0

4, 2

3:16

, mic

hele

, fic

h: x

g.m

edia

n.0.

1.10

xg.

med

ian.

0.1.

100

xg.m

edia

n.0.

1.25

0 xg

.med

ian.

0.1.

400

xg.m

edia

n.0.

1.50

False relevant features

True

rel

evan

t fea

ture

s

0 10.5

0

1

0.5

T=10 T=100T=250T=400T=50

Ensemble Feature Ranking

Quand on augmenteT : de 10 à 400.

ECML 2004

Page 38: Identification des facteurs de risque › ~sebag › Slides › MS_16_11_05_Incerteo.pdfAdaBoost boosting=100 weak_learner=lgg 13.25 12.91 AdaBoost boosting=1000 weak_learner=lgg

Plan

� Etat de l’art

� Receiver Operating Characteristics (ROC) Analysis

� Optimiser l’aire sous la courbe ROC

� Applications

– Visualisation du risque

– Feature Selection

– Chimiometrie

Page 39: Identification des facteurs de risque › ~sebag › Slides › MS_16_11_05_Incerteo.pdfAdaBoost boosting=100 weak_learner=lgg 13.25 12.91 AdaBoost boosting=1000 weak_learner=lgg

Chimiométrie 2005

Challenge GFC 05215 exemples, 2901 descripteurs réels4 classes43 exemples témoins.

Roger, induction constructiveUne classe contre les trois autres! une hypothèsen runs! 4n nouveaux descripteurs.

Usageplus-proche voisins.

Page 40: Identification des facteurs de risque › ~sebag › Slides › MS_16_11_05_Incerteo.pdfAdaBoost boosting=100 weak_learner=lgg 13.25 12.91 AdaBoost boosting=1000 weak_learner=lgg

RéférencesMethods chemo chemopreproAdaBoost boosting=100 weak_learner=lgg 13.25 12.91AdaBoost boosting=1000 weak_learner=lgg - 12.45AdaBoost boosting=1000 weak_learner=qlgg 12.29 -AdaBoost boosting=2000 weak_learner=qlgg 7 11.56 -ADTree mode=boostexter boosting=100 12.94 9.13C4.5 19.75 16.88C5 boosting=100 11.91 8.81DLG weight uniform 23.65 -GloBo mode=fast weight uniform 20.32 -GloBoost boosting=100 weight frequency 16.11 12.14GloBoost boosting=1000 weight frequency - 12.32GloBoost boosting=1000 mode=fast weight frequency 13.52 -GloBoost boosting=2000 mode=fast weight frequency 13.73 -RISE - 10.28Average 15.37 11.86

Page 41: Identification des facteurs de risque › ~sebag › Slides › MS_16_11_05_Incerteo.pdfAdaBoost boosting=100 weak_learner=lgg 13.25 12.91 AdaBoost boosting=1000 weak_learner=lgg

Sensitivity Curve

0 1000 2000500 1500 2500

0

1

0.5

Page 42: Identification des facteurs de risque › ~sebag › Slides › MS_16_11_05_Incerteo.pdfAdaBoost boosting=100 weak_learner=lgg 13.25 12.91 AdaBoost boosting=1000 weak_learner=lgg

Sensitivity Curve, 2

0 10 20 30 40 50 60 70 80 90

0.2

0.3

0.4

0.5

0.6

0.7

0.8

Page 43: Identification des facteurs de risque › ~sebag › Slides › MS_16_11_05_Incerteo.pdfAdaBoost boosting=100 weak_learner=lgg 13.25 12.91 AdaBoost boosting=1000 weak_learner=lgg

Conclusion

Contributions� EC enables ensemble methods “for free”for feature selectionfor feature construction

Limites� Concepts conjonctifs seulement.

Next� Multi-modal evolution / several hypotheses in a population.� Developper la visualisation

Page 44: Identification des facteurs de risque › ~sebag › Slides › MS_16_11_05_Incerteo.pdfAdaBoost boosting=100 weak_learner=lgg 13.25 12.91 AdaBoost boosting=1000 weak_learner=lgg

Evolution artificielleet méthodes d’ensemble, 2

Algorithme stochastique� Chaque run! une hypothèse indépendante.� Chaque hypothèse! un ordre sur les attributs.

Ordre faible� Soitfa1; ::aNg l’ordre parfait� ht : induit un ordre<t sur les attributs� Supposons un ordre faible :

P (ai <t ajji < j) > 12 + �Agrégation� On définit<� comme :

(ai <� aj)() jft=ai <t jgj > T2

Page 45: Identification des facteurs de risque › ~sebag › Slides › MS_16_11_05_Incerteo.pdfAdaBoost boosting=100 weak_learner=lgg 13.25 12.91 AdaBoost boosting=1000 weak_learner=lgg

Evolution artificielleet méthodes d’ensemble, 3

L’ordre agrégé est bien un ordre

Pr(i <� kji <� j et j <� k)! 1 quandT !1.. et tend vers l’ordre parfait� SoitO�(i) = jfj=i <� jgj alors

Pr(jO�(i)� ij > � )! 0

Page 46: Identification des facteurs de risque › ~sebag › Slides › MS_16_11_05_Incerteo.pdfAdaBoost boosting=100 weak_learner=lgg 13.25 12.91 AdaBoost boosting=1000 weak_learner=lgg

Validation

Difficulté� Validation d’un ens d’attributs ==qualité de la meilleure hypothèse fondée sur ces attributs) Pas moyen de tester une méthode de sélection en soi.

Approche� Pbs artificiels� On connait la solution ; est-ce qu’on la retrouve ?� Permet étude de “Lésions” : bruit, passage à l’échelle % nb exemples,nb attributs...

Page 47: Identification des facteurs de risque › ~sebag › Slides › MS_16_11_05_Incerteo.pdfAdaBoost boosting=100 weak_learner=lgg 13.25 12.91 AdaBoost boosting=1000 weak_learner=lgg

Problèmes artificiels

Paramètres d’ordre� Nb attributs d = 100; 200; 500� Nombre d’exemples n = d=2; d; 2d� Nombre d’attributs pertinents r = d=20; d=10; d=5� Type de concept à apprendre : Linéaire ou Non.� Bruit de classe e = 0; 5; 10%� Bruit d’attribut � = 0; 0:05; 0:1

Page 48: Identification des facteurs de risque › ~sebag › Slides › MS_16_11_05_Incerteo.pdfAdaBoost boosting=100 weak_learner=lgg 13.25 12.91 AdaBoost boosting=1000 weak_learner=lgg

Construire un pb artificiel(d; n; r; l; e; �)

Se donner les attributs pertinents :f1; 2; :::rg parmif1; ::dgPour chaque exemplexj� Pouri = 1::d, tirerai(xj) uniformément ds[0; 1]Construction deyj� Cas linéaire : yj = ( rX

i=1 ai(xj) > r2)� Cas non-linéaire :

yj = ( rXi=1 jai(xj)� :5j < r12)

Page 49: Identification des facteurs de risque › ~sebag › Slides › MS_16_11_05_Incerteo.pdfAdaBoost boosting=100 weak_learner=lgg 13.25 12.91 AdaBoost boosting=1000 weak_learner=lgg

Pbs artificiels, suite

Perturbation� yj = �yj avec probabilitée� ai(xj) + = N (0; �)Méthodologie expérimentalePour chaque(d; n; r; l; e; �), construire 20 problèmes

Pour chaque problème, apprendre 20 hypothèses 20 runsAgréger les poids des 20 hypothèsesComparer l’ordre obtenu à l’ordre désiré

Moyenner l’erreur sur les 20 problèmes