Upload
emile-le-meur
View
106
Download
0
Embed Size (px)
Citation preview
Filtrage de KalmanFiltrage de Kalmanet aperçu probabilisteet aperçu probabiliste
2
L’idée
• Faire coïncider deux modèles– Modifier le moins possible de paramètres– Problème : Paramètres très nombreux
• Effet d’un bouton sur le modèle• Ajustement des autres boutons
Problème exponentiel
• Deux angles d’attaque possibles– Méthodes logiques
• Logiques qualitatives et non-monotones
– Méthodes numériques• Filtrage de Kalman• Réseaux bayésiens
3
Filtre Kalman
ERREURS DU SYSTÈME
ERREURS DE MESURES
SYSTÈME DYNAMIQUE
TRANSDUCTEUR DE MESURES
SYSTÈME DYNAMIQUEVRAI MODÈLE
CONTRÔLES
FILTRE DE KALMAN
MESURES OBSERVÉES
ÉTAT ESTIMÉ
OPTIMAL x̂
w
u
z
v
4
Utilisation « classique »
• Estimation de systèmes dynamiques (trajectoires par exemple)
• Domaines– Fusion de données multi-capteurs– Aérospatiale– Aéronautique (calcul de position de cibles)– Océanographie– Météorologie– Hydrologie– Identification du langage– ...
5
Caractéristiques
• Algorithme de traitement de données
– Filtre : opérations sur un signal
– Récursif
– Linéaire*
– Optimal
– Temps réel
• Estimation d’états de systèmes dynamiques
dans un environnement bruité
6
Cas courant
• Le plus souvent pas de contrôle ( nul)
– Exemple : systèmes stochastiques
– Erreurs : inputs dans le système dynamique
• Accès aux données
– Uniquement entrées ( ) et sorties ( )
– Discrétisation de l’information
Filtre discret
u
u z
7
• Filtrage récursif :
– et : pré-calculés si décorrélés des mesures
– Sinon et calculés durant le cycle précédent
• Avantage
– Stockage uniquement du stade précédent
)1()()(ˆ)()1(ˆ kzkBkxkAkx
A B )(kz
)(kA )(kB
Récursif?
8
Optimal?
• Pour chaque cycle (à chaque fois) on calcule:
–
–
–
Calcul : minimisation de la variance statistique de
l ’erreur d’estimation :
)(kA
)(kB
)1(ˆ kx
)(ˆ)()( kxkxke
9
• Filtre de Kalman
– Récursif
– Discret
Facilité d’application au temps réel
Temps-réel?
10
Hypothèses requises
• Modèles des systèmes linéaires
– Ne pas confondre avec la linéarité du filtre lui-même
• Sources des bruits blanches
– Bruit entièrement décorrélé du temps (totalement
aléatoire)
– Densité spectrale égale partout
• Remarque : hypothèse «contournable»
• Sources de bruit gaussiennes
– Fonction de densité de probabilité pour les amplitudes
11
Informations requises
• Connaissance du système dynamique via un modèle
mathématique linéaire
• Description statistique des erreurs
• Information a priori ou conditions initiales du système
• Au minimum un jeu de donné discret de mesures des
sources qui puisse être traité par le filtre de Kalman
12
Exemple
• Particule dans un plan– Vitesse constante– Perturbations aléatoires de la trajectoire
2
1
2
1
2
1
2
1
2
1
2
1
1
1
1
1
1000
0100
1010
0101
wdx
wdx
wx
wx
)(tdx
)(tdx
)(tx
)(tx
(t)dx
(t)dx
(t)x
(t)x
bruitposition
vitesse
Source : http://www.cs.berkeley.edu/%7Emurphyk/Bayes/kalman.html
13
Exemple (suite)
• Observation uniquement sur la position de la particule
2
1
2
1
2
1
2
1
0010
0001
vx
vx
(t)dx
(t)dx
(t)x
(t)x
(t)y
(t)y
Bruit de mesures
14
Exemple (suite)
• Données– Départ (10,10)
– Vitesse (0,1)
– Longueur 15
• Résultats– Erreur quadratique
moyenne : 4.9 (pour un lissage 3.2)
– État stable atteint rapidement
15
Aperçu des autres approches
• Logiques qualitatives et non-monotones– Monotone : quand on ajoute un axiome on peut démontrer
d’autres théorèmes sans en supprimer.– Non-monotone c’est le contraire. Exemple : les oiseaux
volent, donc tel ou tel oiseau vole ; mais pourtant les pingouins qui sont des oiseaux ne volent pas.
Idée: changer le moins possible d’axiomes pour réussir à apparier les deux modèles.
• Méthodes probabilistes, méthodes bayesiennes
– Théorème de Bayes
– Approche par méthodes statistiques. On cherche la probabilité a posteriori connaissant celle a priori.
)(
)|()()|(
j
ijiji Bp
ABpApBAp
16
Méthodes bayesiennes
• Modèle probabiliste le plus ancien et le plus utilisé.
• Deux approches différentes :
– approche objectiviste (fréquentiste) : distribution de
probabilité d'une variable aléatoire
– approche subjective : répartition de probabilité image de
l'état des connaissances
17
Approche fréquentiste(objective)
• étude statistique du phénomène
• évaluation de la fréquence d'occurrence d'un
événement
• exemple : jet de dé
le ratio de fréquence d'apparition d'une face est de 1/6
18
Approche subjective
• codage de l'état des connaissances
• confiance dans l'apparition d'un événement
• exemple :
Paul apprend à rouler à vélo, il a beaucoup de chances
de tomber.
19
Modélisation des erreurs
• Basée sur le calcul d'une probabilité
• Obtenue :
– de façon statistique (fréquentiste)
– par apprentissage (fréquentiste) : adaptation
– par expertise (subjective)
20
Modélisation de la précision
Précision : distribution de probabilité sur l'espace de définition
d
p(x/d)
x
X
probabilité que X [a,b], si la
mesure est d.
Distribution Gaussienne :
moyenne d, variance
b
adxdxpdbaP )/()/],([
21
Modélisation de la confiance
• Incertitude : distribution de probabilités sur
– P(H1), P(H2), P(H3), P(H4)
• Propriétés :
A 2, 0 P(A) 1
– P() =1
A, B 2, P(A B) = P(A) + P(B) si A B=
A, B 2, P(A) = P(A B) + P(A B)
22
Modélisation de la méconnaissance
• Modélisation implicite : répartition de la probabilité
sur les différentes hypothèses possibles :
A = H1 H2 ; P(A) = 0.6
P(H1) = 0.3 et P(H2) = 0.3
• Exemple : jet de dé
P(pile) = P(face) = 0.5
23
Méconnaissance pour probabilités subjectives
• Confusion entre équiprobabilité et méconnaissance
• Exemple :
– Les fantômes existent-ils ?
– P(fantôme existe) = P(fantôme n'existe pas) = 0.5
24
Conversion numérique symbolique
• modèle de conversion :
– statistique : apprentissage supervisé
– subjective : modélisation d'une connaissance experte
Hi
p(d/Hi)
x
distribution de vraisemblance :
Hi , vd (Hi ) = p (d /Hi)
25
Fusion bayesienne
• Utilisable en numérique ou en symbolique
• Basée sur l'utilisation du théorème de Bayes
)(
)()/()/(
Ap
BpBApABp
26
Fusion : modèle - mesure
• Information disponible :
– distribution de probabilité a priori P(Hi)
– distribution de vraisemblance P(d/Hi)=vd(Hi)
jHjjd
iidi HPHv
HPHvdHP
)()(
)()()/(
probabilité a posteriori
yd
d
ypyv
xpxvdxp
)()(
)()()/(
probabilité a priori
27
Fusion : mesure - mesure
• Information disponible :
– distribution de vraisemblance source 1 : p(d1/Hi)=vd1(Hi)
– distribution de vraisemblance source 2 : p(d2/Hi)=vd2(Hi)
jHjdjd
ididid HvHv
HvHvHv
)()(
)().()(
21
212,1
vraisemblance
ydd
ddd yvyv
xvxvxv
)()(
)().()(
21
212,1
28
Décision
• maximum de probabilité a posteriori (modèle-
mesure)
• maximum de vraisemblance (mesure-mesure)
29
Exemple : jet de dé
• ensemble de définition ={F1, F2, F3, F4, F5, F6}
• probabilités a priori
P(F1)= P(F2)= P(F3)= P(F4)= P(F5)= P(F6) = 1/6
• Capteur 1 : indique le nombre de point au milieu
• Capteur 2 : indique le nombre de points sur un coté
30
Capteurs
0 point : F2 , F4 , F6
1 point : F1 , F3 , F5
0 point : F1
1 point : F2, F3
2 points : F4, F5 , F6
3 points : F6
31
Probabilitésa priori
Probabilités conditionnelles
0 point 1 point
F1 p(0point/F1) = 0 p(1point/F1) = 1
F2 p(0point/F2) = 1 p(1point/F2) = 0
F3 p(0point/F3) = 0 p(1point/F3) = 1
F4 p(0point/F4) = 1 p(1point/F4) = 0
F5 p(0point/F5) = 0 p(1point/F5) = 1
F6 p(0point/F6) = 1 p(1point/F6) = 0
p(point/face) = vpoint(face)
p(F1)= 1/6
p(F2)= 1/6
p(F3)= 1/6
p(F4)= 1/6
p(F5)= 1/6
p(F6)= 1/6
p(face)
32
Fusion modèle-mesure
1 point
F1 p(F1/1point ) = p(1point/F1). p(F1) . 2 = 1/3
F3 p(F3/1point ) = p(1point/F3). p(F3) . 2 = 1/3
F5 p(F5/1point ) = p(1point/F5). p(F5) . 2 = 1/3
6/3)()./1( iF
ii FpFpointp
Capteur 1 : 1 point