Upload
others
View
6
Download
0
Embed Size (px)
Citation preview
T H E S E
LAND (El-160 AL
S)'
A L'UNIVERSITE DE PARIS-VII
• POUR OBTENIR
LE TITRE DE DOCTEUR 3ème CYCLE
Spécialité : Physique Nucléaire
par
TRAN QUOC THUONG v ° 'nP'JT
MF 0«n,
SNIS
ANALYSE STATISTIQUE DES DISTRIBUTIONS DES LARGEURS REDUITES PARTIELLES
Soutenue le 15 octobre 1973, devant la Commission d'Examen
Mme P. BENOIST-GUEUTAL Président
MM. PICINBONO fi.*—» •K. JOLY
EAND(EI-160AL
T H E S E
PRESENTEE
A L'UNIVERSITE DE PARIS-VII
POUR OBTENIR
LE TITRE DE DOCTEUR 3ème CYCLE
Spécialité : Physique Nucléaire
par
TRAN QUOC THUONG
ANALYSE STATISTIQUE DES DISTRIBUTIONS
DES LARGEURS REDUITES PARTIELLES
Soutenue le 15 octobre 1973, devant la Commission d'Examen
Mme P. BENOIST-GUEUTAL
MM. PICINBONO
R. JOLY
Président
Examinateurs
REMERCIEMENTS
J'exprime ma reconnaissance au Commissariat à l'Energie Atomique
qui a bien voulu m'accueillir dans son Centre de Saclay et m'a ainsi permis
de préparer et présenter ce mémoire.
•Te suis heureux de remercier toites les personnes qui ont contri
bué a l'élaboration de la présente étude , et tout particulièrement :
-Monsieur JOLY pour l'accueil bienveillant qu'il m'a réservé dans son
service, et l'appui efficace dont j'ai bénéficié en maintes circonstances.
-Monsieur RIBON qui est à l'origine de ce travail et n'a cessé de me prodi
guer les conseils et suggestions de la plus haute utilité.
-Madame le Professeur BENOIST-GUEUTAL qui, par son enseignement enrichissant
m'a fait acquérir des connaissances qui ne cesseront de m'être très utiles.
Je la remercie aussi très vivement de m'avoir fait l'honneur d'accepter la
présidence du Jury.
-Monsieur le Professeur PICINBONO, Président de l'Université de Paris-Sud ,
pour la critique de fond et de forme qu'il a portée à cette étude, et pour
la caution que constitue pour moi un tel intérêt.
-Mon camarade VEZZOSI, pour la tâche ingrate qu'il s'est donnée en acceptant
les corrections de détails.
-Mes collègues : Messieurs L'HERITEAU, LE COQ, KREBS, Madame LAURENT, Made
moiselle BENARD et les personnes du Secrétariat du service DPhN/MF pour
l'amitié et le dévouement qu'ils m'ont toujours témoignés.
-Madame GUGENBERGER et ses collaboratrices pour le soin et l'attention qu'elles
ont bien voulu porter à la présentation de l'ouvrage.
Enfin, l'accueil bienveillant que j'ai trouvé, lors de mon séjour
imprègne d'un aspect humain la formation que je suis venu chercher dans ce
pays.
- I -
SOMMAIRE
- GENERALITES -
1.1. Introduction
A - Rappel de la théorie du noyau composé
B - Fluctuations statistiques des largeurs de neutron
1.2. Distribution des largeurs réduites partielles
Pages
k
9
10
1.2.1. Distribution statistique des largeurs réduites de neutron
1.2.2. Loi du x 2 tronquée 13
1.2.3. But du travail 14
1.3. Estimation des paramètres p et y je
1.3.1. Qualités d'un estimateur
1.3.2. Recherche d'un résumé exhaustif pour les jy
deux paramètres p et y
II- METHODES D'ESTIMATION -
11.1. Différentes méthodes d'estimation
Tableau II - Comparaison entre les différentes méthodes
d'estimation ponctuelle.
11.2. Méthode des moments
XI.2.I. Principe de la méthode des moments
11.2.2. Biais et variance asymptotiques des estimateurs
moments
11.2.3. Détermination des biais et variances des estimateurs 27
moments par la méthode de Robertson et Fryer
11.2.4. Estimation des paramètres p et y de la distribu- 32
tien en x 2 tronquée par la méthode des moments:
a) Estimation des paramètres
b) Estimation des biais et variances asymptoti- 34
ques de P et de y
23
24
25
26
Pages
c) Estimation des biais et variances de v 35
Tableau II.I : Fonctions 6 , x , X*,? 3 6
et leurs dérivées.
Tableau II.2 : Fonctions V.n et leurs dérivées 37
Tableau II.3 r Fonctions f 1 if»* et leurs dérivées 38
Tableau II.4 : Intégrales I et ses dérivées
Moments théoriques. 39
Tableau II.5 : Coefficients D.. ,D 1 J ,E... ,P... / f t îj * ' îjk îjk 40
II.3. Méthode du maximum de vraisemblance 4)
11.3.1. Principe de la méthode du maximum de vraisemblance 42
11.3.2. Equations de vraisemblance
11.3.3. Forme <. JS équations de vraisemblance lorsque la loi
permet un résumé exhaustif
11.3.4. Résolution des équations de vraisemblance 44
11.3.5. B:\ais et variances asymptotiques des estimateurs
par le maximum de vraisemblance 46
Cas de deux paramètres ;
a) Biais asymptotiques
b) Matrice des variances-covariances.
Cas asymptotique. 47
11.3.6. Estimation des paramètres p et p de la
distribution en x Z tronquée 48
a) Estimation des paramètres
b) Estimation des biais et variances asymptotiques &9
de p et p
c) Estimation des biais et variances asymptotiques
de v
Tableau II.6. » Fonctions P. . ,P. ,,
III. CALCUL NUMERIQUE ET PROGRAMMATION . Pagos
III.1. Calcul numérique . 51 17.1,1.1. Recherche de zéro d'une fonccion.
- Tableau III.1. Description sommaire de 53 quelques méthodes de recherche de zéro d'une fonction ou de résolution de l'équation f(x) = 0
III.I.2. Maximisation ou minimisation d'une fonction. 54 - Méthode d'exploration directe - Méthode du gradient 55
- Commentaire
- Tableau III.2- Organisation générale de l'optimisation numérique . 57 - Tableau III.3. Différentes méthodes d'exploration 58 directe.
- Tableau III.4- Différentes méthodes du gradient 59
...J.VI. III.] .3 Calcul des intégrales 1^ •= | e t1 (log t ) dt 60 avec n = 1,2,3. *
- Tableau III.5. Description sommaire de quelques 63 méthodes d'intégration numérique. •- Tableau III.6. Comparaison entre les différentes 64 méthodes d'intégration numérique pour le calcul des intégrales I - Tableau III.7. Comparaison entre la méthode de Hewton-Raphson et la méthode d'exploration directe 65 utilisées pour résoudre l'équation des moments .
Pages
IXI.2. Programmation
Figure III, I. Organigramme du programme principal ^
Figure 111*2, Organigramme du sou s-programme d'es- ^
ti&ation par la méthode du maximum
de vraisemblance.
Figure III.3. Organigramme du ious-programme d'es- gg
timstion par la méthode des laoïsents.
IV. » SIMULATION 69
IV.î Test des programmes
IV,2 Courbes théoriques 70
IV.3 Effets expérimentaux 76
IV.3.ï Influence des erreurs aléatoiias sur Ta.
-Tableau TVA 76
IV.3.2 Influence d'une erreur systématique
-Tableau ÏV.2 77
IV.3.2bis, Mélange de populations n'ayant pas exacte
ment la même valeur moyenne de Ta.
IV.3.3 Influence d'une erreur systématique fonction de fa. 78
IV,3.4 Conséquence d'une renormalisation du mélange de
plusieurs populations.
-Tableau IV.3 79
V. -APPLICATION AUX NOYAUX REELS 80
V.l Choix des noyaux test.
V.1.1 Histogrammes expérimentaux g]
V.2 Résultats. 84
V.3 Interprétation 85
VI. - CONCLUSION 86
- V -
A_N_N_E_X_E
Pages
A.1. Calcul des dérivées des fonctions :
/
1. Notations utilisées
2. Dérivation sous le signe
3. Relations entre les dérivées ordinaires et les dérivées go
logarithmiques d'une fonction
Al. i. Dérivées de la fonction jS 90
AU2. Dérivées de la fonction %
AI.3. Dérivées de la fonction X 91
A 1.4. Dérivées de la fonction ??
Al.5. Dérivées de la fonction gamma incomplète I 92
Al.6. Dérivées de la fonction (p 98
AI.7. Dérivées de la fonction 0 » 99
Al.8. Dérivées des intégrales In « je If"1 (I03I) dt A).9. Dérivées de la fonction densité r
A2.1. Calcul des intégrales In= je t?" ( Po^b") dt (n = 1,2.,i)
a) Calcul de In par la méthode de Gauss-Laguerre |05
106 b) Calcul des intégrales In par dJautres méthodes arec
le changement de variable c •= —
os
A.2.2.Calcul de l'intégrale JA. = |"uf e "foan du,
A.2.3.Calcul de l'intégrale \L =• hc Po«=c . £ J=c
107
A.2.4.Calcul de l'intégrale ^ -Jf(^»f)f-A.2.5.Calcu 1 'le l'intégrale B = foc . "Up^X £ J^
Pages
A3. Calcul_des_moments : ,,.
A3.1. Moment d'ordre K ij2
A3.2. Moment d'ordre 1
A3.3. Moment d'ordre 2
A3.4. Moment d'ordre 3
A3.5. Moment d'ordre 4
A4. Çalcul_des_coeff^çients : ...
A4.I. Calcul des coefficients D..
A4.2. Calcul des coefficients D1^ iic
A4.3. Calcul des coefficients E.., ..,
ijk lib A4.4. Calcul des coefficients P.., ,,Q
ijk l»y
113
A5. Determination 4Ë s-_l£ n c tL™Ë : ]•?]
A5.1. Détermination des fonctions P. ., n,
A5.2. Détermination des fonctions P. . , 0 0
REFERENCES BIBLIOGRAPHIQUES 134
- VII -
N O T A T I O N S
^ Variable aléatoire
0C4 ie observation de X
DC = ("JCi , X 4 . . , X ^ 1 ensemble de M réalisations indépendantes
G * (&\ T&t • < * § 0 paramètre vectoriel
Ô ( Û fj ft ^ vraie valeur de 0
0 estimateur ou estimation de 6
fonction densité de X
fonction de vraisemblance associée à la réalisation (X< 3 x« .. • X N )
b(G) biais de 0
CO\)(6- 8-) covariance de 0; et Ôj
tfort.(9) variance de 0
&( valeur du seuil expérimental
u valeur moyenne de la distribution en 9C non tronquée
"\} nombre de degré de liberté
o ~ — paramètre auxiliaire r * * - $
CL( Q) moment théorique d'ordre i
jW'-ÇktÔ)! valeur du mcment théorique d'ordre i pour la vraie valeur de 0
1-=i)X; moment empirique d'ordre i.
C h a p i t r e I
G E N E R A L I T E S
I. GENERALITES -
1.1. Introduction :
La première description théorique de la distribution des largeurs
partielles a été donnée en 1956 par Porter et Thomas [fU.lj.Ces auteurs
ont montré que les largeurs neutroniques réduites sont distribuées suivant
une loi en x 2 à v = 1 degré de liberté.
Leur argument consiste à supposer que l'amplitude de largeur réduite
J (égale à un coefficient près à la racine carré de la largeur ré
duite I -^c ) est distribuée suivant une loi normale parce qu'elle résulte
d'un très grand nombre de contributions indépendantes. Si le nombre de
contributions importantes était faible ou s'il existait des corrélations
entre les 5.. , l'amplitude de largeur réduite •».,- ne serait pas distri
buée suivant une loi normale et la largeur neutronique réduite ne serait
donc pas distribuée suivant une loi en x à 1 degré de liberté.
[Nous aurons encore l'occasion de revenir, avec plus de détails, sur la
base théorique de l'argument de Porter et Thomas (cf.1,2.1)].
De nombreux auteurs ont étudié les distributions des largeurs partiel
les - surtout des largeurs neutroniques réduites - en ajustant les valeurs
de v pour décrire au mieux les résultats expérimentaux. Un certain nombre
de résultats sont présentés dans le tableau 1.1.
Il apparait que pratiquement toutes les valeurs de v sont supérieures
à 1, mais compatibles avec ]. Il faut, d'autre part, tenir compte des er
reurs expérimentales. Celles-ci ont pour effet d'augmenter la dispersion,
2 donc la variance. Or, pour une loi en x » la variance et le nombre de
liberté sont liés par la relation suivante : Votr ~x = —
•0
- 2 -
Les effets expérimentaux devraient donc donner une distiibution ex
périmentale ayant une variance supérieure à la variance vraie, c'est-à-dire
une valeur de v inférieure à la valeur vraie.
Ces deux constations : - valeurs expérimentales de v presque
toutes supérieures à 1 alors qu'elles devraient être inférieures à ! -
nous ont amené à penser qu'il pourrait y Avoir un effet significatif. Nous
avons entrepris cette étude afin de préciser ce point.
Nous avons du tenir compte de deux restrictions :
- D'une part, les distributions expérimentales sont perturbées par
la perte de petites valeurs de r^ c , ou par l'inclusion d'autres petites
valeurs n'appartenant pas £ la voie C considérée. Il nous faudra donc
traiter systématiquement des distributions tronquées,
- D'autre parc, pour d'autres raisons, il est nécessaire de connaître
le vrai nombre de niveaux considérés (c'est-à-dire le nombre de valeurs de
'Tic corrigé des pertes et des inclusions erronées), et la valeur de < r ^ c >
(valeur moyenne des 1-^ pour une distribution non tronquée). Il a paru
souhaitable que les méthodes d'analyse utilisées permettent d'obtenir ces
valeurs.
Cette étude a exigé un important travail d'analyse statistique ot
de calcul numérique que nous exposerons dans les chapitres II et III
sprès avoir brièvement rappelé, dans le chapitre I^les généralités sur
la distribution en x^ et sur l'estimation des paramètres.
Dans le chapitre IV nous exposerons sommairement le procédé de
simulation (méthode de Monte Carlo) utilisé pour vérifier l'exactitude
et le domaine de validité des expressions analytiques obtenues et pour
vérifier les programmes d'estimation; les résultats numériques obtenus sont
également présentés.
Le chapitre V est cons: î à l'application aux noyaux réels. Tous
les calculs analytiques intermédiaires sont donnés dans le chapitre ANNEXE.
TABLEAU 1.1. Nombre Je degré" de liberté v de \ i distribution des largeurs réduites de neutron trouvé par différents auteurs pour guclqueg noyaux.
Noyau Seuil Nombre de niveaux N
Nombre de degré de liberté v Remarque Références
Classe A (1) 0.01 416 1.04 ± 0.10 Mélange d'une sélection Garrisson
0.1 335 1.20 i 0.16 de 5 noyaux [RI. 4]
Classe I (1) 0.01 137 1.27 i 0.20 Mélange de 14 noyaux
O.IO 117 1.62 ± 0.40 pairs - pairs
Classe III (1) 0.38 234 1.00 ± 0.13 Mélange de 47 noyaux impairs
ou impairs - impairs
232 n * 0.1 â 0.5 120 a 70 1.25 ± 0.08 Valeur moyenne de v pour un Ribon 1 " Rh •<- 0.3 90 i- 1,4 seuil compris entre 0.1 et 0.5 [RI.5]
" 9 Tm 0.02 a o.io 1.10 a 1.20 Méthode du maximum de vrai Julien
0.012
Mi - ± 0.20
|+ 0.22 1.14/
- 0.17
semblance tronquée [R1.61
" ' A u • 0.20 1.05
'- 0.15 Méthode de Monte Carlo
" As i. 50 1.15 et 1.3 2 Méthodes
A -Rappel de la théorie du noyau compose.
Le modèle du noyau composé ou modèle a interaction forte dans le
domaine des réactions nucléaires a été introduit par Niels Bohr en
1936 pour expliquer les résonances étroites (largeur de l'ordre
de 0.1 à 1 eV) observées avec les neutrons da très faible énergie
( de quelques eV ), Ces largeurs correspondent à des vies moyennes
de l*état résonnant 100 à 1000 fois plus longues que celles pré
dites par le modèle du puits de potentiel. Le modèle du noyau com
posé explique ces vies . ~ longues : le projectile a t par suite
des fortes interactions, parcage rapidement son énergie avec les
autres nucléons du noyau cible X et forme avec celui-ci un noyau
composé C qui est dans un état hautement excité.
X + a -»- C*
C'est seulement quand cette énergie est de nouveau concentrée sur
un autre nucléon que ce]ui-ci peut sortir du noyau. Si la parti
cule incidente est un neutron lent, l'émission d*un rayonnement est
possible après un temps suffisanment long. Le processus de capture
est alors r.omplet et le noyau composé C est formé dans son état
fondamental par émission d'un seul photon.
C **• C + y
au par émission d'une séquence de quanta en cascade. Ce qui explique
la prédominance de la capture radiative <"n,Y) sur la diffusion élas
tique, en accord avec l'expérience. Une réaction qui suit la voie de
formation du noyau composé est regardée comme un processus a deux
étapes :
- 5 -
a) - étape de formation du noyau composé.
b) - étape de rupture ou de décroissance du noyau composé (break-up)
On suppose que le laps de temps qui s'écoule entre ces deux
événements -îst suffisannneut long(plusieurs fois la période d'oscilla
tion d'un nucléon) de telle sorte que le temps de break-up ne laisse
plus de trace qui puisse identifier le processus particulier de
formation, le noyau composé oublie la façon dont il est formé. La
deuxième étape indépendant de la première, (hypothèse de l'indépen
dance) est alors simplement la décroissance d*un noyau dans un état
hautement excité, très similaire à la décroissance alpha des radioiso
topes naturels.
Si cette hypothèse de l'indépendance est vraie, (elle ne l'est pas
toujours), la décroissance du noyau composé suivant différentes voies
de réaction Y + b, Y + bi etc. sera de'terminée uniquement par les ]
propriétés du noyau composé et non par son mode de formation, la sec
tion efficace pour le processus X (a,b) Y pourra alors s'écrire :
°ab = °a F"
où nous avons désigné respectivement par :
a a : la section efficace pour la formation du noyau composé parla
particule a.
Tjj : la largeur partielle qui est proportionnelle à la probabi- t
lité de décroissance suivant la voie b.
r : la largeur totale qui est égale à la somme de toutes les
largeurs partielles V{ correspondant aux différentes voies
de sortie ouvertes.
La validité de l'hypothèse de l'indépendance entre la voie d'entrée
(formée par le noyau cible et la particule incidente) et les voies de
sortie correspondant à tous les modes de décroissance possibles, dépend
de la relation entre la largeur de niveau T et l'espacement entre
- 6 -
niveaux D du noyau composé. Cette hypothèse est valable dans la
région de rësonnance où les différents ni"caux du spectre d'éner
gie du noyau composé sont bien séparés entre eux (r << D).
L'expérience montre que la largeur de niveau V augmente avec
l'énergie tandis que l'espacement moyen D entre niveaux diminue
avec l'énergie.
Le mécanisme de la réaction du noyau composé peut être décrit
sommairement par le schéma de la figure 1.1 où nous avons aussi
indiqué la différence entre le modèle du noyau composé (processus
à deux étapes) et le modèle du puits de potentiel (processus à une
étape). La figure 1.2 nous donns le diagramme des niveaux d'énergie
correspondant aux différents modes possibles de décroissance du
noyau composé.
MODEIE DU PUITS DE POTENTIEL Processus à une étape
VOIE D^ENTREE VOIESDE SORTIE
X + a —> T+1T
Noyau cible
Particule incidente
Noyau Particule résiduel émise
MODELE DU NOYAU COMPOSE
Processus à deux étapes
VOIE D ENTREE A
VOIES DE SORTIE
X + a -$> C -3> Y+ b
Noyau cible
Particule Incidente
Noyau Particule résiduel émise
Noyau composé Fig.1.
-C<* 8M0V
* ! " « lMaV
Lotion «ffi faction «rficatt
C t a t |on4oimontc»f
f T ^ O . l e v
Suction *f|ie««t,
•Etat fonda mont a E
DIAGRAMME DE NIVEAU D'ENERGIE INDIQUANT LES DIFFERENTES VOIES DE DECROISSANCE POUR UN NOYAU COMPOSE D'ENERGIE E 0
..Résonances
.Fission
Fig. 1.2
Noyau composé
B - Fluctuations s^t^t^ues_des_^ar££urs_de_neutrons
Distribution stat is t ique des largeurs réduites de neutron.
Les mesures systématiques des intensi tés de résonance ont montré
que les largeurs de neutron fluctuent fortement de résonance en réso
nance de même par i té e t de même moment angulaire total .Ces fluctuations
doivent être attribuées au facteur de largeur réduite dans l'expression
des largeurs de neutron à cause de la variation du facteur de pénétra
tion avec l ' énergie .
Pour les résonances é t roi tes où T « D ( c 'est le cas habituel pour
les sections efficaces, aux basses énerg ies) . l ' in tens i té de la résonance
X est rel iée à la largeur de neutron I\ (n) par l'expression (cf. RI.3 |
h -2T * 2 Y n ) 8 J
J : le moment angulaire total
I : le spin du noyau cible
A - t 2 J * 1 ï
du noyau compose ( - 2(21+1 ) '
D'après la théorie de la matrice R des réactions nucléaires ,1a
largeur par t ie l le de résonance,pour un type de décroissance ( ou la
constante de décroissance correspondante ) peut être représentée par
un produit d'une largeur réduite qui est essentiellement indépendante
de l 'énergie pour une résonance donnée et un facteur de pénétration
qui est fonction de l'énergie.En par t icul ier pour la largeur de neu-
h<* - 2 p *A< n >
en désignant raspectivement par :
P„ : le facteur de pénétration qui est fonction de l 'énergie e t qui
dépend de la barrière centrifuge que le neutron incident <3oit
franchir. Pour un processus par t icul ier de décroissance qui donne
lieu à une émission de neutron de moment angulaire lli , le facteur
de pinëtration est proportionnelle à E pour l ' i n t e rva l l e
d'énergie considéré.
Y 2 , (n) î la largeur pa r t i e l l e réduite de neutron pour la résonance X.
Yj.(n) : l'amplitude de largeur réduite.
1.2. Distribution,.de»_largenrs réduites, p a r t i e l l e s .
1.2.1, Distribution s ta t i s t ique des largeurs réduites de neutron.
L'argument original de Porter e t Thomas [cf. R 1.1 |
conduisant a la distribution en x 2 à v • 1 degré de l iber té pour les
largeurs réduites de neutron est basé sur l ' in tégra le de recouvrement de
la théorie de l# matrice R | cf» R 1.2 j pour l'amplitude de largeur r ë -
TXc I. k2 i /2 ) I * X. dS^ (1.2.1.1)
avec : M ï l a masse réduite pour la voie c
"K : h/2ff où h est la constante de Planck
a : le rayon de la voie c
- 11 -
X, : la fonction d'onde interne à l'énergie E pour
une résonance A
é : fonction d'onde de surface. Tc
dS i élément de l'hypersurf&ce de 3A - 1 dimensions, c
spécifié par le choix du rayon a de la voie c.
L'expression (1.2.1.1) nous montre que l1amplitude de largeur
réduite est proportionnelle à une intégrale de surface (élément de ma
trice ) du produit d'une fonction d'onde pour l'état du noyau composé
et d'une fonction d'onde pour la voie de neutron. Cette intégrale est
étendue sur l'espace de configuration à 3A dimensions,où A est le
nombre de nucléons.
D'après la théorie du noyau composé, la fonction d'onde interne
X, est supposée très complexe comme résultant des interactions nuclé
aires forcesj et les fonctions d'onde pour les différents états sont
supposées non correlées entre elles. D'autre part, on peut approximer
l'intégrale (l.2.J,J [ par une somme sur un grand nombre de cellules de
l'espace de configuration. Chacune de ces cellules donne une contribu
tion positive ou négative avec une égale probabilité. La dimension liné
aire de chacune d'elles est supposée de l'ordre de IT fois la longueur
d'onde caractéristique d'un nucléon dans le noyau de telle sorte que dans
un noyau lourd il y aura un très grand nombre de cellules contribuant de
façon indépendante. En se basant sur le théorème central limite de la
statistique[cf.R 1.7}, on doit s'attendre à ce que la distribution de
probabilités pour les éléments de matrice ( c'est-à-dire pour la somme sur
toutes les cellules ) soit approximativement normale et asymptotiquement
normale lorsque le nombre de cellules contribuant de façon indépendante
devient trÊB grand ( cas des noyaux hypothétiques infiniment lourds ).
Far conséquent il semble assez raisonnable de supposer que toutes les
amplitudes de largeurs réduites y. pour les niveaux du noyau composé
C crest-à-dire pour les niveaux correspondant à des excitations élevées )
sont distribuées suivant -une loi approximativement normale avec une moyen
ne nulle. Il en résulte donc que les largeurs réduites y? suivent une
distribution en x 2 à un degré de liberté. C'est la distribution de Porter
et Thomas.
Les amplitudes associées aux largeurs partielles de capture radia
tive pour les états composés sont supposées aussi distribuées suivant la
loi gsussienne parce que ces amplitudes sont proportionnelles aux éléments
de matrice correspondant aux fonctions d'onde des états composés ( aussi
bien aux fonctions d'onde des états finals ). On en déduit donc que,si toutes
les largeurs partielles ?. ont la même valeur moyenne < T. > ,1a distribu
tion de probabilité pour la largeur totale T "-Jt T. sera une distribution
avec v degré de liberté ( c'est le problème statistique de la distribution
d'une somme de y variables aléatoires indépendantes X*, X 2 X de
Laplace-Gauss N ( 0,1 ). On peut montrer que la variable aléatoire ;
y^ =Xj+X2+ +X<*= 2 suit une loi de probabilité de densité :
f„ Cz)
£.< .2 I _ L ( * ) 2
e~2 a >o 2 ^ 2
La variable aléatoire x 2 est dite variable aléatoire à v degrésde liberté
|cf. R 3.13.| ).
Le nombre de degré de liberté v de la distribution de largeur totale de
capture radiative pourra alors être interprété comme représentant le nombre
de voies ouvertes de décroissance par rayonnement y du noyau composé.
1.2.2. Loi_du_2r_„tI°.ïl3UÉS •
A cause de la présence du seuil expérimental» les valeurs observées ne
sont pas régies par la loi du A complète, mais par la loi du X tronqu&e
dëfin-'.e par :
?- C * , 8 ) = "F f C« , 0 ) P ° u r * > * T ' (1.2.2.1)
H O pour oc <ct
Le facteur de normalisation F se déduit immédiatement de l'identité :
r°° r (1.2.2.2)
nous obtenons :
f^-^i 4 (1.2.2.3)
qui s'écrit encore, après le changement de variable t = P-
•jT _ \ Tcj» (I.2.2.4)
X =. pS< (1 .2 .2 .5)
rfj,,«)= je hf"1 .r Fonction gamma incomplète
(1.2.2.6)
[cf. RI.a]
L'expression finale de la loi considérée s ' éc r i ra alors :
P,,r*ft) = _ J / 'e . f e" f > 7 r »f > " t . d.2.2.7)
Pour simplifier l'écriture et lorsqu'il n'y a pas d'ambiguité possible,
nous désignerons désormais parJT la loi du % tronquée.
- 14 -
De même, nous remplacerons désormais le paramètre v par seu homo
logue p = —s- qui sera considéré comme l'un des paramètres à estimer. Pour
revenir au paramètre initial v s il nous suffira d'appliquer les formules
de transformation suivantes :
v = 2p
var(\>)= A var (p)
biais(v)= 2 biais (p)
1.2.3. But_du_travail :
Le but de cette étude est de mettre au point des méthodes rigoureuses
d'analyse des distributions expérimentales d'événements suivant des lois en
2 X et de vérifier si le nombre de degré de liberté v est compatible avec J
pour la distribution des largeurs neutroniques réduites.
- 15 -
1,3. EstimatiaD_des_garamètres_p_et_|i.
Pour simplifier, nous poserons désormais t
e «= ( e ( , a 2>
avec 6. = p
et 6 2 = u
Avec cette notation notre problème se ramène au cas général de
l'estimation d'un paramètre vectoriel 8 dont dépend la loi de proba
bilité f(x,9).
Comme en général et surtout dans notre cas, il n'est pas possi
ble d'affecter des probabilité.: à priori aux valeurs possibles du para
mètre 9, l'estimation de celui-ci ne peut être fondée que sur les ob
servations X,, X„... X de la variable X considérée,
l i n
L'idée des procédures classiques d'estimation consiste alors à
choisir une suite T de statistiques particulières T = 7 (X,, X-...X )
appelées estimateurs de 8, c'est-à-dire telle que :
T + 6 ruand n -* °° n
la convergence étant entendu en probabilité, probabilité presque sure
ou moyenne quadratique. Q3 ,]3]
En plus de cette propriété de convergence, on exige en général
d'un estimateur, les qualités suivantes :
- être sans biais ou asymptotiquement sans biais,
- être efficace ou à variance minimale.
1.3.1. Qualités d'un estimateur.
- Estimateur sans biais.
C'est un estimateur donc l'espérance mathématique est égale
à la vraie valeur du paramètre â estimer quel que soit l'effectif n de l'échan
tillon:
b(6) * E <t ) - 6 - 0 V n
- Est^mateur_ asymp totig^uement _sans _biai£.
Si l 'estimateur est biaisé c 'es t -à-dire si le biais E(t ) - 0 n o
existe et s'il tend vers zéro quand n augmente indéfiniment on dit
que l'estimateur est asymptotiquement sans biais.
E(t ) - 6 -> 0 v n o n -*• <°
Un estimateur â la fois convergent et sans biais est dit
absolument correct.
.Estimateur_efficaçe.
C'est un estimateur qui possède la plus petite variance parmi
tous les estimateurs sans biais possibles. De manière plus précise, un
estimateur est efficace si sa variance est é^ale à la valeur minimale V o
compatible avec la loi de distribution f(x,8) considérée. Cette valeur
minimale V est donnée par l'inégalité de Cramer-Rao. vo i(e)
où 1(6) = n E Slog f(x,6) est l'information ou la quantité d'information
contenue dans un" échantillon d'effectif n.
Pratiquement la recherche d'un estimateur sans biais efficace
du paramètre 8 se ramène à la recherche d'un résumé exhaustif pour ce para
mètre .
- 17 -
1.3.2- Kecherche_d^un résumé exhaustif_pour_les_2_paramètres p et 14.
Soient :
la distribution en % tronquée :
ffx,<n=_L_ f i f x r e " ^ (i.j.2.1)
et la fonction de vraisemblance L. associée à la réalisation f-C-t-îC»..X-N) :
N
Le logarithme de la fonction de vraisemblance L s'écrit :
N kl N (1.3.2.3)
ou encore
— N N
log. L = p H.o<jx r P" T ^ i - T"to3*i + N^^+P^j-f ) d-3.2.4)
t. 4 i»1 Ul
avec : 1 =
En examinant cette relation, nous voyons qu'elle est de la forme :
(9) (1.3.2.5)
c< = (<*,,«(,... - ° 0
'«M
Ce qui montre que la loi en C tronquée permet un résumé exhaustif \R3.13]
D'autre part, nous savons que si la loi de probabilité jffoc 76)
admet un système exhaustif ( T 4 7 T 4 . . . ,T S ) pour Ô m ( 9,, Ô. . , , Q^ )
et que SsIC , alors elle permet un système d'estimateurs efficaces c'ést-à
dire qu'il existe un système de fonctions
un systèmeTj^... 1^ d'estimateurs sans biais deh1^nx.* "n^ respectivement
satisfaisant à
[R3.13J -do
(1.3.2.6)
(•X-il T=±f a N <L-
(1,3.2.7)
(1.3.2.8)
Ofi = matricei( C, iO d'information du N. échantillon d'éléments
A - £ t f e L j ^ r •• • - -A = matrice (S , K) d'éléments A - ;- iT1''6' .
ZA •= matrice inverse de £J
1 = 1,2..S
j=1 ,2..K
/ 1)6, "îflt
l o i •
uô " .
\
(1.3.2.9)
T)9 (1.3.2.10)
En comparant les 2 relations (1.3.2.4) et (1.3.£.5) nous tirons :
e - r e „ 9 j
(1.3.2.12) < * . . r
a , = l o q x
( 1 . 3 . 2 . 1 3 )
( 1 . 3 . 2 . 1 4 )
( 1 . 3 . 2 . I l )
( 1 . 3 . 2 . 1 5 )
o g o C j ( 1 . 3 . 2 . 1 6 )
(1.3.2.17)
L9-yz.i
i - 1 l = i
( 1 . 3 . 2 . 1 8 )
/3(Ô)= L9<p+pUs*. >
( 1 . 3 . 2 . 1 9 )
- 20
d 'où nous en déduisons :
!°<l = T^'» 1
T>6, T>p
Tiô, "Dp ^
T>6, Tip "M Ty> '
D ô t 1»/* > 1 / "
e n c o r e , d ' a p r è s ( A l . 6 . 4 ) , ( A l . 6 . 7 ) , ( A l . 5 . 6 ) e t (A l .5 .14 )
1 9 , T>f > f
1
Ce qui donne a l o r s :
Rp,x)
I, = /"k'tf'Ugtolb
( o i ' T . 1 f
"be V - M O + 5 )
r r
nous en déduisons donc que les 2 statistiques :
N tr, N
T..-L
( 1.3.2.20 )
{ 1.3.2.21 )
sont: respectivement des estimateurs sans biais efficaces de :
ft,(9). * i , -S f - r ^ r J ^ M db-%£ ( T-3-2-22}
' v f / / \ p rep,*) / C 1.3.2.23 )
Par contre, il n'existe pas d'estimateurs sans biais efficaces pour les
paramètres considérés p et u .
Ç a5 particulier : 2
Dans le cas où a " 0 ( distribution en x non tronque; ) , les
2 expressions (1.3.2.22) et (1.3.2.23) se réduisent à
*'m-foj*irhiA-h}-%>-Ld} ci.».»)
( 1.3.2.25 )
puisque pour a = 0 nous avons :
X = P-* = O
Z ûo
) ( fonction gamma )
Tfp) - 1 U t r l Eocptcjt « d io^,r~Ço) ( fonction digamma )
Lea expressions ci-dessus de h^Câ) et de h2(â) nous montrent que
même pour a • 0, il n'existe paB d'estimateurs sans biais efficaces pour
le couple (p,p). Far contre il existe un tel estimateur pour le paramètre
U lorsque p est connu.
Chap i t r e I I
M E T H O D E S D ' E S T I M A T I O N
- 23 -
11.1. Dif f |reiites_méthodes_d^estimation.
La recherche d'un estimateur possédant les qualités ci-dessus
exclut toutes les méthodes non analytiques (par exemple les méthodes
graphiques) ainsi que les méthodes d'estimation par intervalle de
confiance.
Les méthodes d'estimation ponctuelle couramment employées en
pratique et susceptibles de fournir un tel estimateur sont :
a) - la méthode des moindres carrés,
b) - la méthode des moments,
c) - la méthode da maximum de vraisemblance.
En examinant le tableau IL et en tenant compte de la nature
de notre problème, nous voyons que la méthode des moindres carrés
• „ • !
ne peut pas nous convenir. Par consequent, dans tout ce qui va sui- i
vre nous nous intéresserons seulement aux deux dernières méthodes
qui feront l'objet des sections 11,2 et II.3,
TABLEAU E. Comparaison entre les différentes méthodes d'estimation ponctuelle.
(cf.R3.U )
Estimateur Forme de la
distribution parente
Efficacité de l'estimation Normalité de l'estimation Estimateur
Forme de la
distribution parente Echantillon de taille finie Cas asymptotique
échantillon de taille finie Cas asymptotique
Maximum de
vraisemblance
Cas général n'est pas efficace
variance
minimale
n'est pas normale
normal
et non
biaisé
par le
théorème
central
limite
Maximum de
vraisemblance
admet un résumé
exhaustif
Il existe un estima
teur sans biais ef
ficace d'une fonc
tion g(6) du para
mètre Q
variance
minimale
La distribution de
g(Q') n'est pas nor
male en général mais
la variance est con
nue
normal
et non
biaisé
par le
théorème
central
limite
Maximum de
vraisemblance distribution
normale ««
Il existe un estima
teur sans biais ef
ficace d'une fonc
tion g(6) du para
mètre Q
variance
minimale
La distribution de
g(Q') n'est pas nor
male en général mais
la variance est con
nue
normal
et non
biaisé
par le
théorème
central
limite
Moindres carrés
Estimation
linéaire
n'est pas efficace
mais l'estimateur
est optimal parmi
les estimateurs li
néaires non biaises
optimal parmi les
estimateurs linéai
res non biaises
En général, il n'y
a pas de normalité
(mais, dans le cas
normal, les distri
butions sont classi-
auesl*
normal
et non
biaisé
par le
théorème
central
limite
Moindres carrés
Estimation non
linéaire n'est pas optimal n'est pas optimal n'est pas normal
normal
et non
biaisé
par le
théorème
central
limite Moments Cas général n'est pas optimal n'est pas optimal n'est pas normal
mais non biaisé
normal
et non
biaisé
par le
théorème
central
limite
* Student, Fisher - Snedecor etc...
i* Lorsque la distribution parente est normale, la méthode du maximum de vraisemblance
et la méthode des moindres carrés donnent des résultats identiques.
II.2 - METHODE DES MOMENTS -
La méthode du maximum de vraisemblance, appliquée aux problêmes
d'estimation, donne lieu souvent à des équations de vraisemblance algébriques
aotrpliquées ou transcendantes difficiles à résoudre. Par contre, la méthode des
moments, introduite au départ par K, Pearson [R.2.1] conduit souvent à des
calculs très simples. En dehors de cette simplicité, elle est généralement
inférieure aux autres méthodes d'estimation plus modernes, surtout dans des
cas réguliers simples. Mais dans des problêmes plus complexes, la position
est moins claire. C'est surtout à cause de cette simplicité de calcul que
P. Rider [R,2.2] et Blischke [R.2.3] ont appliqué cette technique au j-ro-
blême d'identification des composantes dans les mélanges de distributions.
Enfin, notons qu'il est toujours possible d'améliorer l'efficaci
té des estimateurs moment, généralement beaucoup plus petite que l'unité,
en utilisant, pour compenser les pertes d'information , plus de moments que
de paramètres à estimer (en effet, les moments de l'échantillon ne sont pas
en général des statistiques exhaustives pour la population correspondante).
C'est dans ce but que T.T. Soong a généralisé la méthode des moments en in
troduisant la notion d'estimateur moment combiné. Le procédé consiste à géné-
rer une classe d'estimateurs moments^ itV'* • 64, du paramètre 9 et à consi
dérer comme estimateur de 0 l'estimateur moment combiné 8 constitué par une
combinaison linéaire et optimale des ô: ( j « 1 ,2, . .. p )
k =Lwjêj
où les poids Wj sont choisis de façon à rendre minimale la variance de
[R.2.4].
11.2,1. Princip_e de l__Séthode_des_<moments :
Considérons N réalisations indépendantes 3C, , 3C 4 )» »• o c N
d'une variable aléatoireXdont la fonction densitéIcsc,Ô) dépend du paramè
tre vectoriel o = ( ©*i®fci*« * K ' • Nous supposerons» dans tout ce qui va
suivre, qu'un nombre approprié de moments ainsi que leurs premières dérivées
par rapport à 6; ( v=^,2 *..!<) existent et ne sont pas nuls.
Désignons par
Tn.,= J_T~3C.1. (II.2.1.1.) 1 N 4-, J
j = * le moment empirique d'ordre i
et par Q . (û) = \^à gfoc,©} c U (II.2.1.2.)
le moment théorique d'ordre i
avec 1=1,2.,... K
La méthode des moments consiste à égaler les deux expres
sions (II.2.1.1) et (II.2.1.2), ce qui nous conduit â un système de \C équations
à \C inconnues : m c - <J t(B) » O ( U l , a . . . * 0 (II.2.1.3.)
dont la résolution fournit l'estimation du paramètre ô considéré.
II.2.2. Biais_et yariançes_asymototigues_des_e^
Le problème des biais et variances asymptotiques des estimateurs
moments a été examiné par divers auteurs et principalement par Shenton et ses
collaborateurs (Shenton [R.2.,5]). Shenton et Meyer [R.2.6]; Shenton et Walling-
ton [R.2,7] . Dans un de leurs rapports, ceux-ci ont exposé une méthode per
mettant au moins théoriquement, de trouver les biais et variances des estimateurs
moments à n'importe quel ordre. Le procédé consiste à utiliser les polynômes
orthogonaux et à exprimer les estimateurs moments en fonction des moments de
l'échantillon. Ceci est quelquefois analytiquement impossible. L'autre part,
nous pouvons remarquer que cette méthode a'applique difficilemment aux distri
butions comportant plus de deux ou trois paramètres.
- 27 -
Une méthode très récente (1970) de Robertson et Fryer [R.2.B]
permet, à notre avis, de surmonter ces difficultés. Le procédé consiste à
développer en série de Taylor les paramètres dont on veut estimer les biais
et variances, au voisinage de leur vraie valeur (ces paramètres étant bien
entendu considérés comme fonction des moments de l'échantillon). Cette mé
thode a le mérite d'être relativement simple et d'application facile, même
dans le cas des distributions comportant plusieurs paramètres. D'autre part,
elle peut donner une précision à un ordre quelconque enj. ou i. ou plus.
Cependant, sur ce dernier point, même avec cette méthode, on dépasse rarement
l'ordre _ (et même 1*ordre J. si la fonction de distribution n'est pas simple
et comporte plus de deux ou trois paramètres) car le calcul analytique devient
de plus en plus très compliqué sinon très fastidieux, lorsque l'on dépasse
l'ordre J-N
C'est suivant cette méthode que nous allons calculer, dans ce qui
va suivre, les biais et variances des estimateurs moments des paramètres p
et u de la distribution en X tronquée définie au paragraphe ( I. 2. 2 )
en nous arrêtant à l'ordre A- (ce choix étant en partie justifié par la
N forme compliquée de la fonction densité en question, comme nous allons voir par la suite, un calcul à l'ordre en_J-est déjà difficile à effectuer).
11.2,3. Détermination des biais et_yarîances_des_estimateurs moments
Dans tout ce qui va suivre, nous désignerons par :
Qe z= la vraie valeur du paramètre 0
et nous poserons :
"zH ( e l le-e. "f1 (u.2.3.U
**U "/*• " £-i (II.2.3.2)
ô t - 9. 0 = Si (II.2.3.3)
- 28 -
avec L = 1 , 1 , . , K.
Nous pouvons développer (II.2.3.2) en série de Taylor aous la forme
£-i = Dvj &j +£uKMK +^ijK«SjSKS{+GU l <em&jSKS eSm+... (H.2.3.M
D„=! D9j
•T. , - i X a i _
-WK— - j l "be/*eK
•• Gu-.-àJk t ainsi de suite.
Le problème consiste à déterminer les coefficients du développe
ment inverse de (II.2.3.A).
o c = D l J£j + R jKej£K+ Q u K t £ . j ^ e + RùiKb^jMee.**-.- (n.2.3.5)
Pour cela nous remplacerons l e s^j,£ K... Pa r leur expression
(II.2.3.4) dans le développement (II.2.3.5) et nous comparerons les coeffi
cients de même puissance en 0 dans les 2 membres de l'équation obtenue.
+ . . . . D'où nous en déduisons :
(11.2.3.6)
(indice de Kronecker)
(11.2.3.7)
C e t t e r e l a t i o n nous montre que l a m a t r i c e d ' é l é m e n t s \j e s t
l ' i n v e r s e de la matrice d'éléments Du
Terme en O
p n n , n i jr. i f T
( 1 1 . 2 . 3 . 8 )
( 1 1 . 2 . 3 . 9 )
( 1 1 . 2 . 3 . 1 0 )
(J étant un indice de sommation).
Nous pouvons écrire, en multipliant les 2 membres de (II.2.3.10)
d'où en tenant compte de relation (II.2.3.7,) :
D-Vi-r-1 Ai 11 = p
0 Ai n + p
D%=S r^ 1 li r = c(
0 &\ r + a
Nous obtenons alors :
Uj**=--U -U V - ^ m n ^ (II.2.3.12)
Les ^efficients \)--uo -!<••» • * * * 8 e déterminent de la même
façon que précédemment. Dans l'expression des biais et variances asymptotiques
ces coefficients interviennent seulement à partir de l'ordre _i. . C'est pour-
quoi nous n'en donnons pas l'expression générale.
Ayant ainsi défini les coefficients jj-i -t*.,. jj et K , ,
nous pouvons maintenant écrire les formules donnant les biais et variances
des estimateurs moments considérés;
En effet, partant des relations bien connues :
t>(§i)-oê.)-e i > 0 - £ [ ê ; - y ( n . 2 . 3 . ) 3 )
COO(ê l,8 i)-C[(S l-Ôp(S J-85)] (II.2.3.U)
^(^-£(1^ ( I I-2'3- l 5 )
C f ( 6 , - M 6 J " M =CO0(gi,6J.)+k(Bi)ir6j) (II.2.3.16)
0. = val
estimateur de 0^
eur moyenne de o ;
0. = vraie valeur de o: 1,0 *
nous obtenons, d'après (II.2.3.2) et (II.2.3.17) , en nous limitant à l'ordre J-N
k ^ u - O S , ) ^ DCiCce,)+ P O K - ^ ^ J ^ cii.2.3.19)
D'autre part, nous avons, d'après (II.2.3.3) et (II.2.3.17)
«C[(D i , n
£ m + P i m n £ m £ o ) (D j % + ep^ P g]
a* C S,, 8,0. û i"D*-CU,.epl (II.2.3.19)
(en nous limitant à l'ordre A. ) ivj
' -£fe.p=-£lCm--yUi)=0 V
(11.2.3.20)
(11.2.3.21)
(II.2.3.22)
C f £ m ^ = — (/im+[»-/lm/*fJ (d'après [R.2.9])
Nous obtenons donc
N
M
(II.2.3.23)
(II.2.3.24)
(11(2.3.25)
a v e c I , J , l< , m , \p = 1 , t
ou encore plus explicitement :
US,
(cas de 2 paramètres)
i;). l-[P i 1 l(^-^) +4P i D( /i 4- / Vi.) +P 5 t t( /i,- A
t)]
P- - P - P-
26)
N ' (II.2.3.
(II.2.3.28)
I I . 2 . 4 . Es t ima t ion des paramètres p e t i\ de l a_d is t r ibu t îon_en_X__t rong t uée
g ar _ a _mé t. h o de _d es_moç.ie n c s :
a) Estimation des paramètres -
Nous allons maintenant appliquer la méthode des moments à l'estima
tion des 2 paramètres o etu de la distribution en X tronquée définie au para
graphe ( 1,2,2 )
:frx,B) = J _ ( e ) f ~ r e P 7 (II.2.4.1)
D'après le principe de la méthode des moments, nous sommes conduits à résoudre
le système d'équations suivant :
i = 1,1,
(II.2.4.2)
Moment empirique d'ordre i (II.2.4.3)
0 . ^ ( 0 1 = f o C l f ( 3 t j&'ïcia. Moment t héo r ique d ' o r d r e i ( I I . 2 . 4 . 4 )
*4t
D'après (A3.2 et A3.3) n o u a a v o n s :
f 4x prCjYX)
A = p-Pc^BleL-^DM' 4* f Tcp,*)
iï, OO
.,*)= je" kf"1 dt fonction gamma incomplète
- 33
Comme d ' a p r è s ( A3.1.6 )
r?P+i.,x)= J cctf+1d!; =. e jc'Cx+p+O+pfp+onrp,*)
nous en déduisons donc
^-/*( l +?)v( 1 +^)
Les équations des moments -s'écrivent alors :
(11.2.4.5)
(11.2.4.6)
(11.2.4.7)
(11.2.4.8)
En examinant ces 2 équations, nous constatons qu'il est possible de les
ramener à une équation à une seule inconnue. En effet, de la relation (II.2.4.7)
nous tirons :
n = m * - * (II-2-*-9)
f ]*
d'où, en remplaçant cette fonction dans l'équation (11,2,4.8) :
m * = A [ ^ ) 0 ^ + - p + l + -i] dl.2.4.,0)
w l=Cm,-M)°< + m,u+ Km., (n.2.4.10
r r f ce qui nous donne :
P = *- (II.2.4.12)
I 1 trit-my*- ec(m,-/D
Il en résulte donc que les 2 equations des moments se réduisent â une seule
équation a une inconnue U :
m,= il fi* 0<L) (II.2.4.13)
ou encore
, - r ' p <ï i .2 .« . i5)
avec
p e~*%f (II.2.4.16)
(XI.2.4,17)
( J a / i (11.2.4,18)
Le problème se ramène alors à la recherche des zéros de la fonction
cf)(u) et la méthode de résolution utilisée peut être l'une des méthodes ité
ratives exposées au paragraphe (III.1.1).
b) Estimation des biais et variances asymptotiques de p et M
En posant
nous obtenons d'après (II.2.3.26), (II.2.3.27) et (II.2.3.28)
^vî)-i[ir^K.^+D*if)Ov^irDVx)]
(11.2.4.19)
(11.2.4.20)
(II.2.4.21)
Les expressions explicites des coefficients iX: , D " C M * P-• et des
moments A A K ainsi que les différentes variables ou fonctions qui y inter
viennent sont données dans les tableaux II.1, II.2, II.3,J-J, 4 et 11,5
c) Estimation des biais et variances de v
Les expressions des biais et variances asymptotiques de v se déduisent
de celles de p, d'après les relations:
ua*.Cv>) « 4 vcvi Co)
•oCoiid (-0)= t iiaia ( p)
Ce qui nous donne alors:
b<^-l[l? (,(/'i-/0+S.I? a(/'j-A/M+ P,u.</*l-/'0] (II.2.4.24)
U«IC^).A[C D V C / V / O - i D ' ^ ' ^ - y u ^ O + C D ' 1 ^ - ^ ) ] (II.2.4.2S)
TABLEAU I.I : Fonctions p, , % , % , "E> et leurs dérivées
Fonction : /3 j= /— P
Références â
l 'annexe Fonction : X s X I
Références à
l 'annexe
DSrivées : Dérivées premières :
p>\ = - â P
T)f (3 ~ p
-V* I» /*
(AI.1.2)
(Al .1.3)
( A l . I . 4 )
(Al .1.5)
Dérivées : Dérivées premières t
X*1, =%"( l + L o ? x )
^Lo«7C y__ P.
(Al.3.4)
(Al.3.5)
(Al.3.7)
(AJ.3.8)
Fonction : X = P — 1 /*
Références
l 'annexe Fonction : ^ > = £•
Références à
l 'annexe
Dérivées premières :
F DLo«X_ X', _ i
V * P
T>Lo«X_ x i = . i
(Al .2 .2)
(Al .2 .3)
(Al .2 .5)
(Al .2.6)
Dérivées premières :
T>f % F
^ ^ z 4
(Al.4.3)
(Al.4.4)
(Al.4.6)
(Al.4.7)
TABLEAU 1.2 : Fonctions f , 17 e t leurs dér ivées
Fonction : <P = _L_
Références
â 1 ' annexe
Fonction : 10 = %' "£, <f> Références
1'annexe
DÊrivÊes :
Dérivées premières :
ip «
1 p ' y Tip ^
> •lL«>,<f».£l.-llVi'*
(Al.6.3)
(Al.6.A)
(Al.6.6)
(Al.6.7)
Dérivées :
Dérivées premieres :
-Dp " 1? a p T>p *
Dérivées secondes :
<*,,»* p - a ^ 3
Y Lo «, 0 - 1( 2 - 1 ) _ V Loa * TipTy/ / t v p ; 1p-y
(Al.7.S)
(Al.7.6)
(Al.7.10)
(Al.7.11)
l
(Al.7.14)
(Al.7.16)
(Al.7.18)
(Al.7.20)
(Al.7.22)
(AI.7.24)
TABLEAUl.3 : Fonctions £ -, 4^ et leurs dérivées
Fonction densité i et ses dérivées Références
3
1'annexe
Fonction gamma incomplète et ses dérivées
r.r.p^jVtf-' Jt Dérivées
Dérivées premières :
^---fpr-^+i-r^ /"
Dérivées secondes
Tip1 ^ "y « p
l W £ = _ l t L o ^ ; 1 / ~ - l \
-Bu"-1" T u ' ? t « ^ ÂîJ ' t y i 1 > Dérivées t roisièmes
Y Y TlpT
D p Y Hp-iy.1 /***• >" '
-Du'
(Al.9.5)
(Al .9.6)
(Al .9.7)
(Al .9.8)
(Al .9 .9)
(Al.9.10)
(Al.9.11)
(Al.9.12)
(Al.9.13)
Dérivées :
Dérivées p r o p r e s , - ^ W » j „ y
V f
Dérivées secondes : ' '
Dérivées t r o i s i Ë a e s t i . c f J . / ^ t i l j" Dérivées t r o i s i Ë a e s t
TABLEAU]!.4 ; Intégrales J n et ses dérivées et Moments théoriques
Les in t ég ra le s î n e t leurs dér ivées Références
1 annexe Moments théoriques d ' o rd r e M * = ^ l ^ " * 1 c ^ a o
Références
1 annexe
f^00 Moment d 'o rdre K :
ïn = ê'tPlUg.t)"^ ">• ( n = 1 , î , , 5 )
(A2.D
A r t ^ l r
P +K-p., . . . + cp+ic-iKp+K-t). . . Cp+K-p+DX' ' e +
i , _ rSitf-iLo3tcit + Cp+K-1Kp+'<-!)... Cp+K-p) (A3.1.4) i , _ rSitf-iLo3tcit
Moment d 'ordre l :
/*<-=/* ( 0 + f) (A3.2.2) j
Moment d 'o rdre 2 :
(Al .8 .9) / U l = /0 l[(-X4p+O9 + p fp+O ] (A3.3.3)
(Al.8.10)
Moment d 'o rdre 3 :
/MJ=/i!rr7(xî+Cp+l)5C + (p+l)<'p+i))+ ptp-HXp+l.) (A3.4.3)
IP f (Al.8.11) Moment d 'o rdre 4 ;
IP f P* = /5Zl['?6''+(P+î)'Xl+C|'+J)('p+«.)X+fp*3Kptt)Cf+oVfp+J)(p+ï)(jHi)pl (A3.5.4)
(Al.8.12) avec /î = / i et 0 = ê _ * 1
' T rep,*)
TABLEAUI.5 <=«" D u , D i J , C U K . P,jK
^ & * ^ -TITS <i.,J,ic = l , ' )
1 si i-k.
0 Si i^K
Références . D i r W K L mnp
( l , i , K = 1 , 2 )
References!
à l 'annexe
Coefficients J)ij
(Eléments de la matrice
D.. i + ( »( i ! i ; + jp D 1,.p
2[r? ,
)(w r.)-i^j-iJ
Coefficients jj
(Eléments de la matrice C D
D"- D« A
A
A
~ A
A-D^-D,^ ,
(A4.1.2 ' )
(A4.1.3 ' )
(A4. 1.5)
(A4.a.10)
(A4.2.13)
Coeff ic ients i~ i jK
t ,„ . - | .K + A(-2-o:) ]
£M-&[r? 1 +5jLi]
C. "•
ni"
Coeff ic ients JK-
Pî,,„.DlDÎD\,îIît>D1ÏD,tlrB,tJ]-D,2lI),WE1,rD%,>lî[D,t1^I]]
P^ID^DX^I^^^^ PJ!l---DlDtD\l|DX,>DlB'tttD
ItI.1-lf[D',(D,£1,,+Dt!ll>IftD,£!^13l P P P -P "991 - lOI»
A4. 3.
(A4 .3 .3 )
(A4.3.5)
(A4.3.6)
(A4 .3 .8 )
(A4.3.10)
(A4 .3 .12)
A4 .4 .
(A4.4.1)
(A4.4.2)
(A4.4.3)
(A4.4.4)
(A4.4.5)
(A4.4.6)
(A4.4.7)
{M. 4 .8 )
- 41 -
II.3 - METHODE PC MAXIMUM DE VRAISEMBLANCE -
Partant de l'idée selon laquelle la valeur la plus vraisemblable du
paramètre inconnu ô s f 6,, B t . . . ô^ ) est celle qui prête à l'événement
observe la plus grande probabilité R. Fisher [R3.1J a mis au point une méthode gé
nérale d'estimation appelée méthode du maximum de vraisemblance. Depuis, cette
méthode a attiré l'attention d'un grand nombre d'auteurs notamment Duguë
[R3.2] , Wald [R3.3, et R3.4] , Cramer [R3.2], Huzurbazar [R3.5] et Chanda
[R3.Ô] qui ont eu le mérite d'avoir, par leurs travaux respectifs, apporté
et développé les preuves rigoureuses des propriétés asymptotiques des estima
teurs par le maximum de vraisemblance. D'autres auteurs, Neymann & Scott
[R3.7], Kraft S Lecam [R3,8] ont montré que l'estimateur par le maximum de
vraisemblance peut être inefficace et non convergent dans certains cas. Mais
ceux-ci sont assez rares. Dans le cas général, la méthode du maximum de vrai
semblance donne de bons résultats qui s'améliorent au fur et à mesure que le
nombre d'événements considérés augmente (l'efficacité des estimateurs par le ma
ximum de vraisemblance est en effet une propriété asymptotique [R3.13 page 2l6j),
Le principal inconvénient de la méthode du maximum de vraisemblance est qu'elle
conduit souvent à des équations de vraisemblance compliquées difficiles à
résoudre analytiquement. Cependant cette méthode reste encore à l'heure actuelle
la méthode d'estimation la plus utilisée en pratique, surtout à cause des pro
priétés asymptotiques des estimateurs correspondants.
11.3.1 - Prinçige_de_la_2f jçhode_du-maximum_de_vraisemblance -
La méthode du maximum de vraisemblance consiste à choisir comme
estimation du paramètre BeR. une fonction y(x,..Tcn1â valeurs dans R,
qui réalise un maximum strict de la vraisemblance, c'est-â-dire, telle que :
L[=c,§(?o] > L C K , 6 ] V 9 (II.3.1.1)
Ùtx) sera appelé estimation de 9 par le maximum de vi semblance.
II.3.2. - Eguations_de vraisemblance -
Dans tout ce qui va suivre, nous supposerons réalisées les conditions
de régulari té suivantes [R3.I3 1 :
^ C 6 - | ^ e R K : P c ~ , e ) > 0 }=•£ est indépendante de 6 1 (II.3.2.1)
2)L est continûment différentiable en 9 et toute fonction Q(x.) satisfaisant
à (!) est à rechercher parmi les solutions du système :
N
Tlô. A - . 1 ) S : ' (II.3.2.2)
C'est le système d'équations de vraisemblance qui peut encore s'écrire :
1 too L = 0 (II.3.2.3)
.. La matrice d'éléments est définie positive.
II. 3.3. - £2™§_£e s _egua t i ons J*e_ vrai semblance _
résumé exhaustif -
Les équations de vraisemblance se simplifient notablement lorsque
la loi permet un résumé exhaustif de même dimension que la dimension du paramètre
à estimer. En effet, nous avons vu que dans ce cas la loi s'écrit [" I.3.JJ .6] :
-1 T
où A et Wu sont des matrices régulières. Il s'ensuit immédiatement que
le système d1ëquations de vraisemblance
1 LoaL =0 (II.3.3.2)
est équivalent au système
i . R < n - 3 - 3 - 3 )
Dfautre part, nous savons que t est un estimateur sans biais efficace
de h. Par conséquent, les équations de vraisemblance s'identifient aux équations
des moments écrites pour les moments d'ordre 1 des résumés exhaustifs.
II.3.4. Résolution des équations de vraisemblance
La résolution du système d'équations de vraisemblance peut
s'effectuer par la procédure générale d'itération qui consiste à partir d'une
certaine estimation initiale d^de la vraie solution 6 et calculer ensuite les
* . " -e
approximations successives 6. (estimation de 6 après la j itération). Le pro
cessus est convergent si |B - —Ô | décroit quand j croit et tend vers zéro quand
j -*• œ Kale [Ë3.10 et R3.lf] avait défini le processus d'itération de la
façon suivante:
soit g(6) une fonction différentiable qui n'a pas de zéro au
voisinage de la solution 6 de l'équation de vraisemblance. Fn postulant l'exi
stence de 8, on définit la fonction h (9) telle que:
h(B) = 6 - g(6) |g- log L (*|9), 0 )
alors» le processus général d'itération est tel qu'on ait :
• log i* l ^ o ; ; 6 =
"j
Si on désigne par e. = |9j-8J, (3)
l'estimation de l'erreur à la j itération, alors g(8) doit être choisie telle
que £.+ 1<£. et e.-K) quand j -*». Cette condition assure la convergence du pro
cessus d'itération défini par (2).
Householder [R3.12] avait montré que deux conditions sont
suffisantes pour satisfaire les exigences sur l'erreur e.
1) S'il existe un domaine Np(9) au voisinage de 8 et si 91 et
6" appartiennent à Np(e), on a pour K >JQ |h(9')-h(9") |^K (0$K$1). Si h(9)
est différentiable, |h' (6)|<1, alors Np(9) existe.
2) L'estimation initiale 9oc.Np<6)
Dans le processus d'itération défini par la relation(2) on
peut choisir pour g(6.) l'une des trois quantités suivantes selon la méthode
d'itération adoptée J
V r U M 6 ) ] e 4 T ê -g(ê > ( | y log L fede»,.;. (2)
a) g ( 6 H ï f r l o g L C l 6 ) ! " 1 : méthode de Newton-Raphson
b) g(6)—|nE<- 552 l oS l e*|8)l_1
(3)
(4)
où n désigne la dimension de l'échantillon.
La relation b) peut encore s'écrire:
g(6)- nl(6)
I(8)« E(- — log L (3t|6)) 66 2
(5)
(6):quantité
d'information
c) g<6)=- - (7)
où K est une certaine constante; c'est la méthode de pondération constante.
Il est évident que le problême pratique consiste à choisir les valeurs conven
ables de la constante K. Une autre possibilité consiste à utiliser la relation
(2) sous la forme:
< â r l o s L > . (8) 3+1 J n
où aj désigne une séquence de nombres réels quelconques choisis de façon à
satisfaire les conditions sur les erreurs estimées.
En comparant ces trois méthodes d'itération, Kale avait montré
que seul le processus d'itération de Nevton-Raphson défini en a) est du second
ordre et par conséquent qu'il converge plus rapidement que les deux autres qui
sont du 1er ordre. La méthode b) est applicable si 1(6) est différentiable(c'est
bien le cas habituel en pratique). Par contre la troisième méthode c) n'est pas
toujours applicable par suite de là difficulté de choisir la séquence a. des
nombres réels telle que le processus converge et que cette convergence ne soit
pas trop lente.
Il est possible de résoudre les équations de vraisemblance par
d'autres méthodes numériques.qui feront l'objet du paragraphe III.1.
I I . 3 . 5 . - Biais e t _var i ance s a svrop to t i que s des estimateurs £ar le maximum
de_yraiseml)lancé^-^Ca8Midg_2_garamètres :
a) Biais asymptotiques :
Introduisons tout d'abord les notations suivantes :
t t « t (9,) (II.3.5.1)
^ - b 4ô*î (II.3.5.2)
(éléments de la matrice d'information J )
ou mieux encore, d'après (A5.I.6.)
ae. n i . 3.5. 4)
(II.3.5.5)
avec i, j, k =1,2
(les intégrales sont étendues à tout le domaine de définition
de x ).
=• déterminant de la matrice d'information J
«a - - R „ t - ^ p . . i ( I I - 3 - s - 6 >
D'après L.R. Shenton et P.A. Wallington, les biais asymptotiques des
estimateurs par le maximum de vraisemblance de 8, et 0^ sont donnés par les
relations suivantes [R2.-7 ]
t, t + k R,. ~ - V L t " * t R,t + £, ^ ^ «1.3.5.7)
kP„^k t - - l - f t L - ^ t t ^ t t J (II.3.5..) En posant respectivement :
Ç - i r P P - t P P + P P ) ( I I 35 9) J, = l rt,«. 'i,« *" i,t 'l,il ri.l 'i.ti ' IH.J.S.S;
m a ^ - i r P P - i P P + P P )
Î. M S nous obtenons
L 1 r s P _ s P •)
b) Matrice: des variances-covariances : Cas asymptotique
( I I . 3 .5 . I l )
(II.3.5.12)
Lorsque la t a i l l e N de l 'échanti l lon est suffisamment grande (cas
asymptotique), la matrice des variances V est égale à l ' inverse de la matrice
d'information J N [ R3.13 ]
V « J N (II.3.5.13)
«CM. (§,) Cou ( 6 , , ^ )
( I I .3 .5 .H) cow (9,,^) Va*. ( 9J
V
X -t hô î * J Ua,X J \
(II .3.5.15)
ou encore :
= + N 3 = + M P',. R f l
«.,1
(II .3.5.16)
t , P.
Ce qui nous donne :
(II.3.5.17)
Mous en déduisons alors :
«oit. (6,1 = "t.t N Z>
VOA. ( 8i) =
Pi . . N2>
(II.3.5.18)
II.3.6. Estimation des paramètres p et IÀ de la distribution_en 9C tronquée
a) Estimation des paramètres :
L'application des résultats des paragraphes (1.3.1) et (II.3.3)
nous donne immédiatement les équations de vraisemblance suivantes :
(d'après 1.3.2.22)
(d'après 1.3.2.23.):
En examinant ce système d'équations, nous voyons que :
' la deuxième équation de vraisemblance est identique à la première équation des
moments (II.2.A.13) ce qui est conforme au résultat énoncé au paragraphe
(1.3.3)
le système d'équation de vraisemblance est du type trancendant et sa résolution
requiert l'emploi de l'une des méthodes numériques exposées au paragraphe
(III.1)
REMARQUE :
Au lieu de résoudre ce système d,équations pour trouver les
v, leurs les plus vraisemblables de p et de U , nous pouvons utiliser
une autre méthode qui consiste à partir directement de la fonction de
vraisemblance ou plutôt son logarithme S - f o a L (cf. 1.3.2) et
appi*.quer les techniques d'exploration directe exposées au paragraphe
III.1.2.
b) Estimation des biais et variances asymptotiques de p et y.
Nous avons, d'après (II.3.5.11) et (II.3.5.12) :
D Max, ! p ) _ ' t . t
P
T-ç < *. p,.» - s « «u
avec
tx>»-± Cs»PM - s ; Ptil )
< Ô ' f î ,^ -P M
P x ,
$.=-_!_ ( P P - i P P + P P ) i N Î )
^^(tt-ll+tt) P • P ou les i ' et ' i I'K. sont données par les expressions figurées
dans le tableau 11.6.
c) Estimations des biais et variances asymptotiques de v. Les expressions des
biais et variances asymptotiques de v s'obtiennent d'après les relations :
Nï = If
TABLEMII.6 : Fonctions P ; ^ , P; j *
Fonctions : R. , _ C r i « 1 ? l
C( , 3 « 1, t ) 1 J
Références à
l'annexe
Références i
l 'annexe
Expression de : P M i l
Expression de : r; j ^
p,„-iH~r-i (A5.2.4)
p.H.iiLo-r+i
• Y 1 ? /*l
(AS, 1.24)
(AS.1.26)
Expression de : K .
p.H.iiLo-r+i
• Y 1 ? /*l
Expression de : K .
p.H.iiLo-r+i
• Y 1 ? /*l
(A5.1.29)
P^ =tS4"_2? (A5.2.8) T > ^ /*•• / » / L
Expression de : r * , t
P ^ . V U ^ ' - i * (A5.1.33) i
k - ^ * ^ 1 ^ (A5.2.I1) ( i 5 . l . 3 S )
k - ^ * ^ 1 ^ IfAl" P*\ fi J
(AS.1.38)
Relat ion de dymétrie [
P - P Relat ions en t re l e s s y s ë t r i e s :
P - P (A5.2.12) •i,n = " . i l = '«•.« + —,
avec u«-
•Ai R^R.-t + ifB^ff) (Fonction gamma incomplète) avec
A = ^ ( H U ? x - l W t - | > ) . &.d +ff<H%- rm
Chap i t r e I I I
C A L C U L N U M E R I Q U E E T P R O G R A M M A T I O N
- 51 -
III - CALCUL NUMERIQUE ET PROGRAMMATION -
III. 1. ǧlçul_numériçiue :
Nous avons vu jusqu'ici que quelle que soit la méthode d'estimation
utilisée, les expressions obtenues sont soit du type transcendant, soit de
forme trop compliquée pour être calculées par des méthodes analytiques.
Par conséquent, il nous faudra faire appel à des méthodes numériques.
Les problèmes que nous avons rencontrés sont les suivants :
a) Recherche de zéro d'une fonction ou résolution de l'équation f(x) * 0
b) Minimisation ou maximisation d'une fonction
c) Calcul des intégrales du type est une fonction
transcendante, non définie au voisinage de la valeur nulle du paramè
tre (X
III.1.1. Recherche de zéro d'une fonction.
Dans la méthode des moments, l'estimation de la valeur des para
mètres p eCU nous a conduit en définitive â une seule équation
à une inconnue :
$ (jX) = 0 r ^ (cf. II.2.4.15)
avec U = + CjU)
Or» nous savons que si l'équation f(x) = 0 peut se mettre sous
la forme x = g(x), sa ou ses racines peuvent être déterminées avec
précision par des techniques itératives.
La procédure générale d'itération consiste à partir d'une estimation
initiale xt de la racine x 0 et de calculer ensuite les approxima
tions successives x ?, x., ... x. - par la formule itérative ;
x i + , - g ( X i ) .
- 52 -
Il existe plusieurs méthodes de résolution de l'équation f(x) • 0
qui peuvent être groupées en deux classes :
a) celle dont la formule itérative ne nécessite que l'évaluation
de la fonction en un certain nombre de points : ce sont les
méthodes d'interpolation polynomiale;
b) celle dont la formule itérative exige l'évaluation de l'en
semble de la fonction f(x) et de ses dérivées premieres f'(x)
(les méthodes qui utilisent les dérivées d'ordre supérieur
à f'(x) sont relativement peu communes en pratique) : ce
sont les méthodes du gradient.
Le tableau III. 1. nous donne un aperçu général sur un certain
nombre de méthodes itératives de résolution de l'équation f(x) - 0.
REMARQUE ï
Le problème de recherche de zéro de la fonction f(x) ou la
résolution de l'équation f(x) * 0 est équivalent au problème de
minimisation de la fonction [f(x)]2 et par conséquent il peut
être résolu par les techniques de l'optimisation exposées au
Interpretatùm ga'omcWfoiMt J« I iteration sc^ 4_ 4s ÇjOscO
TABLEAU III.1. Descripti
d'une Ton
Notations : " avantages
on sommaire
ccion ou de
de quelques méthodes de recherche de zéro
résolution de l'équation f(x) » 0.
** inconvénients racine de f(x)
Méthodes Principe Données
de départ Formule itérative
Interprétation
Géométrique Commentaires
Méthode de la
Corde
(ou régula falsi)
On cherche un intervalle
[TC L,X„] dans lequel f(x)
change de signe et on uti
lise l'interpolation liné
aire pour trouver les appro-
ximations successives de x
X L " X R
avec
f(x L)f(x R)
< 0
x L t U R J - x R f ( x L )
*M f(x R) - f(x L)
Si £(x L).f(x M) < 0 rem
placer x R par x^j.
Si fOtj^.f(XJJ) > 0 rem
placer XT. par X M .
; * Simple, con
vergence sure
** Convergence
lente
*« deux données
de départ
Méthode de la
Corde
(ou régula falsi)
On cherche un intervalle
[TC L,X„] dans lequel f(x)
change de signe et on uti
lise l'interpolation liné
aire pour trouver les appro-
ximations successives de x
X L " X R
avec
f(x L)f(x R)
< 0
x L t U R J - x R f ( x L )
*M f(x R) - f(x L)
Si £(x L).f(x M) < 0 rem
placer x R par x^j.
Si fOtj^.f(XJJ) > 0 rem
placer XT. par X M .
* Simple, con
vergence sure
** Convergence
lente
*« deux données
de départ
Méthode de
bissection
successive
On produit une séquence
d'intervalles I ,I,,I_..., o l l
chacun d'eux est égal à
la moitié de son prédéces
seur et qui doit contenir
au moins 1 racine de f(x)
\ e t X R
avec
f(x L)f(x R)
< 0
X » = 2
* Simple, convergence sûre
» Précision bien
définie ** Convergence
lente *« deux données
de départ
Méthode de
Nawton-Raphson
f(x) approximée par une
tangente au point x.,
(développement \ inéaire
de Taylor de f(x))
X 0
f(x^
f (x.)
y Ji \ ,
* Convergence
quadratique
* une donnée
de départ
«*-. divergence passible
Méthode de
Nawton-Raphson
f(x) approximée par une
tangente au point x.,
(développement \ inéaire
de Taylor de f(x))
X 0
f(x^
f (x.)
/ X x *o X
* Convergence
quadratique
* une donnée
de départ
«*-. divergence passible
Méthode de
Bailey
f(x) approximée par une
parabole passant par le
point (xj,f(x.)) avec la
pente et la courbure éga
les 3 celles de f(x)
(développement quadratique
de Taylor de f(x))
X
o
x. , = x.— i+d î
r f ( x i > -I
* Convergence cubique
• Une donnée de
départ
** divergence possible
•* plus de calcul par itération que Newton
Méthode de
Bailey
f(x) approximée par une
parabole passant par le
point (xj,f(x.)) avec la
pente et la courbure éga
les 3 celles de f(x)
(développement quadratique
de Taylor de f(x))
X
o
fCx^f'Cx,)
* Convergence cubique
• Une donnée de
départ
** divergence possible
•* plus de calcul par itération que Newton
Méthode de
Bailey
f(x) approximée par une
parabole passant par le
point (xj,f(x.)) avec la
pente et la courbure éga
les 3 celles de f(x)
(développement quadratique
de Taylor de f(x))
X
o
£ C V 2fVxi) J
* Convergence cubique
• Une donnée de
départ
** divergence possible
•* plus de calcul par itération que Newton
- 54 -
III .1.2. îigisg£i2S.2H.giB^P^-^igS-4l^ne„.£2S££i°S :
La méthode- d'estimation du paramètre 6 dont dépend la loi
de probabilité P(x.,&') par le maximum de vraisemblance consiste,
comme nous avons vu au paragraphe ( 11.3,1. ) à chercher les va
leurs de ces paramètres qui maximisent le fonction de vraisemblance
I ( -X. §c*ï) o u d e B o n l°Ê a ri t n n i e S. • loa L_ (° u encore, ce qui
revient au même, celles qui minimisent la fonction _i_ ou - £ ). i_
Ce problème de recherche du maximum ou du minimum d'une
fonction peut être résolu par l'une des techniques de l'optimisa
tion que nous allons exposer brièvement dans ce qui va suivre,
en nous limitant aux seules méthodes numériques et ceci pour les
raisons suivantes :
a) la forme transcendante et compliquée de la fonction I °u i-
( cf.1.3.2) ne se prête pas facilement aux techniques analytiques.
b) l'application des méthodes numériques nous permettra de
résoudre le problème par programme de calcul sur ordinateur. Ca
qui constitue un grand avantage.
Nous rappelons que, contrairement aux méthodes d'optimisation
analytiques qui peuvent définir tous les points correspondant aux
optima (maxima ou minima), les méthodes d'optimisation numériques
ne sont que des techniques de recherche locale et c'est là leur prin
cipal inconvénient.
Toutes les méthodes numériques d'optimisation, à l'exception
des méthodes d'enumeration et des méthodes d'exploration au hasard,
ont en commum certains caractères. Ces méthodes itératives exigent
que l'on définisse un point initial x et que l'on progresse en en
gendrant une suite de points x., i - 1, 2, ... n qui représentent
- 55 -
des améliorations successives de la solution approximative de sorte
que :
Il est commode d'étudier les techniques itératives à l'aide
de la relation :
x U l - oc. + h £d. (III.2.I.1)
où d. est un vecteur à n dimensions et h. une distance variable de 3. 1
déplacement sur son support, h. sera positif si le choix de d- est
bon. La recherche d'une direction convenable pour d. peut nécessiter
plusieurs calculs de la fonction f. Une fois d. choisi, f peut être
calculé en un ou plusieurs points le long de cette direction et l'on
déduit une valeur convenable pour h.. IR4.4J
Suivant leur nature» les techniques itératives peuvent se
classer en deux catégories :
a) les méthodes d'exploration»
b) les méthodes du gradient
- Méthode^d^exgloration^direçte :
Les méthodes d'exploration directe ne nécessitent pas l'évalua
tion de dérivées partielles de la fonction mais reposent uniquement
sur les valeurs de la fonction-objectif, auxquelles s'ajoute l'infor
mation acquise au cours des itérations antérieures.
- Mgthode_du_gradient :
Ces méthodes font appel aux dérivées partielles de la fonction
objectif f par rapport aux variables indépendantes, aussi bien qu'aux
valeurs de la fonction elle-même et â l'information acquise au cours
des itérations antérieures pour choisir le vecteur d. dans la relation
(III.2.1.1).
- 56 -
La description sommaire des différentes méthodes numériques
d'optimisation est donnée par les tableaux III.3. et III.4.
Le tableau III.2 présente 1*organisation générale de l'optimi
sation numérique. [cf.R4.;f]
Commentaire :
D'après les essais numériques du Fletcher & Reeves et-Box, les
méthodes du gradient semblent converger plus rapidement que les mé
thodes d'exploration directe pourvu que le nombre d'easais exigés
pour déterminer le gradient en un point ne soit pas trop excessif.
En particulier, les méthodes à convergence quadratique sont des
bonnes méthodes d'optimisation. Cependant la meilleure méthode aérait
celle de Davidon. [cf.R4.5l
- 57 -
TABLEAU I I I . 2 . ORGANISATION GENERALE DE L'OPTIMISATION NUMERIQUE
M o d s u de ta boitt hofre.
1 " données CxbaWmgileife* «e chofx J «'crieWe
£u»?w<xlion =ic ta. fonolfcn £ ,vcUu«t ior \ oit» o l e r i o e ' M
4 ' E-x|aPora.hon d*r*ofe.
J_
*\iec c o n t r a i n t e mWeOnla
Tvoiller eoi^mt -sani eontvoinii
*V e W r o f t r les [imite» ^
T»*i>niPormev °«* f o n e V t o n . o b j e d i
o u ?c9 va,YiaA>\t£ aï brail*:-
c o m m e s a n s c o n t r a i n t e
\ g r a d i e n t s
VoïuuijMt's
T W « e W a n _ j W e . P^a fixa
M.étfto4«» g ' oiec^rt'rciifron
en d i rec t ion
v M.'iW* «,J
eWli*
Liriïarrïalion foc^Bv
SM I t ' >Ufiod. cil ' 1
monle't, f* bfu* |
exe.^ \
gtwn^ralio
I ' I I I I
ÏZpartfy
I I
Propret mnmhon Rnta(« 1
* * * -r c o n v e r g e n c e
I l Optimwm \o«o»f y
TABLEAU I I I . 3 . DIFFERENTES METHODES D'EXPLORATION DIRECTE
M é t K o d c s a e n u m e r a t i o n
R e c h e r c h e d o I c m p t a c c m e n b a b b r o x l m a l i P
d u m i n i m u m ( x , , = t t ) . " i t n ) s u p b o s c
S i t u a ' « P inte 'neur C|Œ t" i r é g i o n d é f i n i e b a n
< où . * i e t d ; s o n t c o n n u e ")
- a n c o t l c u t a n t les tfttP*w*s d u Pc* fonct ion,
a u x n o e u d s d * « n r a ' s a o ï u a f f o l a n t c e t t e
ra'gloo J r f f îma b«*r Ci > . L a pfws f » t î f e v a r e u r
t r o u v é e « s i c o n s t d e ' r e œ c o m m e Pc m i n i m e " )
e n t t r c & e ' .
M d t f i o q o s w i l l i s e i n t u n « n s e m b r e d e
v e c t e u r * p o u r de f tn l r * (es d i r û c t l o n s d o n s
Pesat4*fPes Se p o u r s u i t P ' e x f e P o r o h o n .
( r c U t . e i s e Ç Q iV d « n s c e s d i r e c t i o n * « I " i c i
do'mturcVio s u i v i e doms [a. m e n a r e n e e s t
d e ' t a r m i n e é e n f o n c W o n d e » r a ' s u P t q t *
o b t e n u e .
-'-i^^P L a voPcar d * f a jonetfon ast
coifcuf(?4 « n dec jo in ts cftonis
a w ftascti-d à V inlaViow d o f «
n rg fo i ) dd j fn fa f a r <1 ) . C o *
bo<nt? Sont choisis a n prenant
f) n o m b r e s <*M n w a r o l b i ,
Pi. , • • • fcn "^cve 's dans d w
tobPet axtsYontes ow e n g s r e W *
b a r Un o r d i n a t e u r .
M « t t i o i t {©tfanV o^x i l à une ftwlte «Portiers bosit(Ç« j ft» n a f r t » r « ola S" ïbanocc i «U'Joiij
HéHioda d« H o o k « , 3aava«__
C e s m c ' l S o d f f s o b è r e n t a n
c o n s i d é r a n t Pes vapeur» b n s w |
b a r & f o n c t i o n - ob j«c t f£ a u x
s o m m a i s d ' u n e f i g u r e
q e o f T i a t f i Q u e s f t u a a d a n s
P ' t t i b o i t Œ d e s v a W a b f e s
i n d é p e n d a n t » .
. O n w f w f t f«> v a f i M t l jpt-ffes
b a r t f tCaftdton-oiLtehf «n f l 4 1 fsoid* muVwatfonffiV «^vtfdûUnfr de»»* 1 a ) m « « çU# n v a r t * U f c j inaVt>*ndanV«« C 5wn«i«r« <Pun
Mtlnade d M Î t ï h j p t u ^ l * fefdinrlftacl
Vart ion PQ pf*tj efôeionte d « t o u f a t f i * i * d i n i q u « j • t f q u t n h i f f t t . çffV « t f u t è
abtfrat ionj d c feaj» .
- t*ban««n
Aca^feVatrof) «n distance
. Exb iora 'non focaPt
dons Pai d i rec t ions
barokffttis aux axos
d e * coordonna c * au<
botntf t i t MA'S À una
distança donnae O
J n boint d<* base .
Acceleration i n êWanct | ol" «n dfrqcV(on)
- fa i t abbcl â un. $yst«nc
d e n vecteurs Mm'tainu
<J« dlradton. ' 'nuhwnV t -
a r f t o g s n a T t i . 2 lk
rassainbEc <S Pu flltt*)«4*
de P «n J« 1 v«dw- yr«_ , dans f t ! «IfrorHonjqtonJoU
A«e^ftVat ion «n diroeth»)
_ b a j « i su r it coneo|»i-
d« lorw<jrg«nea cfMQamilivuB
bowr drft«rm>'nOr Mntginlt i
d« directions mn^wefptnioii
conjwsuccs
.OnnlrRiM, un cn»mbfe d * H d iwc tewdf l v»dour» uniValras mulHtfTtmant o<4f|o3onciMx . tore^u'mie OX^Porahon fmtfcifra ci B W accombf io f< POTI> J o efteacuna daa olfraciToi»|
jal» rac.Çl«rehe jP'dtwba , corracbondanht 4f^ tnrorinv^ ^t on ôwcrmlncE d a t t o u t t n u sHbVortt b m r n i d i radnnfdu
TABLEAU I I I . 4 . D i f f é r e n t e s méthodes du g r a d i e n t .
M C T M Q D C S D U G R A D I C N T uttfisant fis ddrivaâj partwff«s da Pa£oncWuoÇj«clfP bow> cfoistr P<* dtraeWon exploratoire « i :
Mel^odeS^de l^ s_^»^<z bœn^c_cl«scanojcin^
.On ddtamina Pt vatfeur si-oidianV normalisa au bolnt courant: ,
di
[ÎOOT <z\ , en -f or s «ni ii3agtt d'une Congwcuf da-
doVarmma n; on obtient un nou^^au boint en oibbjian«nt <<* broea'dunz 3cfnffrotle d'i'WrctHon CO • On «-«fits cerfe. dofmqr-cfie avoc une fonceur d« bas constant J u s c ^ â c<t q u ' u n i irdmfron SMbprtfmonVatm nœ bormofra bfrts d'oWantr wne nowvafPe riol^clïon da i « Jonc^on. On dimtnwe Qiors- (e f»e(S ol- on myronA ?a b»-ocdolMMz oï b<*rhr o|n wiaili*ui- |?olHr obtenu *
Ma'tfiode de
Mdtf iod* clc New/l'on .
M^tt'lod*. boisœc sur le daVaPabbtfmanV de Iqy fo r j w s q M 1 d u s*ootioi at-dm [*>«*• Pc, fonchon-obJŒctïf j C ^ * , . . . * : „ ) Jïrtra oi« vofstnaga dw m i n i m e
= P c x * ) - ' * " tM'ibii&^y, +i « D C i - g-
maMta d'aie'mcnVc
vccVaur gradlanV cQicuit.' <*v
i=<
^"-"Hp,**
Doivtdon
-fermwPc <U bam d* ?'rt^rahon. ; " ^ i + i = ^ j - ^ H " ^ ig.,' • j= vadewv gradient COiïeuPe' AW bolnt •sci i j ; = { - ^bbf axfm oiban «lai* tnaW-fcc (nvo»"Sa d i * drfnv«<* sacowdaj Ç|» » b*J « toonrcoM.fr vai-s ?t minimum d°tny Vo, dfr£>G>l*r> a<yïoroVon^c
r 0 0
Intégrales I n , e t ' [togï] Aï III. 1.3. Calcul des Intëgralesip, e t1 [lo%l] Al avec n-1, 2 et 3
Lee intégrales I interviennent dans le calcul des expres
sions des biais et variances asymptotiques (cf. Tableaux II.3
et II.4).
Nous avons constaté qu'une petite erreur sur la valeur de
ces intégrales suffit à fausser complètement les résultats. Par
conséquent, il est nécessaire d'évaluer ces intégrales avec préci
sion. Pour ce faire, nous avons comparé différentes méthodes d'inté
gration numérique en prenant comme intégrale test l'intégrale
j _ G' t r iofï dt dont l'intégrant est identique à l'in
tégrant de I.. La valeur de l'intégrale J peut être connue avec
précision â partir des tables [R 4.8].
En effet, noue avons :
n-p)= f e l t r 1 di
:>ù
J _ Ci tr 1 p 0 ?t dt = rff).4r|,>
fi [R4.8 ]
(fonction Gamma)
(fonction Digamma)
Pour P - •=• par exemple, nous avons d'après les tables de DAVIS
r * S^ 4> " -1.96351
Jcp.i) ' I~(i.1 Y ( i) - - 3.A8023 It. a 1
- 6) -
^ thodes^^in^égra tion_u t n i s e e s .
Nous ut i l isons les méthodes d' intégration numérique suivantes :
- Méthode de Simpson
- Méthode de Gauss-Lobatto
- Méthode de Gauss-Legendre
- Méthode de Gauss-Laguerre.
Le tableau III.5 résume l'ensemble de ces différentes méthodes
avec leur principe et les formules d'intégration correspondantes.
Conditions de calcul.
Les calculs se font avec les deux formes équivalentes de
l'intégrale test :
a) sans changement de variable ;
j „ (V if'1 e»jt «it Jo
b) avec changement de variable t = A. I
* f -1
avec
fi L'examen des résultats numériques obtenus dans le tableau III.6
nous permet de tirer les conclusions suivantes *
a) la deuxième forme de l'intégrale test
J = - I G * kg-"- JU J 0 **f est la meilleure.
- 62 -
b) Les trois méthodes d'intégration numérique : Simpson,
Gauss-Lobattc et Gauss-Legendre donnent des résultats sensiblement
égaux pour l'intégrale J considérée. _
Par conséquent, dans la suite de nos calculs„ nous rempla
cerons les intégrales I par leurs équivalentes I définies par :
In - C - l f [ e U [ E o g M j du
en utilisant l'une des 3 méthodes indiquées précédemment.
III.2. P£og§5™Jiti,on :
Tous les calculs numériques ainsi que la simulation ont été effectués
par programmes en langage FORTRAN IV sur l'ordinateur IBM. 360-91.
Les organigrammes correspondants sont représentés par les figures
III.1, III.2 et III.3.
TABLEAU III.5. DESCRIPTION SOMMAIRE DE QUELQUES METHODES D'INTEGRATION NUMERIQUE.
Méthodes
d ' i n t é g r a t i o n Pr incipe Formule d ' i n t é g r a t i o n Référence
Méthode de
Simpson
à 3 points
Approximation an f(x) par un polynôme
P„(x) du 2ème dnpré dans chaque sous-
i n t e r v a l l e ( x 2 i , > : _ . + 2 ) ( i - 0 , 1 , 2 ) ,
h = Pas = x . , - x .
N *> nombre e n t i e r pa i r
[R4.2]
Méthode de
Gauss-Lobatto
fLo«U = -î [feo+f-oj
+ Î I W j ! C , C j ' + E :
x. =» ( j -1) iëme zéro de P ' n - l ( x )
P (x) = polynôme de Legendre
[R4.7]
Méthode de
Gauss-Lobatto
fLo«U = -î [feo+f-oj
+ Î I W j ! C , C j ' + E :
x. =» ( j -1) iëme zéro de P ' n - l ( x )
P (x) = polynôme de Legendre
[R4.7]
Méthode de
Gauss-Legendre
Détermination d 'un ensemble de constan
tes A. t e l l e s que l ' e r r e u r
quand f + (x ) es t un polynôme de degré
maximum 2n+l
L ' i n t e r v a l l e | a , b | e s t ramené à J 0 , l |
° =o
x . * zéros des polynômes de Legendre
[R4.7]
Méthode de
Gauss-Laguerre
x k ° zeros des polynômes de Laguerre
L.£SC) = C-O ^ " + . • .
[R4. 6j
TABLEAU 111.6 . COMPARAISON ENTRE LES DIFFERENTES METHODES D'INTEGRATION NUMERIQUE POUR LE CALCUL DES INTEGRALES I .
Intégrale test :
Notations utilisées : a - borne inférieure de l'intégrale Pre
J- j l l jp i dt -rciWci) b =• borne supérieure de l'intégrale
Précision demandée
Méthodes
d'Intégration
Valeur de l'Intégrale Données
Valeur de l'Intégrale équivaLepte Données
Méthode de Simpson
â 3 points
0.0 * La précision demandée n'a pas été atteinte
a = 10"9
b - 100 Pre - 1 * Pas - O.I
- 3.47880
a - 0.005 b - 10 9
Pre - 0.01 Pas - 0.1
Méthode de
Gauss-Lobatto
- 3.79299
a - 10"9
b - 100 Pre - 1 • Pas - 0.1
- 3.47879
a - 0.005 b - 10 9
Pre - 0;0I Pas - 0.1
Méthode de
Gauss-Legendre - 3.38520
a - 10-9
b - 100 Pre » 0.01 * Pas - 0.1
- 3.47879
a - 0.005 b - 10 9
Pre - 0.01 Pas - 0.1
Méthode de
Gauss-Laguerre - 2.24143
* C'est la précision maximale obtenue avec cette forme de l'intégrale J.
Tableau III.7 - Comparaison entre la méthode de Newton-Raphson et la méthode d'exploration directe utilisées pour résoudre l'équation des moments <KM)= 0*
Méthodes de
Résolution
Hr Paramètre \> ° 2p
Estimation
Paramètre \i
Estimation Biais
Nombre
d'itérations
Méthode de
Newton-Raphson 0.044728 0.066379 I.040899 0.148770
Méthode d'explora
tion directe 0.007027
Méthode de Newton-Raphson : - Recherche de zéro de la fonction. <f>(y)
Méthode d'exploration directe: - Recherche du minimum de la fonction L^(u)']2
-F- P a.ec *(v) = mi - u (l + ffj^flj) (Cf. II.2.4.15)
Simula t ion avec N = 300 e t a = 0.050 miu
^ • L ' e s t i m a t i o n de v e s t d é d u i t e de c e l l e de \i d ' a p r è s l a r e l a t i o n : ni2-miM-a(n»i~u)
* tOXAU f l«I 'F_«î 1 PROGRAMME PRINCIPAL
- 67 -
ORGANIGRAMME DU SOUS-PROGRAMME D'ESTIMATION PAR LA METHODE
DU MAXIMUM DE VRAISEMBLANCE
E s t i m a t i o n «e» b a i a m i T u » v ef M
* Donnais tsCÎtnoitton «asl
ba.Wimâ'KttS bar L__ roofierclia SIM
CofcuMcs
fonction Qqoin1« Incombftte * J *
t <5afcwP d «
lfî,.E^I
i
i
i
Soua - progroimmca
S.P &MMD1
C a f c u f do» var iab les aHsu'KcKrai! <tf / S , . . .
Cafwf d,. montant &^n<nt«|
CaPcvi? d<« Sanat ions 9C
tnt<fgrc*&£ .
GaFeuf des t r ^ s eV vcirtqnees
bsyrnbtohqwts de V al" de J* .
RacKorcFio. <Ju , minimum d* vw& fonction p a r
d' c.Kbf«r^ho»>
S . P - D O D G A 1
Xn^a'drctWon nMm*rfoj*(* b q r
iMdtfiod* dj, (StaMfts-Le gentil
ORGANIGRAMME DU SOUS-PROGRAMME D'ESTIMATION PAR LA METHODE DES MOMENTS
/ D o n n é e s
d e c U b o r t .
Resolut ion d e EVc^Mahon d e s m o m e n t a
I
« 1 I ; N e w t o n - R a p h a o n
DMK)£I
U g g o j * K « ' " l p < J « d ' u c ^ f o u j l o n , E x p l o r a t i o n d i r e c t e
D M M D 3
" • / * ' ' inJêHn'M^1
ecfcJ boir ra
tnan*<mti S d< ftttt • t , _
QoiFeuPdts fonctions X " ,
* \ V, V,
<3oiP«*iP oUo OU > MV«'M O(L*
fbnoirons X* ,X
4*, *•....
So-effveltnfe.
E-f/K ^fif
ajumbtofa aux? d» V «* dl « Relurrj
-CND1
S i m p s o n
DQDS31
F i g . I I I . 3
Chapitre IV
S I M U L A T I O N
- 69 -
IV. SIMULATION
IV. 1. Test_des_p_rpgrainmes_.
Les formules des biais et variances précédentes ont été
établies pour les grandes valeurs de n<
Pour vérifier l'exactitude et le domaine de validité de
ces formules et pour tester les programmes d'estimation, nous
utilisons les méthodes de Monte Carlo. Le procédé consiste à
réaliser les N-échantillons régis par la loi en )C2 de paramètres
p et u connus, à tronquer ensuite ces N-tichantillons, â estimer
les valeurs de ces paramètres, à calculer les biais et variances
empiriques de ces estimations et enfin a les comparer avec les
résultats théoriques.
Las résultats sont présentés dans les figures IV.I, IV,2,....
IV.g., où nous avons porté en abscisses, soit la taille N de
l'échantillon, soit le seuil I* .
L'examen de ces figures nous montre que :
1° - les expressions des biais et variances asymptotiques
s'appliquent à partir de N = 100,
2° - a) le biais de v est toujours positif. Il est constant
pour les très faibles valeurs du seuil rs(<IO"5)
puis augmente avec Ts et enfin devient très grand
lorsque T a dépasse la valeur 1- Ce qui montre qu'on
a intérêt à se limiter aux faibles valeurs du seuil.
b) le biais de <T> peut être négatif ou positif suivant
la valeur du seuil T3. 11 en résulte donc qu'il est
est possible de l'annuler en choisissant convenablement
la valeur de Ts.
- 70 -
3° - Var g (Méth. Max. Vrais.) < Var e(Méth. Moments)
(où 9 désigne indifféremment y ou <T>)
Autrement dit l'estimateur par le maximum de
vraisemblance est plus efficace que l'estimateur
moments.
IV. 2. Cour_be _théariçiues_.
Les courbes théoriques N.Var(v) , N.Varfr$ ,N.Biais(y),
N.Eiais(<I^ en fonction du seuil r pour différentes valeurs
de v C <r> étant fixé et égal à 1 ) sont représentées par
les figures IV.1 , IV.2 , IV.3 ,et IV.4
METHODE DU M A X I M U M DE V R A I S E M B L A N C E
courbes théoriques
N.var V = f ( Q )
et N . v a r [ ^ = f ( Q )
pour d i f f é r e n t e s valeurs de V
\V i:; - - ; • ... .. ........... —
A : : : : i :
! ; • ! ! ! : ; : • : ! • :
. . : . : • . . • . ; ;
3 2
1000
ï r - : poiir: < : ! t
i ™ J : : i : - ; : : :~ i . : :
-ftèï ' : : ] T • • - - • -
.. • U . -:. - • - I : - ' . , . - • : . ::- J/ïM ._:::.: ... „J : . r-
• ' -TR 1" "HT ...,.,, — ~": —----: f/j S> l l .
5— - i - -• ' -TR 1" "HT :///:^±: 5— - i - -100
• ' -TR 1" "HT :: i " . ; W> v-f 5— - i - -
; i ; .::: ~\:l:v.^ ~-r.V:~ :•:: •^A v. / , . • • ! : , = -:-: J 3 ?
10
i :
• -TV] " •
' j ~ :_.:r:.j!;r
ys. S -~~ •- —---.? .^II
: i < i i - H c 1i! i : ! .... i S - . . : s r .: i... S
" - • r r r r i ~? •^£#-~ = = ? --
;. J : : • : ---i-i-U-j r .: i... S
" - • r r r r i ~? --
;. J : : • :
._. .... 1 ' " >""~
" - • r r r r i ~?
! : : i
--;. J
: : • :
._. .... ' '—' r~-;-i: .===*= •--- : ^ r r ^ : : :
_ i - i . „
':.-?:::: ~ ; r ; ; : — • 4 - H r - : - : : i : :z • - ; r d - -':.-?:::: ~ ; r ; ; : — • 4 - H r - : - : : i : :z . . - , - * , , 0.1
• - ' ; - : : :
| M
r - : - : : i : :z : ' . . j - , - * , ,
i o _ 5 : i i 6 - 4 3 i o _ 3 3 i o - 2 3 51b"13 5 i 3 J I O
Flg IV1. r. N va u£-i f '"] :T
.... ---:-"- : : : : : • : . .::::::; ;" .. . :.;... "Tri"
- • : - •
-r.A,y pour '—* b-T>- , : ; ; • - .-Lï.i ._.::!.. 3
1000
-r.A,y -
pour '—* H ^ — - • • 4
• • - . • ; • — . . .... — - r - r ;
..:.::.::"r
i ; : : : i i : : • : : : i : • • ! : ! --il? t o 5 ! : !
3
100
:.:.::::::::: T T "T!ï
. .... ;::::ZE: ......:. -11:::.::: .: .
5-;-r-" - -: ' :
: ; : . .: ! : ; : : .. • i : / iH * " ' ::! 3
10
• ••
, r r . ....,. M'-"
.'y/
# fq±;
: """ ~ * y ~ _ j - - ^ i . ; : ..:--: ~-- > T J J : ~ —:jr\/i r.: r-htr:: , - r r i , " ::--:-
3 - - - - - -,-r:4~-~-
#V:
— .._... 1 = 1 = =±= L...,:.J.H #V:
— .._...
3 J 1 Flg IV 2
MO r,
METHODE DU MAXIMUM DE VRAISEMBLANCE courbes théoriques
N.biais i?= f ( f ^ )
pour dif férentes valeurs de V
1000
100
10
0.1
T];Î :-: ::J-- rii: • i - ^ Ê ; ^ ; V :^m -F: F=£i: Tri]-;; • :]r -— - - i ' 7 - - - - r - - • . T T - —77 ~ *- j rrr -f-4-rh-r r -.-•• —f-h „ - r r --T |
.... . j - i - - • - I I " "CI ..; • •
; • • : l i iii Fi : ii; ..::i|j ,'-' :::ili: i : : " F T iii ^ T ; : : : •
-4-, i i_ :"- - il-FF F T ~
_-_!£! '~^±
= 4 - :
• • i
r F F_~j£ -. . i: , i ' F
N"bl • l :
lis P" L~- . . "; l i
rrr .... . ::. , i ' F N"bl
• l :
lis P" r n:: .:! ! ! F i • \ i
:! ! [':':'•'• m =" • --Fjj:::: ^ p r i Fi: : F T "
: 0 . . :;. r!:!:
-:-: ...pu m =" 1 H - 7 - T - : | — r r TTT =12.
: 0 . ' - - - — J - - -r- — r - i -
-:-: l - 1 ™ -\-r.~ • ! - : ; -. . ; . j I ' ! 1- • i -:-: l - 1 ™ -\-r.~
• ! • ! . • • : . '• :- ! • j : l .~f ~t~ i: • • • ; : l i
_.uii .FFF :F.i ; :ï:::iJ :::: !/;:, •,'•'- : i : - . : = - • :
i I : .__
i i :~~
r n—: -rfr- ^ y = K — r —
i I : .__
i i :~~ -1 • ! - i i
K • i • > ... i I :
.__ i i
:~~ • ! i i • ; • ! \ \ . I ! '
• ; : j - j ^ ï - F F Mu---j L!!? .:~ Fi: :Fii FF • ; : j - j ^ ï - F F
—-ï " " L!!? • ™ - j - Fi: :Fii FF
"îilt f _-|4
t
H : — [— — -7 7 ~ - • |
i*\ - - . „ - - t r : ; -
"îilt f _-|4
t • • ^ • : ,.. - • , i*\ |Ar: 1" "îilt f
_-|4 t
r / ^ • i i :
• • ! ! • .
.:.. . i : Jiiii : ™ i . ; : : . ~ 4 il • : . : I L -
: F: ; . . : ! • .-..i i :
^m . • - j - l - r - : : - T T - —-f-H ~* 4 -++ • : ? ; : ~- — r — F - : • — r - - : ^m .7/V Tj£ "t^S-' v-\ 4-' i
ii ^m .7/V Tj£ *r\\ ! ! • Mi , i : : : ..: ii F
:ui4,. Jv - r T l i zup r i i ~ ™ E ~ : • • - ; ' . i
:3m -44-|V| = 1 . - -y - r _^_H. I : ! -77- r 1 - — r — H :3m -44-|V| . . I - : i -
: ; 1 >; - • :3m -44-• ! ! ! : i : : ! ! !
- : i -: ; 1 >;
0 _ S i »K j - 4 3 -1C , - 3 3
F r4
ig
• 3
IV, 1C
3 >_i 3 1 3 1 1 0 3
T n 2 j :
METHODE DU MAXIMUM DE VRAISEMBLANCE courbes théoriques
N. biais £ = f( (7)
pour di f férentes valeurs de y
: 'î
-i
-!ip:~ - - - • • ---— "":"ii' ;-::ii"!
. — : . i _ :
: 'î
-i
-!ip:~ ._ - .... "":"ii' ;-::ii"! "•"! n -
..:Hi: -:: :::: :| r. :::: : . .J : i : z : : " . ^ : : j i i i ..:;.;.: ::: - : : : 4 f l : i ::::::-:::
ft N
- - i t'f::~~ r - - - :~t- -'r-- 7 - : • ;
— — i
ft N
• I . -.
^ r • i ••
- 7 - : • ; — i 10 4 ft N
bii Ms | ^ r " ' : " " : • " ' - 7 - : • ; —
i :-; i ::i : !" !::- :t=flll|M: r-Ti-r
1 ; ™ ~ : : ; - :;:: i I;
J - R 7
M.
:.tn: D o u r ^ 1 t r-T-T
r— ... ] ._:. - - • : - R 7
M.
:.tn: 11 ^ 1 il" r— J < • •
10 3
- R 7
M. : i - • l . l \ù ; ; : i l ! ; . ; : :
r—
1 : : M =•
: ; • ! ; ! : • : ! ! - : ; ; ; t i: iiii •m\. : : • :
- ; • : ! ! : : •• : : ! : i i J i ; i ; - f : i i :
::: : - . , , - • • : • - ••;•:• •••-•• T;-i r - ..._... -i— -TF "i
1 " " T T w. r . ' i- -i— m 2 -TF "i ! ill: :•. i : : : • : . -
" T T w. i ! l :•; : i
"--! : i - : :::; - ! ! H ;-;::: H;?H!3!!!; v:in=!?=n! i l : : : ; : ; iii: (sir - n:; 6 ::•; • • - : • - - ; - . :-..
T ; T:" . :., : \" f t ;" • = r - : — " T "T —
3 —i-f- .... . j . : ;;.... T ; T:" 3L& L* • • • 1
10 !;!.nN:- 1 : i : • : ; M: T ; T:" 3L& '/;.; : : M i : j ; ::, . . | :: i: iiii •:; i i ;;:: !:..,-!:!
k . : ; ; i ; :.;: , : ; -5
''"!:! : ~ir i. ; m
.... f ==- • — - • ; • - : -
3
''"!:! : ~ir i. ; m _...:. - H -f în v\
==-i : 1 ''"!:!
: ~ir i. ; m _...:. - H -f VU !::! •!:? i : • i :
5 *P °£i-i. :::: ^ • - •~ i . A., 1 Kj: i i i l i i i . i i i i . . . i 1 _^
3 ,^> ... , - • -
;S ^ $f 1 1 T ~ J ;-' :
— r — 10" • i 1.:=l j JJ-î"; "?• : ;S ^ $f 1 P !!!! " ' i • ::.; • • i l ! - .
5 - r j n M T % T - p ^
• i = V ^ -~ i - i i i - ^ -7TT - i ^ i j - . : • :
1 <
• * F
* ~ V --— ; .... - • • _ i - i _ rS ....:: 10"' • *
F * ~
.::! : : •:;: .. ; i::: . .j.+T •:•; • : : : i : : • • .-.; i
Œ'j Ui; '. :!:: ::.L- : r • • : : ^ ûii:î : i • J. :::; ••; ;; ;H :::: :;:; ; i :
, T V ~r.~r~ --rrrr — ^r1 - n . _ „ - — i — . . . . ! I.I r-.r. - T ^ - -
10 J
$ 01 . ";: . .. ., ... . . .:.. ... . [ . j . • 1 • j - --10 J
$ 01 : 2 . Hl!l !!!! . : • ; : ; • ! ! i ! : :l :|( !i!i .:::|!l:i m :;::!J! --
== î=— : S -^pF- == —t-f- ~ ""'H-j 3= i i u
" :_E Tjr: — ~ -rr-rrrr • : : • [ . ' . TH: —-h-* : — n r -rft -TTTT-pj ? m ' . • • i ; ' • ; X- 'ill .... ...; . . .... • ' V J*" ? m 10"' il. :;:: y.:: •' . • : ; : . : ! « < -HI- .:::. M; i j ; | E :;..;. : j •
10"^ '10" 4 ' 10 - 3 3 5 10 _ : i 3 dO"1 3 s 1 ~^T Fig IV4
Courbes N.Var V = f I N ) N.Var -? —: : A pour différentes valeurs du seuil Ç : j '
\? 20. too 300 1000 Fig IV5
Notations I K i Méthode de» Moments (courbes en — } MV = Méthode du Maximum de Vraisemblance
(courbes en _ _ _ )
Courbes N.Var Q = f CN ) pour différentes valeurs du seuil f"
_l_LLl 1 _ 1 I I I I I I I 10 100 (1000
FiglV6 Notations
MM = Méthode des Moments (courbes en _ 1 M V = Méthode du Maximum de Vraisemblance
(courbes en - — )
- 76 -
IV 3. Effets_ex2érimentaux^
L'existence des effets expérimentaux a déjà été mentionnée
dans l'introduction. Nous allons considérer maintenant quelques
exemples pour en montrer l'importance.
1. Influence des erreurs aléatoires sur 1
Chaque valeur de loi est déterminée avec une certaine erreur
que nous allons supposer, dans ce paragraphe, aléatoire. La conséquence
d'une telle erreur sera faible lorsque v est petit. On peut illustrer
cela par un raisonnement sur la variance : si l'erreur est, par
exemple, de 5 Z, la variance de la distribution sera augmentée
de 2,5 10 - 3 et deviendra 1,0025 pour v - ]. C'est-à-dire que v
apparent sera diminué de 2,5 °/oo.
Le tableau IV.1 représente la variation de v obtenue en ap
pliquant les deux méthodes d'estimation (méthode du maximum de
vraisemblance et méthode des moments) pour une population de 300
résonances.
TABLEAU IV.1. Influence sur v d'une erreur aléatoire
sur r a pour 300 valeurs de T a
Cas considéré o.oopoi
S e 0.02
u i 1 0.1 0.5
Sans erreur aléatoire
« 0.99419
1.24222
• 1.04042
1.40573
> 1.24864
1:66491
• 1.55776
2.56580
Avec erreur aléatoire
* 0.97067 1.18457
* 0.99322 1.32456
* 1-18389 1.55677
* 1-2280& 2.18127
Notations : - Chiffres précédés d'une astërique • ; résultats trouvés par la méthode du maximum de vraisemblance.
- Chiffres sans astërique : résultats trouvés par la méthode des moments.
- 77 -
L'effet de cette erreur est donc faible, mais il tend à
diminuer v
exp
2- Influence d'une erreur systématique
Une telle erreur peut se manifester de diverses façons; nous
ne considérons ici que le cas où une moitié des valeurs est surestimée
de 20 "•
TABLEAU IV.2. Influence d'une erreur systématique de 2C %
sur T pour une population de 300 valeurs 1e T
Cas
considère 0.0000I
S e u
0.02
L 1
0.1 0.5
Sans erreur
aléatoire
« 0.99419
I.2A222
• 1.04042
l.40573
• 1.24864
1.66491
• 1.55776
2.56580
Avec erreur
aléatoire
« 0.98896
l.24359
• l.03696
!.40831
• 1.29765
1.69867
» 1.47611
2.46538
Nous remarquons que la diminution de la valeur de v est moin-s-
sensible que dans le cas précédent.
2 . Mélange de populations n'ayant pas exactement la même
valeur moyenne de Tn.
L'étude du mélange de 2 populations ayant à peu près la même
valeur moyenne de CLC. est très fréquente en pratique : il correspond
au cas du noyau de spin non nul qui, par interaction avec des neutrons s
{S. * 0) donne deux états de spin du noyau composé.
- 78 -
Les fonctions densité de ces deux états peuvent être légèrement
différentes, sans parler des effets dûs â des états portes pour la voie
d'entrée. Il en résulte que < a\ n > sera différente pour les deux
populations. En fait les conséquences de cet effet, d'origine nu
cléaire , seront exactement les mêmes que celles de l'effet expéri
mental considéré en 2, et se cumuleront éventuellement. L'ordre de
grandeur considéré précédemment - 20 Z - est plausible pour une va
riation locale de la fonction densité.
3. Influence d'une erreur systématique fonction de V — . . •-• — • .i . i • — — a
Il arrive assez fréquemment que les grandes ou les petites
valeurs de r a seront systématiquement surestimées ou sousestimées.
Nous ^étudierons pas cet effet qui peut jouer dans un sens ou dans
un autre. Par exemple» une surestimation des grandes valeurs de T
conduira à une surestimation de la variance, et donc à un v plus
petit - alors qu à l'inverse une sous estination des grandes valeurs
de r donnera un v plus grand.
4. Conséquence d'une renormalisation du mélange de plusieurs
populations.
Certains auteurs, en particulier Garrisson |RJ,4J, ont étudié
des mélanges de plusieurs populations qu'ils ont normalisé à la même
valeur moyenne. Ce faisant ils ont réduit la variance du mélange, et
donc augmenté v apparent.
Nous illustrons cet effet en traitant 600 valeurs de T , tirées a
au hasard ( I"]* - 1 ), et en renormalisant à f _1 l'ensemble du jeu
( n'est pas affecté par cette normalisation) puis 2 jeux (de 300 va
leurs chacun) puis 5, puis 20.
- 79 -
TABLEAU IV.3. Effet sur v dû à la normalisation de
populations différentes.
0.00001
S e u
0.02
i 1
0.1 0.5
1 groupe de 600 valeurs > 1.00432 1.08665
« 1.03120 1.14304
« 1.15744 1.23467
• 1.11515 1.34437
2 groupes de 300 valeurs « 1.00624 1.11059
> 1.03605 1.17990
• 1.20544 1.31179
• 0.90155 1.33012
" groupes de 120 valeurs • 1.01248 1.14001
< 1.07056 1.23046
« 1.31436 1.41337
* 1.01392 1.42689
20 groupes de 30 valeurs « 1.02491 1.17691
> 1.08261 1.27632
« 1.31824 1.46381
« 0.97307 1.43311
Remarque : Chaque ensemble de groupe comporte les mêmes 600 valeurs
de r Q mais renormalisées à 1 pour chaque groupe.
C h a p i t r e V
A P P L I C A T I O N A U X N O Y A U X R E E L S
- 80 -
v* e£ELICATION_AUX_NOYAyX_REELS.
V.I Choix des noyaux test.
D'une façon générale, les théories statistiques de la distribution
des espacements de niveaux ou des largeurs partielles réduites de
neutron T supposent :
a) - que la population des niveaux considérés est simple c'est-à-
dire que ces niveaux ont tous le même moment angulaire total
J et la même parité ir pour un même isotope Z de même nombre
de masse A. Autrement dit il n'y a pas de mélange de popula
tions.
b) - qu'il n'y a pas de structure intermédiaire dans l'intervalle
d'énergie considéré .
Il en résulte donc que les noyaux de A impair ne sont pas des
noyaux convenables pour fervir de test sur les distributions considé
rées. Les raisons sont les suivantes :
a) - Ces noyaux ont deux populations s indépendantes et mélangées
aléatoirement avec J = I + 1/2 ( où I désigne le spin du noyau
cible ).
b) - L'espacement moyen des niveaux tend â devenir trop petit.
Par conséquent pour tester correctement ces distributions, il est
important de choisir les noyaux test de A pair et tels que le nombre
de niveaux correspondant à une seule population soit aussi grand que
possible et qu'il n'existe pas d'erreurs dans les données expérimentales.
En se basant sur ces considérations, nous choisissons le Thorium 232
et l'Uranium 238, les deux noyaux pair-pair ( J-0 ) habituellement
utilisés pour tester les distributions statistiques déjà mentionnées
précédemment>
Le Tableau V.f. donne les résultats obtenus avec ces noyaux test
pour différentes valeurs du seuil Ts.
V. I. I. Histogramces^ expérimentaux
Les histogrammes représentés par les figures V.l, V.2,
V»3 et V.4 sont tracés d'après les données expérimentales des largeurs
neutroniques réduites V^ des références [R5.2], Q u . 5 ] , L?5.3] et
[R3.r] ou nous avons porté en abscisées /P~ et en ordonnées l'effectif
n des populations considérées.
s" "•u
! 2
000
2
J
i i i « i i i i i i - i—i . .1 1 1 . < 1 1
cb.
Fig V1
N. s»rn
-
-
1 1 L .. 1 1-1 1 1 1 1 1 1 l i i . 1 y i VTF <£. 0.04 0.06
p|gV2 0.08 0.1
- *"u
-
- x l
. I l l 1 1 1 1 1 1 1 t 1 1 1 1 • 1 1 I 1 •Jn 0.02 0.04 0.06 0.08 0.1 0.1Z 0.11
Fig V3
~* ^ ^ * " T h
-
.
1 1 1 1 1 1 I I I 1 1 1 i i i 1 i i
do. 0.02 0.0<i 0.06 0.08 0.1 Fig V4
y/ri
V.2 RESULTATS
Tableau V.l. Résultats obtenus avec les noyaux ?- 3 8U et 2 3 2 T h par la méthode du maximum de vraisemblance (les chifres entre parenthèses représentent las valeurs du biaie de v ou de *r°> )
Seuil Ta
Nombre de r° p Valeur estimée
n Valeur eatimëe de V Noyaux Seuil Ta
(donné) m Ne
(calculé)
Valeur estimée
n Valeur eatimëe de V
2 « T h 0.000O9 331 147 189 0.00139(-1.0310" 5 ) 0.912 ± 0.243 ( I . 5 5 I O - 2 )
15' -5] 0.000096 144 180 0.00146(-9.5710" 6 ) 1.00859 t 0.255(1.6410~ 2)
O.0001 141 170 0.00154(-8.6IO~ 6) 1.13 ± 0.267 (1.7410~ 2)
0.0001 282 188 237 0.00129(-6.7910 _ G ) 1.047 ± 0.238 ( l .3610~ 2 )
[R5.Q 0.00009 189 230 O.OOI32(-5.8IIO~ 6) 1.113 ± 0.233 (1.3110" 2 )
0.000098 189 239 O.0OI27(-6.821O~ e) 1.02 ± 0.235 (1 .3310 - 2 )
238U :
0.0001 213 139 177 0 .00171( - I . 29 I0 - 5 ) 0.8968 ± 0.241 (1.5710" 2 )
C M . 23 0.0002 12! 154 0 .00 !96 ( - I . 7 I10 _ ; 0 1.139 ± 0.334 (2 .41 lo" 2 )
0.00025 116 151 0.002(-2 .10" s ) 1.187 ± 0.372 (2,79I0~ 2 )
0.0001 320 188 244 0.00193(-I .1410" 5 ) 0.822 ± 0.195 (1 .0810 - 2 )
E5.3] 0.0002 168 228 0.00206C-1.6710 - 5 ) 0.927 ± 0.259 (1 .58I0" 2 )
0.00025 158 203 0.0023(-1.6110" 5 ) 1.139 ± 0.299 ( I . J I O " 2 )
V.3. Interprétation
L'examen des résultats obtenus nous montre que les valeurs
trouvées de v sont compatibles avec 1 c'est à dire que les largeurs neu-
troniques réduites sont bien distribuées suivant la loi en x 2 à un degrë
de liberté de Porter et Thomas.
L
- 86 -
VT, CQSCLgSîOS -
Dans cette étude, nous avons utilisé deux méthodes statistiques
pour estimer le paramètre Q -<p, M ) de la loi en x tronquée : - la
méthode du maximum de vraisemblance et la méthode des moments - et
nous avons examiné les différents problêmes posés par cette estima
tion. Les difficultés que nous avons rencontrées sont dues surtout â
la forme compliquée de la loi considérée. Ce qui nous a conduit à
appliquer différentes techniques de l'analysé numérique.
En ce qui concerne l'estimation du paramètre 9» l'examen des ré
sultats obtenus nous a montré la supériorité de la méthode du maximum
de vraisemblance. Eafin cette étude nous a conduit a mettre en Évidence
trois types d'effets qui ont été négliges jttsqu*S présent :
- a) les erreurs expérimentales systématiques ou celles commises en
négligeant Cm melange de plusieurs populations, qui diminuent v
apparent ;
- b) l'erreur commise en analysant, après renormalisation, un mélange
de plusieurs populations expérimentalement distinctes, qui aug
mente v apparent;
- c) surtout le biais qui n'est jamais pris en compte jusqu'à présent
et qui suffit à lui seul j£ expliquer le désaccord, apparemment
significatif, déjà signalé dans ^introduction (cf. l.t.),
Sous avons montré, dans quelques cas particuliers, que v était
parfaitetaent compatible avec 1, Il reste à faire une étude plus appro
fondie en tenant compte des effets expérimentaux, mais celle-ci dépas
ser it le cadre de ce travail.
- 87 »
Néanmoins, nouB pouvons dire que, compte tenu du biais, iJ
n'apparaît aucun effet systématique dane les résultats publiés par
les différents auteurs. Rous pouvons dire que l'écart entre v et 1,
s'il existe, est au maximum de l'ordre de 3 S; pour le mettre en
évidence, il faudrait une population pure et propre d'environ 1000
événements - ce qui est impossible - ou étudier des mélanges de
populations en se méfiant des effets parasites engendrés par ces
mélanges. En d'autres termes, il faudrait d'autres méthodes d'analyse
statistiques,
La description des distributions des largeurs réduites par une
2
loi en x à y • l degré de liberté est une conséquence de la théorie
du noyau composé [ïU.S]. Un écart par rapport à cette loi signifierait
un disaccord avec ce modèle, et en particulier qu'un nombre restreint
de configurations contribuent fortement aux amplitudes des largeurs
réduites; cette étude montre que les données expérimentales actuelles
n'apportent aucun élément en. faveur de cette thèse.
L
A N N E X E
L
A.i. Calcul des dérivées des fonctions -
I. Notations_utilisëe9 :
Toutes les dérivations des fonctions c1effectuent par rapport aux 2 para
mètres p et LA. Four alléger l'écriture et simplifier le calcul, nous utilise'
rons la notation de dérivation suivante :
( i . D
pour désigner la dérivée d'ordre n d'une certaine fonction ( par rapport aux
paramètres 8^ Qj , P | t etc..
Comme nous nous limitons au cas de 2 paramètres, nous pouvons écrire ;
M - 'iGjlOjl».... Ci,J,K = 1,î.'>
(1.2)
• ; 2- 2|riïfïtign_sou£_le_signe :
Pour dériver sous le signe f , nous appliquons la formule bien connue
suivante de Leibnitz [R.4.9]
Jb(61
a<»)
(2.1)
(2.2)
<a(8) et b(0) étant des fonctions differentiates défi et P C c , 6 ) une fonc
tion continue d e X dans l'intervalle J a , b"J et derivable par rapport à G
Si l'une des deux bornes,b par exemple, est une constante indépen
dante de 0 , alors la formule (2.1) se réduira à :
dlCBU f l | (" ' 9 1 ci=c_f<:ci ,6)d. 06
(2.3)
3 • 5£iâ£i£S2_ë25£Ê_ie^-^SEÎYS2â_£?4^5ÎESS_ÊÎ_iêâ_ëêEÎïlÊê-l2SHΣiïïi9!éÊS
Pour passer de la dérivée ordinaire, 3 la dérivée logarithmique d'une
c e rho--2 fonction ou vice versa, nous utiliserons l'une ou l'autre des rela
tions suivantes :
- Dérivées premieres -
1>Ôi G ^ 8 t
1 G -G^U>9-G
- Dérivées secondes
^ G -G r^ L o9-G + pLo=.GVlLo«GVl
(3.1)
(3.2)
(3.3)
(3.4)
LPS relstions entre les différentes dérivées d'ordre supérieur ne Beront pas
utilisées dans la suite du calculi par conséquent nous ne les donnerons pas ic
Al.l - Dérivées de la fonction A
Par définition : & •— M
d'où en dérivant par rapport à 0 et â il
/ a î . - fa" ê r f
^ _ 1
r
^ " f • f iLogP -, ftU 1
t « d l» /
( A l . 1 . 1 )
(Al . i . 2 )
(Al.1.3)
( A l . 1 . 4 )
(Al. 1.5)
Al.2 - Dérivées de la fonction jC
La fonction%ë£ant définie par
nous obtenons alors :
pOf = Si. = P£t = 2;
%A, =
ILocjX 7C
1
P
3C1, «-2Ê. /
1
* - r *
(Al.2.2)
(Al.2.3)
(Al.2.4)
(Al .2 .5)
(Al.2.6)
Al.3. - Dérivées de la jonction %
Par définition : % * _ % f (Al.3.1)
Cette relation nous donne :
L o g . * * - pLo^X
d'où en dérivant leB 2 membres de cette relation par rapport à p et à
nous obtenons :
( A l . 3 . 2 )
P e t a u
'JLoq.X*- 2Ll = Loq.9C+ P—' •Tç ' X* ' r X
"bLoqXl 1 4 loa.%
X*( i + LoçjX )
( A l . 3 . 4 )
( A l . 3 . 5 )
ï y u ? x ' r % r-jy, y
TlLoaXs;; " £ ^ f
< =
Al .4 . - Dérivées de la fonction
Dérivées premières
*• = e
V, — e *',
f
«,1 = -* - e x
i t .
* ' , - ^ T U f% - & . X
'V f% -
Ç f
(AI. : .6)
( A l . 3 . 7 )
(Al .4.1)
( A l . 4 . 2 )
(Al .4.3)
(Al .4.4)
(Al .4.5)
(Al 4.6)
(Al 4.7)
92 -
Al-5. Dérivées logarithmiques de la fonction ganma incomplete £
ta fonction gamma incomplète l Cp,%) est dëfinie par :
oo
(Al .5.0
pour simplifier l'écriture, nous poserons
^ = r f f , X ) (Al .5.2)
d'où en dérivant respectivement, soit par rapport a pe soit
par rapport â u, et en appliquant la formule de dérivation
gous le signe J
Dérivées premieres :
4>% fëV-Wdi-i^f
-P-
T=> = -•x
•- e
?c*-.x . r
S9- 1
(Al .5.4)
(Al.5.5)
(Al.5.6)
(Al .5.7)
(Al .5.8)
(Al .5.9)
(Al 5.10)
In . Uhr'( U^tfdt (n.(,J, . . . .) (A,.5.,,
(Ai.5.12)
Deri vëes secondes :
(AI.5.13)
(Al.5.14)
En dérivant la relation (Al.5.6) par rapport à p et 3 u nous obtenons :
TIP1- TIP P p 1
T I P
"»f f *
V " ( > i l = l 1 9 : ' - 2 3 u , « x -TIP r * °f
Nous obtenons donc
(A).5.15)
- Y <> r * iip ^ f * f 'Y 3- p ;
(Al .5 . 16)
^ = -( " f ) -^+ ^ jK*»" f ' *f ^} (Al.5.17)
if'V» Y f
(AI.5.18)
(Al .5.19)
'ïoTli? l ' P T)P tf A> ' »o"ty p Tip ° /VD^i
(Al.5.23)
(Al.5.24)
Dérivées troisièmes -
D'après les relations (Al.5.18) et (Al.5.25),
nous obtenons :
,y * ~ Wp Jh^ I Tf
(Ai.5.26) f f ?'f
-*r r
/AI S 97
(Al.5.28)
Al.5.29)
+ S r (Lo«,* ) \ . i ( - y + t p + (*-pK-X+1-P-îpL-o<jpc))J
(Al.5.32)
(Al.5.33) r ^
( A l . 5 . 3 4 )
97 -
!iLo3 **= UM -*1-llLof *'lfli»*^ Vr^tfci-iio,4"wi» > * ^y^' ?' ;
(AI.5.35
I f fy 1 * /*' y * J Vyy J I „J J hu ^ j |
( A I . 5 . 3 7 )
11^.[ -M . ' J ^ - ^ „ - r ) ^
A1 .6. - Dérivée!; de la fonction *P
Nous avons par définition s (p _ i1n (Al. 6.1)
Ce qui nous doune respectivementt
vf" vp'-Dp
^U . _ î," IL oo^T
DU 3^= 9"
(Al. 6.2)
(Al.6.3)
(b»5. ^"''Du "
T>Lo«.<p_
(Al.6.6)
(Al.6.7)
Al.7. - Dérivées de la fonction \)
Par définition, nous avons :
T) a X*-E,<^ (Al.7.1)
En dérivant cette expression par rapport à p et à u , nous obtenons :
Dérivées premières
19; = ^ * ; ^ < p + ^ * s , ,
) <p+7C%<r\ ( A l . 7 . 2 )
r ^ f
Dp ' Tjp ^ l a 0 V
9 ! - P O + L o a X - X - l L o J i " )
•Kj, IÇ) P T
1>p " "Dp
( A l . 7 . 3 )
( A l . 7 . 4 )
( A l . 7 . 5 )
( A l . 7 . 6 )
( A I . 7 . 7 )
l ? t = l ? ( ' l L o ? ^ ^ ' ,
+ l L o » £ , + 1 L o a . ^ , ) (Al.7.8)
\y * y ? y v J
n-W-rrtt**') ( A l . 7 . 9 )
( A l . 7 .10)
"kLoal? -X-P_ I L o g . ^ *
,7? - 7 r y ( A l . 7 . 1 1 )
ucrivées secordes
V U q . o = ± + 2 1 - 2 - ^ L o ? . ^ " y * P f* fl Y
(Al.7.12)
(Al.7.13)
V f Y •V Lo* H = - > _ 2_f- V- Log.^ ' (A i . ; . 15 )
(Al.7.16)
^ f % f -»fY ? f/M T ^ (Al.7.17)
V;Loaf7__(_ i].TLog.4'*
'-Tip'- i l j i / -1
r^-^u,* ' ^u^.iio^/}? (Al .7 .20)
n - M ^ » 0 ^ ) ^ ]
^-^fcf-^&^^^^-F^^^^-l^^ P y "?J -Pa ( A l . 7 . 2 2 )
ni -v[p,«* (|r>")'J
*-"fa-^(?-£-»*7J (Al.7.24)
A K 8 ' " PërivgeB deg i n t ég ra l e s : X n » ( e ï^ilo&ïT^Ï C n = 1 , l at 3 y J^ *
En apl l iquant l a formule de der iva t ion sous l e signe[de Leibni tz
nous obtenons :
"Dp J, HI
T - M . - I n t l _ C 3 f [ L o t 7 c ] "
^ f .r r"
-» f
. I, avec : ^-h+l « r* ibf-'[Lo
(Al.8.1)
<AI ,8 2)
(AI S 3)
(Al .8 4)
(AI 8 5)
{Al.8.6)
Nous en déduisons donc, pour n - 1,2
1 1 . . n>p
1 , " r
Ta,... "£,%*
/ Lo^'X-
VU. - 1 , -
If L Lo «,7C J
(Al.8.9)
(Al.8.10)
(Al .6.11)
AI.9. Dérivées logarithmiques de la fonction densicé
Par définition
^""-rfcfj)1
ou encore
?' Ce qui nous donne
î er
' 7 "
(Al.9.1)
(Al.9.3)
(Al.9.4)
D'où en dérivant cecte relation respectivement par rapport; à p
et a ci nous obtenons :
Dérivées première
Lo«(2.+ 1 . S •. L a7x
\£jf- " £ + ^ y y/* 0
(Al.9.5)
(Al.9.6)
Dérivées secondes
y * * y 3 p
i p - y 1 y a p ' -tp-ii r~ }AL
(Al.9.7)
(Al.9.8)
Tu* °~ -VIA1 * y 7^ (Al.9.9)
Dérivées troisièmes :
T)3Lo3f ._ X
f VLo^f _
1 ! Log? . Î.X.
z*1
> + 6
> 4
(A1.9.I0)
(AI.9.11)
(Al.9.12)
(Al.9.13)
A2. CALCUL DES INTEGRALES :
A2.1. Calcul des intégrales I„« , / V trUofrOolfc <» , | , 2,
a) Çalçuï_ de_I £ar_la_mJ_thpjs_^£_£aysa-Lagy£xxfi :
Ces intégrales étant de la forme J C- iCx. ") d=£- n o u s p o u v o n s i e s
calculer par la méthode de Gauss-Laguerre en effectuant le changement
variable
Kous obtenons a lo rs :
to T f -CH+K-I ;"» r -,1 I n = e («+ • *? | L o ^ C « + K ) J da-
- ï f . « P"' r -,11
= e I e (u+icV [ L O ^ ( M + T ; ) J du
(A2.I . I )
(A2 . i . : )
I,. f W + x f L o ^ Cu+X) du
Ix-' e J e C « J % V LC<JCUTX)] ' du .
I. o
P" [ Lo^Cu+x)] du
o
(A2.I.4)
(A2.1.5;
Nous pouvons encore écrire :
77°^—" li = e je fjU+jodn
o £(U+X) = ( l l + -X)f> Loq(H + ï )
l j . = e ê F J C U M J du avec ' T^CW+Xk CM-txf [LoaCu+xl ]
1, - e. | ê F j j u + ï i d u
r- P"' r i 3
! i
b) Calcul de» Intégrales I par d'autres méthodes avec le changement
da variable t • — .
La méthode de Gauta-Lsguerre eat mal adaptée au calcul des inté
grales lt> »• l e c ' L IQejt J Qt p surtout lorsque x est très petit
car l'intégrant & n'est pas défini pour t_*û (p étant un
nombre positif et généralement inférieur â ! ) • Pour éviter cet inconvénient,
nous avons effectué le changement de variable t « — de sorte que I pren
nent la forme équivalente ci-dessous :
Nous pouvons vérifier facilement que l'intégrant de I est défini
pour toutes les valeurs de ue[t>,"»]. Ceci étant, les intégrales I peuvent
Être calculées indifféremment par l'une des méthodes d'intégration numéri
ques suivantes :
- Méthode de Simpson,
- Méthode de Gausa-Lobatto,
- Méthide de Gausfl-Legendre.
oo A2.2 - Calcul de l ' i n t é g r a l e :<rL-l nf & loaU diU
% Considérons la fonction gamma incomplète 1 t'p+l yX) •
M _, oo
>JM ( A 2 . T . I )
(A2.2.2)
(A2.2.3)
i r t f « , » l = / ë " « r L o a n d « - ^ X * X = > t - % * ! ? (A2.2.4)
V 4 f f n'autre parc, la relation (A2.2.2) nous donne :
1 __£.*.*.. S.V7 IJ.1 .....vl . Ir, = _ B^Ç_X+ ^ X O + U ^ V u p p O + p l f y x , (A2.2.6)
En comparant (A2.2.4) e t (A2.2.6), nous en déduisons
X* ( MLoj.x) + rCp^l+rirc-p,-»
> [ - %-x'Uyx + ^ + p T i
T< = J ^ " ^ LO^HJH
(A2 .2 .7 )
r°° A2.3. - Calcul de l ' intégrale ; K. * |=c ^°^x. . £ o|«
Nous avons
k - _L ft?)1
a -P — V G. / * L o g 3C d=C (A2.3.I)
Cette intégrale s'écrit encore, après le changement de variable • U • P —
ÛO p * ° CO
k. = _ J t _ f nf &" U^pu du , g [ /wf^U^McWlo^/Jè'U.]
Comme d'après (A2.2.8)
(A2.3.2)
r
>t
Nous en déduisons donc :
kl = ( î [ t ? Lo^'X + l + p I , C P + i ?Log^ + p L o 3 ( i ] (A2.3.4)
I C - f t [ l + p T , t p + r j Loaei+pLo^/S 1
Log. It-t-Lo g. (2. = Loa%fl = ^-°fcu
• Calcul de l ' i n t é g r a l e : •*""*
D'après (Al.9.5)
-J;{^)i
3W? ="^p°^~ L o ^ + x~ 7 + L o^ d 'où
(62.4.1)
(A2.4.2)
s A3.3.3)
moment d 'ordre 2
f J* " ~l -it Drame
loC%clac = JA\ = ^(V^^) (d 'après A3.2.2)
w^ moment d ' an
/ 3C l f c U = Ht = p l m ( ^ + p + 0 + f ( P + * > 1 Cd'aprèi
°^ moment d 'ordre
/* °°
* ^ * , - . t -
(d 'après A2.3.5)
Nous obtenons donc :
i -L , j^ - iLo^* j / . ( r? + f ) .^ ( X + r , ) + f c r „ ]
- + ( î ( l + p l , ( f + o L o a ^ + ^ L o g o i ) (A2.4.3)
(A2.4.4)
^ „ p - ' après A,.5.6)
A-py f i+ i ^x - ius»- * * ] (A2.4.5)
k2.5. - Calcul de X'intégrale 6- fe 3 f ) f J •v D'après (AI.9.6) nous avons :
1) (A2.5.1)
d'où noua en déduisons ;
(A2.5.2)
eno CO
(A2.5.3)
(A2.5.4.)
\ Lo^l-l - J2 (d'après Al.5.14)
^ ' Z1
B = i [c f i+x- f - i? )+p] -2(Hx- j>-?)+ i
A.3. - Calcul des moments.
A3.]. Moment_d^ordre_K
Le moment d'ordre K s'écrit par définition :
fr=.,8,-J (ÇY ft ri -^
En posan t : @> *= ^
variable U » P - ~ , nous obtenons :
/ K f p+K-i - M .
d'où en integrant par parties b fois r
et en effectuant le changement de
yv A * [ x f W e + ( P + K - O X 1 e + C P + K - I K P + K - ^ h
e J - . „ A *
+ CptK-0(P«-S->... c p K - r + ' )7Ci ' e
+(p+i< -iXj>+K-il...(p+K-bl .«r+ e"d« (A3.I 4)
ou encore :
«, . - . /3 K np*K,*>
1 < P + K % X ) = %' ï +(MK..OX r a+(p+K-ii(j>*ic-j,)5cr e + ...
.. . + (p*K-<l<f*K.-0.--(p->-K-pn)9c£ 'à* ^
A3.2. Moment d 'ordre 1 f K - t> - 1 )
(A3.2.1)
ou encore
..V-e
A3.3. Moment d 'ordre 2 ( l£ - b =. 2. )
yUj - ^ \(%+P-H)tfë\ j>fj>+On-{»,«> 1 (A3.3.1)
, r P -X 1 (A3 .3 .2 )
/*t" i 8 [<2<±£iiL*LfL + p f f + n J
y ^ ^ /Î*[CX+J>+I")I7 + pcp+o ] (A3.3.3)
A3.A. Moment d 'ordre 3 ( K = p = 3 )
' rcp,x) + j>cp+i->ij>+*'> rc f , * J (A3.4.1)
(A3.4.2)
U = =a5ff7(x t+(p+'.')X+Cp+»->('p+o)+pfp+i-)fp+i)j
A3.5. Moment d'ordre i : C K - p = 4 )
u .. ft4 [ ? ( f + i e ' t + ( p+ii?<f* 1+ rp+iîfpti)x'He'+fp+j)fp+i)fj>nJxl'«: 1
/ 4 r rp . j o _ i f +fp + J l ( p + 1 ' ( p + ')pr(-p )7[) J (A3.5.2)
u i = _ ^ . _ [ ë " ' ' x f ( ' x î + ( ' p ^ : " ( ' ' + f | > + î U f + t , x + ( r + 3 ' , c P + t , f f 4 , > ) / rep,*'!. r- -\
P + C p + l ) C p + l ) C p + i ' > P l Cj>,X) (A3.5.3)
W4=(s"rt?(x + (p+JlXl+fp+3Xp+iW + (p+iXp+tlfp+i))+(p+J)(p+».)fp+0|=J
A4 - Calcul des Coefficients
A 4 .1 Cal eu l_d es c o e f f i c i e n t s [)•
Par déf in i t ion
D- =±liLi =ÏMit (A4.I.1) ; Til»,- J
avec t •) J — ' i 3*
s , = j >
H. = moment d'ordre î défini au paragraphe (A.3)
D'après (A3.2.2) et (A3.3.3)
Coefficient JJu
y u l = ( i t [ 1?Cx+p-n)+p(p+0] d'où . (A4.1.2)
^«^(n+pHOM-pW-j?) Coefficient D)i
Ba-C/OÎ-PiCrï+pî + l»1?!
û g . i + EÇm+g)
(A4.1.2 ')
(A4.1.3)
(A4 .1 .3 ' )
Coefficient Ujj
(A4.1.4)
D11 = f!>,[l|,'(r?ct+p+o+pfp+i))+ (ï±f)r?+OH-ptor?;+»p+i] (A4.i.5)
D2,= /3 l[l?:(*+f+0-<*±£!±??- l ] f
(A4.I.6)
J ) l l = ^l [ t | > ( l ? C 7 « + p + l)+pf(>+li)+-7Cil? + (9( + p + OI?^] (A4.1.8)
D M = ^ [ " ( • x ^ O + ^ l j g l U fTH-ptOQl ] (A4.] . ] 0)
A4.2, Calcul des coefficients JJ
Connaissant Djj, nous pouvons alors déterminer les coefficients D
par la relation :
D l X-S l
K -1 ydi i«K.
/Oi t*K. (indice de Kronecker)
(A4.2.1)
U K = 1
avec : i, J 7 s ' 1 *
Dans la relation (A4.2.l)>J est une indice de sommation et l ou KL
:st une indice fixe. Nous obtenons les relations explicites suivantes :
(A4.2.2) D , J Di, = i
i=1 . k.= «-
tfX+ffX-i
DwDu-<
DX+D*D„-O
(A4.2.3)
(A4.2.4)
(A4.2.5)
D"Dj,-o
Û D„+D'%=o
En résumé, nous avons le système d'équations suivant :
D , ,D, t +D, ,D 1 1=û
D"D, l + D, l D u - i
dont la relation nous donne
D" = D« *
D" = D„D i t - D,A. " *
D t t - . D. ï- —-
• ^
D t t -D , , ^ -W, • ^
.D" . D ï l
- * .D" .
D„D, -B«H, - *
D"= D. * •
D"= Û.&---D,Jk " * •
A « DuDjt-Du.Dj, déterminant dfc la matrice [ J}]
A4.3. Calcul des coefficients •Jï.ijK.
Ces coefficients sont définis par :
(A4.2.6)
(A4.2.7)
(A4.2.8)
(A4.2.9)
(A4.2.10)
(A4.2.Il)
(A4.2.12)
(A4.2.13)
(A4.3.1)
a1- T>8/Î6K *
avec l i J i = 1 , 2
D'après (A4.))
[ /M 1 , = /* lD?;c*+p+o- cx*p+oi?-i]
d'où : Coefficient E.. .
. i [p$. i[^^.U), p (rj; - fi! + D)] *• ' ii z r r r (A4.3.2)
t P f r r s . L " P p J (A4.3.3)
Coefficient E..» et E _
«112-t[i*i-i[«fnL+ûVp(nl+Qï)] (A4.3.4)
E . i[^(ni+nw t-»J#]
c^-êLtà + Q'.-Ql-B] -H-
(E. é tant 121 112 l LJK
Coefficient E
symétrique
(A4.3.5)
par rapport à j «t K )
E . i [ H l = iW(n;t!!)+)3(n^!i'-5,)] 122 5.L ' J»l ( L * • » U ' ' *• " M / *
l^AK^M]-^^] / r
Coefficient E„
• i W - è\*W' (tf(**P+0~ f**p ? g*)
p ' -• ( A 4 . 3 . 7 :
.ATrj^x+jHO-inUx+p+ti+i- + ^Cx+ P+3)] (A4.3.8)
Coefficient E 2 ] 2 e t E._
+rxVnO ,
l+Cx+p+on<
lJ]
-212 - , , .A lfex+p+o-]2icx+p+t)+i2
,icx+ip+t).^i l+!p+4)-il
(A4.3.9)
(A4.3.10)
(par synétr ie)
Coefficient E_,
+ x;r); < . fx+p +on J
tJj ( A 4 . 3 . I l )
•-|'[f?uCx+p+i)+ M ? l ^ î i t l U i/C+pKP+0] ( A 4 . 3 . 1 2 )
A.4.4. - Calcul des Coefficients Y. ,
Nous avons d'après ( 11.2.3.12) ;
avec î, j, k, = 1,2
f? = _ tfïtf t dX/D lt, > DlD ' t . ^ JI-ûtû'Mt^î: )^D'£ .tf^)]
d'où nous en déduisons :
Coefficient P (i = 1, j = 1, k = 1)
(A4.4.3)
Coefficient P,,, (i - 1 , j = I , k - 2)
t =-DlD(D\^^DX,r^}]-DlDm,,D\>D?DX.:D ,tm-)] (A4.4.4)
Coefficient Yitj ( i « I , j » 2, k » I)
^(=-DlD¥£w+DX>DÎDX^\)]-DlD7DX,tDt>DÎtft.;D*Ej] (A4.4.5)
Nous pouvons vérifier facilement que la symétrie des coefficients-ri . •
par rapport à J et k entraine celle des r[ •
'1*1 = Mit (A4.4.6)
Coefficient R l t (i - I, j - 2, k - 2)
(A4.4.7)
- 120 -
Coefficient P 1 | f ( i » 2, j - 1 , k - 1)
P M - J f [ l f t ] f e t f l ^ ^ (A4.4.8)
Coefficient Y,„ ( i » 2, j - 1, k - 2)
(A4.4.9)
Coefficient t g n ( i • 2, j = 2, k = 1)
PM,=.D^DX, tuX>D'tDX l tDXj]-tflDlDXrD\>tf(Dt,BXj] (A4.4.10)
Pour la même raison que prëcédenment, nous voyons que :
P„, - P, ( 1 CA4.4.11)
Coefficient R Ci - 2, j « 2, k >= 2)
(A4.4.12)
A5 - Détermination des fonctions
Déterminatian_des_fonçtions__K; j LJK == i - M ^ ^ }/-t JL|L ) | A5. I
Formulation générale
so i t X une var iable a l éa to i r e de fonction dens i té ffx 1 6)dépendant
d'un paramètre vec to r ie l 0 = ( 9.,, 0^ - * • 0^ J
Nous avons la r e la t ion de normalisation :
f f ( s c , e > c U c = 1 CA5.1.I)
l'intégrale étant étendue â tout le domaine où X est défini.
En dérivant cette relation de normalisation 3 fois respectivement par
rapport à u-., 9] et " K (i,j ,K pouvant prendre indifféremment les
valeurs entières 1,2 . . . ) . Nous supposerons dans tout ce qui va suivre
que les 2 bornes de l'intégrale sont indépendantes de 8 , et que
i-C^c^B) est difflrentiable jusqu'à l'ordre 3, au moins.
- Première dérivation, par rapport à o:
cette relation peut encore s'écrire :
- Deuxième dérivation, par rapport à oj
ou encore
CA5.I.3)
(A5.1.4)
(A5.1.5)
X-Q (A5.1.6)
£[t^]-£L^^?^
- Troisième derivation, par rapport à i i k
CA5.1.7)
or d'aprës (A1K3.3)
ou encore en multipliant les 2 membres de cette relation par —°<H OÔK.
ïl>$ = - ( lT L ^ il 15,- J f ^ o ô j ou encore en multipliant les 2 membres de
7 K'^fi-^-^S-^ffiT'/f) (A5.1.9)
La relation (A5.1.7) s'écrira alors :
(A5.1.10)
Comme par définition
La relation (A5.1.10) pourra donc se mettre sous la forme :
p— JfâiiM^fi&flf l(Wv(wu f , i ( A 5 . 1 . 1 2 )
Cas de deux paramètres Qj et Q4 ( i,j.H»l 2)
Alors la relation (A5.1.12) nous donne
Coefficient r ( , | f ( K = i = j = i )
K«--j(^)^~-*J(^m^à~ (A5.I.13)
Coefficient P , i l t ( K = 1 . L= 1 . J = i )
"-» -jO fJf J" -/Sr ? f)Saf J-i¥K^
ficient r,^ ( K. = l , i-2 ,J = O
ç--i*S!)fJ"i¥)(l?!)fJ'-/fë;}')^)?-(A5.1.15)
Coefficient R,su, ( * - 1 , i » j = o
l—JW 4- Jue t •ORWf^ (A5.1.16)
Coefficient ^ „ ( H e a , - s = i)
t -KM^-'M * ) ( & ?I)f4"
Coefficient P. „ ( K. = 1 , U i , j = s, )
(A5.1.I8)
Coefficient f 1 | t l ( K = 4, , i = A, 7 J = 1 )
(AS.1.19)
Coefficient P t l t l (K.= i = j = * , )
.20)
En examinant les différentes relations obtenues, nous en déduisons
M,u = rj ,11 P - P
(A5.I.21)
(A5.1.22)
Ce qui vérifie bien la forme symétrique en J et IC de
Cas de la distribution en A troTig'v'e. -
Dans le cas de la distribution en A- tronquée nous avons :
Expression rç ^
p---r^ofj*-*rfir^)iïf^)fj 0 , 1 (A5.1.23)
or, d'après (Al.9.7), (Al.9.10) et(A5.1.3)
il en résulte donc :
P- " (ï^:f)Jj^ ^-fifôf^ (A5.1.24)
- 126 -
Expression de ^ ( t ou
R, • - / ( ^ O f ^ - J ^ ^ l ^ - j ^ l ^ (A5.1.11)
T\oa-Ç,__Vl.o»Y_ 4. + 2& (d'après AI.9.8)
m ^ ' Tip/ / r 1
"3_ L o ^ P _ _ 5_ Log T + J. (d'après Al.9.7)
(d'après AI.9.11)
Nous en déduisons donc :
ou encore
avec d'après ( A2.4.5 )
(A5.1.27)
Expression de rh X!L
(A5.1.28)
^ ! L ° ^ f = - V L o » ' ^ _ J . + 3 . (d'après AI.9JS )
— 0\— — cf + - —; (d'après A1.9.l?i
''HW'-^S^pB^rf^i;^ >ffë»î)f'
3#r4 r 1 ? <•• (A5.1.29)
B- f*'f^-»l)fi * ^
ou encore, d'aprèp (A2.S.5)
B - i + !?f,+x-(>-i?)
1 , 1 1 <v4 ^] \7 ii^'vp ^
T)^P /'M f " J (A5.1.30)
Exp: ressïon de Y.
P,,, - -Jiïffl^^t^W X- • (A5.1.3!)
En remarquant comme précédemment
"^Loq-Ï _ _ ' V L o q , T _ -i + — (d'après AI.9.8)
( d'après Al.9.1I)
Nous obtenons
^f^^'^Ji^r-ft^ 11,11=- 7f '^*$-rWW~
' i . n - — _o — r
f i fy /^ H I P 1 I
ou encore :
(A5.1.32)
(A5.I.33)
Expression de y ou de k
'''-^)^-{(^^-M^P (A5.I.34)
«Tip"Y TlPty ° P ^
.I' Lo«.f = - ^ ! L ° A 4 - 2 P W'après Al.9.9 )
n,^ m n>y * y y Y U « P =-1 ! L o 3- ' i ' ' + J - - i 3 (d'après Al.9.12)
DO OO CO
* r ^ ^ y p p r
^ - ^ , + ^ [ - l + ^ + r A ) - B J
(A5.1.35)
ou encore :
r ^ (A5.1.36)
Expression de i. p- jfôrrfjf*—iT^)fÇ.w;»* (A5.1.37)
Q ^ ' ? l ! Lo . - IL^f _ if + « p i ( d. a p t ë s A 1, 9. 13)
(A5.1.38)
^*--J!r»^)S(**-r-'*-0 J
Relations entre les différentes fonctions Y; .
En examinant les différentes fonctions (marquées d'une • ) nous
remarquons que :
p p p ^A ri,1i= 'l,M = r t , l l + —.
p _ p A P A
(AS. 1 .40)
( A S . l . 4 0 ' )
(AS. 1 .41)
(AS .1 .41 ' )
5.2 - Détermination des fonctions K . _ V j jL. \5Jf \M 1 f J î „ * - )
tions rj sont définies par
P,,.t(^-|Vc^'tf^)]-JaT3()^,f)f. comme d'après (A5.1.6)
(A5.2.1)
Nous en déduisons donc ;
Pour la distribution en 'X tronquée
: = ?
Ce qui nous donne, d'après (Al. 9,7 )
Fonction \\-,j
(A5.2.2)
comme
il en résulte donc
\ |Cx,0) JU (condition de normalisation)
1^ L tion r<„
y. 0 0 z » 0 0 I
Op 4M plu ^ y**
' Tift]*, jn M'-X, T
x f c x , 6 " î a c c = Wj » moment théorique d' d
ou j U , = f&Cl? + p ) (d'après A3.2.2)
i l s 'en su i t donc
ou encore
Fonction ra.,a.
P.--fe 50H-=^>^l^C K' t , d'
t ion 13,,^
t = - K W f J - - l ( ? v 5 f ) f 4
f T
P P
P _p . ^ L » ^ " n
(A5.2.9)
(A5.2.10)
(A5.2.11)
(A5.2.12)
(A5.2.13)
REFERENCES BIBLIOaRAPHIQUES
- 134 -
GENERALITES
[ R I . I ] - C E . Porter & R.G. Thomas
" Fluctuations of nuclfejr reac t ion widths"
Phys. Rev. Vol.104 n°2 (oct.1956) pp.483-491.
[RI.2] E.P. Wigner and L. Eisenbud,
Phys. Rev. 72. 29 ( 1947)
[RI.3] - J .E . Lynn
"The theory of neutron resonance reactions"
Clarendon Press. Oxford 1968.
[R1.4] - John D. Garrisson
"Statistical of neutron resonance parameters"
Annals of Physics, Vol.30 n°2 (Nov.1964)
[RÎ.5| - Pierre Ribon
"Etudes de quelques propriétés des niveaux excités des noyaux
composés formés par l'interaction de neutrons lents avec 1 0 3 Rh','
Xe, 1 5 S Gd, 1 5 7 Gd, 2 3 2 Th, (Thèse. Faculté des Sciences d'Orsay
Université de Paris. Janv. 69).
[R1.6] - Jean Julien.
"Etude de quelques propriétés des paramètres de résonances de
1 3 neutrons cibles I = •=• et I = -5- en fonction de la valeur du spin
J = I ± •=• dans le domaine d'énergie I eV -+• 5000 eV ".
(Thèse. Faculté des Sciences de l'Université de Paris - Mai 1967).
|R|.7| Harold Cramer. ("Mathematical Methods of Statistics", Princeton
University Press, Princeton 1945
|R1.8| Erdelyi Magnus Oberhettinger & Tricomi "Higher transcendental
Functions" Tome 2 f McGraw Hill book company Inc. N.Y. 1953
- 135 -METHODE DES MOMENTS
[R2.I] K. Pearson - "Contributions to the mathematical of evolution" -
Philo. Trans. Royal. Soe. London. 185 (1894) pp. 71-78.
[R2.2J P. Rider - "The method of moments applied to a mixture of two exponential
distributions" - Annals of Math. Statist. 32 (1961) pp.143-147.
[R2.3] W.R. Blischke - "Moment estimators for the parameters of a mixture of two
distributions" - Annals of Math. Statist. 33 (1962) pp. 444-454.
[R2.4] T.T. Soong - "An extension of the moment method in statistical estimation" -
Siara Journal of applied Math. Vol.17, n° 3 (J969), pp. 560-568.
[R2.5] L.R. Shenton - "Moment estimators and maximum likehood" -
Biometrika 45 (1958) pp.311-320.
rR2.6J L.R. Shenton A Meyer - "Comments on estimation for the negative binonial
distribution classical and contagious discrete distributions" -
Procedings of the International Symposium on Discrete distributions.
Montréal. Oxford. Pergaraon Press 1963.
[R2.7] L.R. Shenton & P.A. Wallington - "The bias of moment estimators with an
application to the negative binomial distribution" - Biometrika 49 (1962)
pp. 193-204.
[R2.8J C.A. Robertson & J.G. Fryer - "The bias and accuracy of moment estimators" -
Biometrika 57 (1970) pp. 57-65.
[R2.s] Maurice.G.Kendal &AIan Stuart
"The advanced theory of statistics"
Tome 2 - Inference and relationship-
Ch.Griffin Company ( 1973 )
- 136 -METHODE DU MAXIMUM DE VRAISEMBLANCE
|^R3.l] Fisher R.A. - "On a absolute criterion for fitting curves" -
Messeng. Math (191?) 4J_, p. 155
R3.2J Dugué D - "Applications des propriétés de la limite au sens du calcul
des probabilités à l'étude du calcul des probabilités à l'étude de diverses
questions d'estimation" - J. Ecole Polytech. Paris (1946) 3_, p.305.
[R3.3J Wald A - "Note on the consistency of the maximum likehood estimate" -
Annals of Math. Statist. (1949) .20, pp. 595-601,
I R3.4J Wald A - "Testa of statistical hypothesis concerning several parameters
when the number of observations is large" - Trans. Amer. Math. Soc. (1943)
5_4, pp.426-482.
R3.5 Huzurbazar V.S. - "The Likehood equation consistency and maxima of the
likehood function" - Ann. Eu gen. London (1948) _U, pp. 185-200.
[R3.6J Chanda K.C. - "A note on the consistency and maxima of the roots of the
likehood equations" - Biometrika (1954) 41, pp. 56-61.
JR3.7J Neyman J & Scott E.L. - "Consistent estimates based on partially consistent
observations" - Econometrics (1948) 6 , pp. 1-32.
R3.8 Kraft & Lecam. L. - "A remark on the roots of the maximum likehood equa
tion " - Annals of Math. Statist. (1956) 27_, pp. 1174-6.
JR3.9 Kraft & Lecam L. - "A remark on the roots of the maximum likehood equation" -
Annals of Math. Statist. (1956) 7 , pp. 1174-6.
R3.|0jKale B.K. - "On the solution of likehood equation by iteration process" -
Biometrika (1961) 48, pp. 452-456.
R3.ll Kale B.K. - "On the solution of likehood equations by iteration process.
The parametric case" - Biometrika (1962) 49, 3 & 4, pp. 479-486.
- 137 -
[R3.12J Householder A.S.- "Principlss of Numerical analysis" - Mc. graw-Hill
Book Company. New York (1953).
[R3.I3J C. Fourgeaud & A. Fuchs - "Statistique" - Dunod Paria (1957)
[ R 3 . U ] W.T.Eadie.D.Driard,F.E.James,M.Roos,B,Sadoulet.E.Horice-
"Statistical Methods in Expérimental Physics"
North Holland Publishing Company ( 1971 )
! ;
- 138 -
CALCUL WyMERigUE
[ M. 1 ] P. Rabinowitz
"Numerical methods for non-linear algebraic equations"
- Gordon and Breach Science Published !970.
[R4.2J MC. Calla. "Introduction to numerical methods and FORTRAN programing"
- John Wiley & Son - 1967.
[ R 4 . 3 ] P. A. Stark
"Introduction to numerical methods"
- The Macmilan Company - 1970.
[R4.4.1 M.J. Box, D. Davies, W.B*. Svann
"Techniques d'optimisation non linéaire"
(Traduit de l'anglais par G. Faiveley)
- Entreprise Moderne d'Edition.
JR4.5.] Beveridge & Schechter
"Optimization : Theory and Practrice"
- Mc Graw-Hill Book Company - 1970
[R4.6] V.I. Krylov
"Approximate Calculation of Integrals"
- The Macmillan Company - 1962
R4.7 J Davis - Rabinovitz
"Numerical Integration"
- Blaidsdell publishing Company - 196?
R4.8 ] H. T. Davies
"Table? of the Mathematical functions"
- The Principia Press of Trinity University - 1935.
[ R 4 . 9 ] W. Kaplan.
" Advanced Calculus " ( page 220 )
- Addison Wesley Publishing Company,Inc.-1962
APPLICATIONS
;:.v5.lj F. Rahn, G. Hacken, W.W. Haven Jr., H, Liou, J. Rainwater, M. Slagowit2,
S. Wjmchank
"Cross - Section and Resonance Parameters of 2 3 2 T h "
NCSAC - 42 - EANDC <US> - INDC (USA) - 36 "(Î3")
Brookhaven National Laboratory 1971
|R5.2| J.B. Garg, J. Rainwater, J.S. Petersen S V.W. Havens Jr.,
"Neutron Resonance Spectroscopy III 2^ 2Th and 2 3 8 U
Phya, Rev. Vol 134 n° 5B 8 Juin 1964
|R5.3| W.W. Havens Jr.
Progress report for January !» 1970 - December 31, 1970
Columbia university
NYO - 73 - 340 - UC-34 Physics.