Université de Nantes – UFR des Sciences et Techniques Département de Mathématiq
Université de Nantes – UFR des Sciences et Techniques Département de Mathématiques Master 1 Ingénierie mathématique Année 2012-2013 Exercices de Statistique F. Lavancier, A. Philippe Estimation Ex 1. Montrer que les familles de lois suivantes appartiennent à la famille des lois exponentielles • les lois de Poisson de paramètre λ. Rappel : X suit une loi de Poisson de paramètre λ si ∀k ∈N par P(X = k) = e−λλk k! . • les lois gaussiennes de moyenne µ et de variance σ2. Ex 2. Convergence 1) Si ˆ θn est un estimateur asymptotiquement sans biais de θ et si sa variance tend vers zéro,alors il est convergent (en quels sens?). 2) Si ˆ θn est un estimateur de θ convergent en moyenne quadratique, alors il est asymp- totiquement sans biais. Ex 3. On dispose d’un n-échantillon (X1, · · · , Xn) d’une loi de Poisson de paramètre λ > 0. 1) Montrer que la moyenne empirique ¯ Xn est un estimateur sans biais de λ 2) Montrer que ¯ Xn converge presque sûrement et dans L2 vers θ, lorsque n →+∞. Ex 4. On considère un n-échantillon (X1, · · · , Xn) de la loi uniforme sur [0, θ]. On pose ˆ θn = max{X1, · · · , Xn}. 1) Montrer que ˆ θn est asymptotiquement sans biais. 2) En déduire un estimateur sans biais de θ. 3) Montrer que ˆ θn converge presque sûrement et dans L2 vers θ, lorsque n →+∞. Ex 5. On dispose d’un n-échantillon X1, · · · , Xn d’une loi de Bernoulli de paramètre p ∈]0, 1[ inconnu. Montrer qu’il n’existe pas d’estimateur sans biais de 1 p. 1 Ex 6. Soit X1, . . . , Xn une suite de variables aléatoires indépendantes et identiquement distribuées suivant la loi exponentielle de paramètre θ > 0. Rappelons que X1 admet alors pour densité par rapport à la mesure de Lebesgue f(x) = θe−θx IR+(x). Les variables Xi ne sont pas observées, on observe uniquement les variables aléatoires Yi définies par Yi = IXi>2 i = 1, . . . , n. 1) Donner la loi de Y1, puis calculer E(Y1). On pose, pour tout entier n ≥1, ¯ Yn = 1 n n X i=1 Yi et on estime le paramètre θ par ˆ θn = ( −1 2 log(¯ Yn) si ¯ Yn > 0 0 sinon 2) Calculer la probabilité de l’événement [¯ Yn ̸= 0]. Montrer que presque sûrement, l’événement [¯ Yn ̸= 0] est réalisé à partir d’un certain rang. 3) Montrer que ˆ θn converge presque sûrement vers θ. Ex 7. Soit un échantillon de variables aléatoires suivant la même loi paramétrée par un réel θ. On suppose disposer de deux estimateurs ˆ θ1 et ˆ θ2 de θ, calculés à partir de cet échantillon. On considère l’estimateur ¯ θ, défini comme la moyenne de θ1 et θ2, i.e. ¯ θ = ˆ θ1 + ˆ θ2 2 . On note σ2 1 (resp. σ2 2) la variance de ˆ θ1 (resp. de ˆ θ2) que l’on supposera finie et ρ la corrélation entre ˆ θ1 et ˆ θ2. 1) Exprimer la variance de ¯ θ en fonction de σ1, σ2 et ρ. 2) On suppose dans un premier temps que ˆ θ1 et ˆ θ2 sont sans biais et sans perte de généralité que σ2 2 = ασ2 1 où α ≥1. Donner une condition sur ρ pour que ¯ θ soit meilleur que ˆ θ1 et ˆ θ2 au sens du coût quadratique. Détailler cette condition dans les cas α = 1 et 1 ≤α ≤2. 3) Si ˆ θ1 correspond au meilleur estimateur sans biais possible au sens du coût quadra- tique, que doit valoir ˆ θ2 pour que ¯ θ soit meilleur que ˆ θ1 et ˆ θ2? 2 4) On se place à présent dans le cas général où ˆ θ1 et ˆ θ2 peuvent être biaisés. On note B1 (resp. B2) le biais de ˆ θ1 (resp. de ˆ θ2). On note EQM1 (resp. EQM2) l’erreur quadratique moyenne de ˆ θ1 (resp. de ˆ θ2). On note enfin ˜ ρ = E[(ˆ θ1 −θ)(ˆ θ2 −θ)] √EQM1EQM2 . Exprimer l’erreur quadratique moyenne de ¯ θ en fonction des quantités introduites ci-dessus. 5) On suppose sans perte de généralité que EQM2 = αEQM1 où α ≥1. Dans le cas où les biais de ˆ θ1 et ˆ θ2 sont de signes opposés, donner une condition simple sur α impliquant que ¯ θ est meilleur que ˆ θ1 et ˆ θ2 au sens du coût quadratique. 6) Proposer d’autres conditions sous lesquelles ¯ θ est meilleur que ˆ θ1 et ˆ θ2 au sens du coût quadratique. Ex 8. Soit X1, . . . , Xn une suite de variables aléatoires indépendantes et identiquement distribuées suivant la loi exponentielle de paramètre θ > 0. 1) Montrer que ce modèle est dominé. 2) Écrire la vraisemblance du modèle. 3) Vérifier que le modèle est régulier. 4) Calculer l’information de Fisher apportée par le n−échantillon. Ex 9. On considère un n-échantillon (X1, · · · , Xn) d’une loi gaussienne N(µ, σ2). 1) Écrire la vraisemblance du modèle 2) Quelle est l’information de Fisher dans le cas suivants: • σ2 est connu, µ ne l’est pas. • µ est connu, σ2 ne l’est pas. • Aucun des deux paramètres n’est connu. Ex 10. On considère un échantillon (X1, · · · , Xn) d’une loi gaussienne N(µ, σ2). On estime σ2 par la variance empirique modifiée S2 n = 1 n −1 n X j=1 (Xj −Xn)2. 1) Quel est son biais, son risque quadratique? Est-il efficace? 2) Quel est parmi les estimateurs de la forme c n X j=1 (Xj −Xn)2 (où c > 0) celui qui minimise l’erreur quadratique? En déduire que S2 n n’est pas admissible. 3 Ex 11. On considère un n-échantillon (X1, · · · , Xn) d’une loi gaussienne N(µ, σ2). Quel est l’estimateur du maximum de vraisemblance du couple (µ, σ2) Ex 12. On considère un n-échantillon (X1, · · · , Xn) d’une loi logisitique de paramètre θ ∈R, de densité f(x) = e−(x−θ) (1 + e−(x−θ))2, x ∈R 1) Montrer que f est symétrique autour de θ. En déduire l’espérance de X1. 2) En déduire un estimeur de θ. 3) En admettant que V ar(X1) = π2/3, donner une approximation de la loi asympto- tique de votre estimateur. 4) On admet que l’information de Fisher apportée par une observation vaut I(θ) = 1/3. L’estimateur proposé précedement est-il asymptotiquement efficace? 5) Montrer que le maximum de vraisemblance existe. Peut-on en donner une formule explicite? Quelle est approximativement sa loi asymptotique? 6) Proposer un estimateur asymptotiquement efficace qui ne nécessite pas le calcul du maximum de vraisemblance. Ex 13. On considère un n-échantillon (X1, · · · , Xn) de la loi uniforme sur [0, θ]. 1) Quel est l’estimateur du maximum de vraisemblance de θ. On le note ˆ θn. 2) Montrer que n(ˆ θn −θ) a une loi limite lorsque n →+∞. Quelle est cette loi limite? 3) Quels commentaires vous suggère ce résultat de convergence? Ex 14. On dispose d’un n-échantillon (X1, · · · , Xn) d’une loi de Poisson de paramètre λ > 0. 1) Quel est l’estimateur du maximum vraisemblance ˆ λn de λ? Montrer qu’il est sans biais et efficace. 2) Montrer que √n(ˆ λn −λ) converge en loi. Préciser la limite. 3) On désire estimer e−kλ où k est un entier positif fixé. Interprèter e−kλ comme la probabilité d’un événement. 4) En déduire un estimateur sans biais de e−kλ. Est-il convergent? Efficace? Améliorez- le en utilisant la statistique exhaustive n X j=1 Xj. 5) Comparez cet estimateur avec e−kˆ λn. Ex 15. On considère un n-échantillon (X1, · · · , Xn) d’une loi gaussienne N(µ, σ2). Don- ner une statistique exhaustive. Ex 16. Montrer que les statistiques suivantes sont exhaustives et totales 1) La somme pour le modèle de Poisson. 2) max{X1, . . . , Xn} pour un modèle uniforme sur [0, θ] . 4 Ex 17. Soit (X1, . . . , Xn) une suite de longueur n, de variables aléatoires indépendantes et de même loi de Bernoulli de paramètre p ∈]0, 1[. 1) Écrire la vraisemblance. 2) Montrer que la statistique Sn = Pn i=1 Xi est exhaustive. 3) Montrer que la statistique Sn est totale. 4) Calculer l’estimateur du maximum de vraisemblance de p. 5) Cet estimateur peut il être amélioré à l’aide de la statistique exhaustive Sn? 6) est-il un estimateur efficace du paramètre p ? 7) Proposer un estimateur sans biais de pk où k ets un entier conuu. 8) En déduire un estimateur sans biais de variance minimale. Ex 18. Modèle de capture-recapture Dans un bassin, il y a un nombre inconnu N de poissons. On souhaite estimer N. Pour cela on capture n poissons et on les remet à l’eau après les avoir marqués. Ultérieurement on capture à uploads/Geographie/ td-stat.pdf
Documents similaires










-
49
-
0
-
0
Licence et utilisation
Gratuit pour un usage personnel Attribution requise- Détails
- Publié le Aoû 20, 2022
- Catégorie Geography / Geogra...
- Langue French
- Taille du fichier 0.2019MB