StatL3S6 Statistique appliquée à la psychologie L3 Christian Lavergne Universit

StatL3S6 Statistique appliquée à la psychologie L3 Christian Lavergne Université Paul Valéry - Montpellier 3 http://moodle-miap.univ-montp3.fr http://www.univ-montp3.fr/miap/ens Année universitaire 2013-2014 (UPV) StatL3S6 2013/2014 1 / 75 StatL3S6 Chapitre 1 Lois limites de la Statistique et Estimation : 1 Loi des grands nombres et estimation ponctuelle 2 Théorème central limite et estimation par intervalle (UPV) StatL3S6 2013/2014 2 / 75 Loi des grands nombres et estimation ponctuelle Soient X1, X2, . . . , Xn n variables aléatoires indépendantes associées aux répétitions d’une même expérience aléatoire X telle que E(X) = µ) alors : La moyenne des observations est aussi proche que possible de la vraie valeur µ à condition que n soit grand X = 1 n n X i=1 Xi n grand → µ (UPV) StatL3S6 2013/2014 3 / 75 Exemple 1 : Un jeu de la Française des jeux. Exemple 2 : 2 personnes A et B jouent au dé (à 6 faces) et on propose les gains suivants : Si "le résultat est la face 6", B paie 600 euros à A sinon A paie 100 euros à B. À chaque coup, quelle est l’espérance de gain de A ? P(A gagne 600) = 1 6 et P(A perd 100) = 5 6 donc A a pour espérance de gain : 600 × 1 6 −100 × 5 6 = 100 6 = 16.67 euros À chaque coup, A gagne 600 ou perd 100, et son espérance de gain est de 16.67. Donc si A joue un très grand nombre de fois, A est sûr de gagner. (UPV) StatL3S6 2013/2014 4 / 75 La loi des grands nombres : jeu du dé (UPV) StatL3S6 2013/2014 5 / 75 La loi des grands nombres : jeu du dé (UPV) StatL3S6 2013/2014 6 / 75 Propriété de la moyenne X = 1 n n X i=1 Xi de n répétitions indépendantes X1, X2, . . . , Xn d’une même expérience aléatoire X telle que E(X) = µ et V (X) = σ2 : • son espérance mathématique E(X) = µ • sa variance V (X) = σ2 n • son écart-type σ(X) = σ √n La dispersion de la moyenne se réduit quand n grandit : c’est la loi des grands nombres (UPV) StatL3S6 2013/2014 7 / 75 Estimation ponctuelle La moyenne X = 1 n n X i=1 Xi 1 est donc un bon prétendant pour approcher le paramètre inconnu µ. • La variable aléatoire X sera appelée l’Estimateur du paramètre µ. notation : ˆ µ = X • Au vu d’observations, la valeur prise par X et notée x sera appelée une estimation du paramètre µ (notée aussi ˆ µ). • En pratique il y a UN (voir deux ou trois) Estimateur naturel du paramètre inconnu ; mais il y a toujours une infinité d’estimations possible de ce paramètre. 1. X1, X2, . . . , Xn sont n répétitions indépendantes d’une même expérience aléatoire X telle que E(X) = µ et V (X) = σ2 (UPV) StatL3S6 2013/2014 8 / 75 Forme générale et propriétés Soient X1, X2, . . . , Xn n répétitions d’une expérience aléatoire et Tn une combinaison (ou fonction) de ces répétitions. Tn sera un bon prétendant pour approcher un paramètre inconnu θ ; donc un Estimateur raisonnable de θ ; (Tn sera un ˆ θ) si : L’espérance mathématique de l’estimateur est aussi proche que possible du paramètre inconnu θ, idéalement on souhaite que E(Tn) = θ et on dira que Tn est un estimateur sans biais de θ ; mais on peut se contenter de E(Tn) n grand → θ La variance de l’estimateur diminue avec le nombre de répétitions : V (Tn) n grand → 0 (UPV) StatL3S6 2013/2014 9 / 75 Exemple : dans la cas de n répétitions indépendantes X1, X2, . . . , Xn d’une même expérience aléatoire X telle que E(X) = µ et V (X) = σ2. Si µ est inconnu ; la moyenne X = 1 n n X i=1 Xi est un estimateur sans biais de µ ; ˆ µ. Si µ est connu et σ2 inconnu ; la moyenne des dispersions 1 n n X i=1 (Xi −µ)2 est un estimateur sans biais de σ2 ; noté ˆ σ2 µ. Si µ est inconnu et σ2 inconnu ; la variance empirique 1 n n X i=1 (Xi −X)2 est un estimateur biaisé de σ2 ; noté ˆ σ2. Si µ est inconnu et σ2 inconnu ; 1 n −1 n X i=1 (Xi −X)2 est un estimateur sans biais de σ2 ; noté ˆ σ2 SB . (UPV) StatL3S6 2013/2014 10 / 75 Exercice 1 : On suppose avoir observé n variables aléatoires Y1, Y2, ...Yn et on propose 3 estimateurs d’un paramètre θ : T1, T2, T3 ayant les propriétés suivants ( λ est un autre paramètre inconnu) : E(T1) = θ + λ et V (T1) = (θ ∗λ)/n E(T2) = θ + λ/n et V (T2) = (θ ∗λ)/n E(T3) = θ et V (T3) = λ Donner les propriétés : de biais ( "estimateur sans biais" ; "son biais diminue quand n, le nombre d’observations grandit") et de variance ("sa variance diminue quand n, le nombre d’observations grandit") Lequel des 3 est il raisonnable de garder ? (UPV) StatL3S6 2013/2014 11 / 75 La loi de bernoulli et le sondage Soit X une expérience aléatoire à 2 états (codés 1/0) : X ∼Ber(p) P(X = 1) = p ; P(X = 0) = 1 −p • son espérance mathématique E(X) = p • sa variance V (X) = p(1 −p) et son écart-type p p(1 −p) La moyenne de loi de Bernoulli (de n répétitions indépendantes) : X = 1 n n X i=1 Xi • son espérance mathématique est : E(X) = p . • sa variance V (X) = p(1 −p) n et son écart-type σ(X) = r p(1 −p) n (UPV) StatL3S6 2013/2014 12 / 75 La loi des grands nombres pour la loi de Bernoulli Soient X1, X2, . . . , Xn n répétitions indépendantes d’une même expérience aléatoire de Bernoulli (P(X = 1) = p)) alors : La proportion de 1 est aussi proche que possible de p à condition que n soit grand X = 1 n n X i=1 Xi n grand → p (UPV) StatL3S6 2013/2014 13 / 75 Estimation ponctuelle Soient X1, X2, . . . , Xn n répétitions indépendantes d’une même expérience aléatoire de Bernoulli (P(X = 1) = p) , p paramètre inconnu) alors : • La variable aléatoire X (ici la proportion ou la fréquence de 1) sera donc un Estimateur sans biais du paramètre p ; ˆ p = X. • Après avoir effectué le sondage, la valeur prise par X et notée x sera donc une estimation du paramètre p. • En pratique on a toujours le même Estimateur du paramètre inconnu p ; mais chaque sondage pratiqué amène une estimation différente de ce paramètre. (UPV) StatL3S6 2013/2014 14 / 75 Théorème central limite et estimation par intervalle Variable centrée, réduite : définition • variable centrée : X −E(X) • variable centrée, réduite : X−E(X) σ(X) Une variable centrée réduite a pour espérance 0 et écart-type 1 Pour la moyenne de n répétitions indépendantes d’une même expérience aléatoire d’espérance µ et de variance σ2 alors X−µ r σ2 n est une variable centrée réduite Pour la moyenne de répétitions de même loi de Bernoulli indépendantes : X−p r p(1 −p) n est une variable centrée réduite (UPV) StatL3S6 2013/2014 15 / 75 Théorème central limite Soient X1, X2, . . . , Xn n répétitions indépendantes d’une même expérience aléatoire alors : La moyenne se comporte comme une loi normale à condition que n soit grand donc centrée et réduite se comporte comme une N (0,1) X −µ r σ2 n n grand → N(0, 1) (UPV) StatL3S6 2013/2014 16 / 75 Le sondage Soient X1, X2, . . . , Xn n répétitions indépendantes d’une même expérience aléatoire de Bernoulli (P(X = 1) = p)) alors : La proportion de 1 se comporte comme une loi normale à condition que n soit grand donc centrée et réduite se comporte comme une N (0,1) X −p r p(1 −p) n n grand → N(0, 1) (UPV) StatL3S6 2013/2014 17 / 75 Notion élémentaire d’intervalle de dispersion On cherche à construire un intervalle de grande probabilité de la réalisation d’une expérience aléatoire dont la loi de probabilité est connue. Pour cela on se fixe une faible probabilité α, (en pratique α vaut 1%, 5% parfois 10%, 0.1% et on construit un Intervalle de dispersion de probabilité 1-α (l’expérience aléatoire a une probabilité 1-α de se réaliser dans l’intervalle. Exemple 1 : si on jette 500 fois une même pièce, on cherche l’intervalle de dispersion à 95% du nombre de faces. P(Nfaces ∈[B1, B2]) = 95% Est ce [220 , 280] ? ou alors [240 , 260], ou alors [180 uploads/Litterature/ psycho-slides-stat-l3-s6.pdf

  • 53
  • 0
  • 0
Afficher les détails des licences
Licence et utilisation
Gratuit pour un usage personnel Attribution requise
Partager