U.S.T.H.B. M1 MF Faculté de Mathématiques Statistique Inférentielle. Chapitre1

U.S.T.H.B. M1 MF Faculté de Mathématiques Statistique Inférentielle. Chapitre1 : Rappels et compléments 1 Variables aléatoires, loi de probabilité Dé nition 1 : Soient (Ω, F) et (∆, T ) deux espaces mesurables et X une application mesurable de (Ω, F) dans (∆, T ) : X : Ω − → ∆ ω ⇝ X(ω) 1. On dit que X est une variable aléatoire (v.a.) si ∀B ∈T , X−1(B) = {ω ∈Ω/X(ω) ∈B} ∈F 2. Si ∆est discret ( ni ou in ni dénombrable) alors X est dite discrète. 3. Si ∆= R, X sera dite réelle. On prendra alors T = BR la tribu des boréliens de R 4. Si ∆= Rd, X sera appelé vecteur aléatoire. On prendra alors T = BRd Dé nition 2 : Soit (Ω, B, P) un espace probabilisé et X une v.a. sur (Ω, B). L'application PX : B − → [0, 1] B ⇝ PX(B) = P X−1(B)  est une mesure de probabilité sur (R, BR) appelée Loi de probabilité de X. Dé nition 3 : Soit (Ω, B, P) un espace de probabilités et X : Ω− →R une variable aléatoire réelle (V.A.R). On appelle fonction de répartition de X, la fonction réelle F : R − → [0, 1] x ⇝ F(x) = P(X ≤x) = PX(] −∞, x ]) Proposition 1. La fonction de répartition F d'une v.a. r. X satisfait aux proporiétés suivantes : 1. F est croissante (au sens large). 2. F est continue à droite en tout point x ∈R. 3. Lim x→−∞F(x) = 0 et Lim x→+∞F(x) = 1 Preuve Exercice Z. Guessoum ... Page 1 ... Remarque 1. Lorsqu'une fonction F satisfait les 3 propriétés précédentes alors F est forcément la fonction de répartition d'une certaine variable aléatoire. Proposition 2. À toute fonction de répartition F correspond une et une seule mesure de proba- bilité P sur (R, BR) véri ant PX(] −∞, x ]) = F(x), ∀xR. En plus clair la proposition précédente est équivalente à : Si X et Y sont deux v.a. r. de fonctions de répartition respectives FX et FY , alors PX = PY ⇐ ⇒FX = FY . Dé nition 4 Soit (Ω, B, P) un espace de probabilités tel que Ω= {x0, x1, ..., xp, ...}. La loi de probabilité d'une v.a. discrète est caractérisée par : ∀B ∈B, P(X ∈B) = X xi∈B P(X = xi) Exemple : Un dé à 6 faces comporte 2 faces numérotées 2, 2 faces numérotées 3, 1 face numérotée 1 et 1 face numérotée 4. Soit X la v.a. égale au numéro de la face obtenue. Alors X(Ω) = {1, 2, 3, 4}. P(X = 1) = 1 6 P(X = 2) = 2 6 P(X = 3) = 2 6 P(X = 4) = 1 6 F(x) =                0 x < 1 1/6 1 ≤x < 2 3/6 2 ≤x < 3 5/6 3 ≤x < 4 1 x ≥4 Dé nition 5 : Une v.a.r. X de fonction de répartition F est dite absolument continue s'il existe une foncion f : R − →R+ telle que F(x) = Z x −∞ f(t)dt, pour tout x ∈R f est appelée densité de probabilité de X. Remarque 2. Pour montrer qu'une fonction f est une densité de probabilité il su t de montrer que f est ≥0, que R +∞ −∞f(x)dx = 1 et que f est continue sauf peut-être en un nombre ni de points où elle admet une limite à droite et une limite à gauche. Exemple : f(x) = a π 1 a2 + x2, a > 0 On a que f est continue sur R. f(x) ≥0, (en fait elle est strictement positive) et Z +∞ −∞ f(x)dx = a π Z +∞ −∞ 1 a2 + x2dx = 2a π Z +∞ 0 1 a2 + x2dx = 2a π 1 aArctg  x a  +∞ 0 = 2a π π 2a = 1 f(x) est donc une densité d'une certaine v.a.r. X absolument continue. On dit que X suit la loi de Cauchy de paramètre a. Z. Guessoum ... Page 2 ... 2 vecteurs aléatoire, loi de probabilité Dé nition 6 Soit X = (X1, X2, ..., Xn) un vecteur aléatoire sur (Rn, BRn, P). Sa fonction de répartition F est dé ne par F(x1, x2, ..., xn) = P(X1 ≤x1, X2 ≤x2, ..., Xn ≤xn) On l'appelle aussi fonction de répartition conjointe. Propriétés : 1. F est croissante et continue à droite par rapport à chacun de ses arguments. 2. Si il existe i ∈{1, ..., n} tel que xi →−∞alors lim xi→−∞F(x1, ..., xi, ..., xn) = 0 3. Si xi →+∞∀i = 1, ..., n alors lim xi→−∞,∀iF(x1, ..., xi, ..., xn) = 1 Dé nition 7 Soit X = (X1, X2, ..., Xn) un vecteur aléatoire sur (Rn, BRn, P). Soit PX sa loi de probabilité conjointe. On dit que le vecteur X est absolument continu s'il existe une fonction f : Rn − →R+ telle que : ∀B ∈BRn : PX(B) = Z B f(x1, ..., xn)dx1...dxn = Z Rn f(x1, ..., xn)IB(x1, ..., xn)dx1...dxn f est appelée densité de probabilité du vecteur X. Propriétés : 1. f ≥0. 2. R Rn f(x1, ..., xn)dx1...dxn = 1 3. La fonction de répartition conjointe F peut-être représentée par : F(x1, x2, ..., xn) = Z x1 −∞ Z x2 −∞ ... Z xn −∞ f(t1, t2, ..., tn)dt1dt2...dtn Proposition 3. Si le vecteur aléatoire X = (X1, X2, ..., Xn) est absolument continu alors les variables aléatoires marginales Xi, i = 1, ..., n sont absolument continues de densité : fXi(xi) = Z Rn−1 f(x1, ..., xi, ...xn)dx1...dxi−1dxi+1...dxn (1) Dé nition 8 Soit X1, ..., Xn une suite de v.a.r. dé nies sur (Ω, B, P). On dit que les v.a. X1, ..., Xn sont indé- pendantes si ∀A1 ∈B, ..., ∀An ∈B, P(X1 ∈A1, ..., Xn ∈An) = n Y i=1 P(Xi ∈Ai) Z. Guessoum ... Page 3 ... Proposition 4. On a les équivalences suivantes : 1. les n v.a. X1, X2, ..., Xn sont indépendantes 2. F(x1, ..., xn) = n Q i=1 FXi(xi), ∀(x1, ...xn) ∈Rn 3. Si h1, ..., hn sont des fonctions mesurables sur R alors h1(X1), ..., hn(Xn) sont indépendantes 4. Si de plus les variables X1, X2, ..., Xn sont absolument continues alors f(x1, ..., xn) = n Y i=1 fXi(xi), ∀(x1, ...xn) ∈Rn 3 Esperance mathématique, Variance, Moment d'ordre k Dé nition 9 Une v.a.r. dé nie sur (Ω, B, P) admet une espérance mathématique si elle est intégrable par rapport à P c'est-à-dire si R Ω|X(ω)| dP(ω) < +∞. Posons alors E(X) = R ΩX(ω)dP(ω), E(X) est appelée espérance mathématique de X. En pratique : E(X) =    P i≥0 xiP(X = xi) si X est discrete R R xf(x)dx si X est absolument continue Propriétés : 1. ∀a ∈R, E(a) = a 2. ∀a, b ∈R, E(aX + b) = aE(X) + b (linéarité) 3. X ≥0 = ⇒E(X) ≥0 4. Soit g une fonction mesurable sur R E(g(X)) =    P i≥0 g(xi)P(X = xi) si X est discrete R R g(x)f(x)dx si X est absolument continue 5. Si X et Y sont indépendantes alors E(XY ) = E(X)E(Y ). Dé nition 10 1. Soit X une v.a.r. sur (Ω, B, P) telle que X soit intégrable par rapport à P. Si X2 est P- intégrable alors la quantité var(X) = E(X2) −E2(X) est appelée variance de X. 2. La quantité p var(X) est appelée écart-type de X. Z. Guessoum ... Page 4 ... 3. Soient X et Y deux v.a.r. sur (Ω, B, P) telles que X et Y soient intégrables par rapport à P. La quantité cov(X, Y ) = E(XY ) −E(X)E(Y ) est appelée covariance entre X et Y . Propriétés : 1. var(X) = E (X −E(X))2 2. var(aX + b) = a2var(X) (invariance) 3. cov(X, Y ) = cov(Y, X) 4. Si X et Y sont indépendantes alors cov(X, Y ) = 0 5. Si X et Y sont indépendantes alors var(X + Y ) = var(X)+var(Y) Dé nition 11 Soit X une v.a.r. sur (Ω, B, P) telle que Xk (k ≥1) soit intégrable par rapport à P. 1. La quantité mk = E(Xk) est appelée moment d'ordre k de la v.a.r. X 2. La quantité µk = E (X −E(X))k est appelée moment centrée d'ordre k de X. Dé nition 12 Soit X = (X1, ..., Xn) un vecteur aléatoire sur (Rn, BRn, P) 1. L'esperance mathématique de X est donnée par : E(X) = (E(X1), ..., E(Xn))t 2. Si E(X) existe, on appelle matrice de variance covariance, la matrice : ΣX = E  (X −E(X))t (X −E(X))  =      var(X1) cov(X1, X2) · · · cov(X1, Xn) cov(X2, X1) var(X2) · uploads/Philosophie/ chap-1-mf-1-2020-2021.pdf

  • 42
  • 0
  • 0
Afficher les détails des licences
Licence et utilisation
Gratuit pour un usage personnel Attribution requise
Partager