NoteTD IV : Espérance conditionnelle/Catactérisations
  • 29 Septembre 2025-2 octobre 2025

  • Master I ISIFAR

  • Probabilités

NoteConventions

Dans les 3 exercices qui suivent, \(X_1, \ldots, X_n, ...\) constituent une famille indépendante de variables aléatoires identiquement distribuées à valeur dans \(\{-1,1\}\).

L’univers des possibles est \(\Omega = \{-1,1\}^{\mathbb{N}}\). Les \(X_i\) sont les projections canoniques.

On note \(\mathcal{F}_n\) la tribu engendrée par les \(n\) premières coordonnées :

\[ \mathcal{F}_n = \sigma(X_1, \ldots, X_n) \, \]

L’univers est muni de la tribu des cylindres \(\mathcal{F} = \sigma\left(\bigcup_n \mathcal{F}_n\right)\).

On note \(\Delta\) une constante à valeur dans \((0,1)\) (la dérive de la marche aléatoire).

On note \(\mathbb{P}\) la loi produit infini, telle que pour tout \(x \in \{-1, 1\}^n\)

\[ \mathbb{P}\left\{\bigwedge_{i=1}^n X_i = x_i\right\} = \prod_{i=1}^n \frac{1}{2}\left(1 + x_i \Delta\right) \]

On étudie la marche alétoire sur \(\mathbb{Z}\) de dérive \(\Delta\).

On note \(S_n = \sum_{i=1}^n X_i\).

L’indice \(n\) représente le temps, \(S_n\) la position à l’instant \(n\).

Exercice 1 (Marches aléatoires biaisées i)  

  1. Quelle est la loi de \(S_n\) ?
  2. \(S_n\) est-elle \(\mathcal{F}_n, \mathcal{F}_{n-1}, \mathcal{F}_{n+1}\) mesurable ?
  3. Quelle est l’espérance de \(S_n\) ?
  4. Quelle est la variance de \(S_n\) ?
NoteOn admettra l’inégalité de Hoeffding:

Si \(Y_1, \ldots, Y_n\) sont des variables aléatoires indépendantes telles que \(a_i \leq Y_i \leq b_i\) (les \(Y_i\) sont bornées), alors

\[ P \left\{ Z - \mathbb{E} Z \geq t \right\} \leq \mathrm{e}^{- 2 \frac{t^2}{\sum_{i=1}^n (b_i-a_i)^2}} \]

avec \(Z = \sum_{i=1}^n Y_i\).

Exercice 2 (Marches aléatoires biaisées ii)  

Pour \(0 \leq \tau \leq n \Delta\),

  1. Majorer \(\mathbb{P}\{ S_n \leq \tau \}\) à l’aide de l’inégalité de Chebyshev
  2. Majorer \(\mathbb{P}\{ S_n \leq \tau \}\) à l’aide de l’inégalité de Hoeffding
  3. L’ensemble \[ E = \left\{ \omega : \forall n, S_n(\omega) < \tau \right\} \] appartient-il à la tribu \(\mathcal{F}_m\) pour un \(m\) donné ? est-il un événement de \(\mathcal{F}\) ?
  4. Si \(E\) est un événement, quelle est sa probabilité ?
NoteConvention

On suppose \(\tau \in \mathbb{N} ∖ \{0\}\).

On note \(T = \inf \left\{ n : S_n \geq \tau \right\}\). Si \(\forall n, \quad S_n(\omega)< \tau\), alors \(T(\omega) = \infty\).

On note \(S_T\), la fonction définie par \[ S_T(\omega) = \sum_{n=1}^\infty \mathbb{I}_{T(\omega)=n} S_n(\omega)\qquad \text{si } T(\omega) < \infty \] et \(S_T(\omega) =0\) si \(T(\omega) =\infty\).

Exercice 3 (Marches aléatoires biaisées iii)  

  1. Pourquoi peut-on considérer que \(T\) est une variable aléatoire (à valeur dans \(\mathbb{N} \cup \{\infty\}\)) ?
  2. Quelle est la probabilité que \(T = \infty\) ?
  3. L’événement \(\{ T \leq n \}\) est-il \(\mathcal{F}_{n-1}, \mathcal{F}_n, \mathcal{F}_{n+1}\) mesurable ?
  4. Pourquoi peut-on considérer que \(S_T\) est une variable aléatoire ?
  5. Quelle est l’espérance de \(S_T\) ?
  6. Montrer que \(\mathbb{E} S_T = \Delta \mathbb{E} T\) En déduire \(\mathbb{E} T\).

Exercice 12 (Binomiale négative) Les variables \(X_1, ::: X_2, \ldots, X_n, \ldots\) sont des variables de Bernoulli de probabilité de succès \(p \in (0,1)\), indépendantes. On définit \(T_1 = \min \{i : X_i=1\}\) (temps du premier succès), \(T_2 = \min \{i : i > T_1, X_i=1\}\) (temps du premier succès après \(T_1\)), et récursivement \(T_{n+1} = \min \{ i : i > T_n, X_i =1\}\) (temps du \(n+1\)eme succès).

On admet l’existence d’un espace de probabilité \((\Omega, \mathcal{F}, P)\)\(\Omega = \{0,1\}^{\mathbb{N}}\), \(\mathcal{F}\) est une tribu pour laquelle les \(X_i\) sont mesurables, et \(P\) tel que \(X_1, \ldots, X_n, \ldots\) est une famille indépendante.

  1. \(T_1\) et plus généralement \(T_n\) sont-elles des variables aléatoires?
  2. Calculer \(P \{ T_1 > k \}\) pour \(k \in \mathbb{N}\).
  3. Calculer \(P \{ T_1 = k \}\) pour \(k \in \mathbb{N}\)
  4. Calculer \(\mathbb{E}T_1\).
  5. Calculer \(P \{ T_1 = k \wedge T_2 = k+j\}\) pour \(k, j \in \mathbb{N}\)
  6. Calculer \(P \{ T_2 = k \}\) pour \(k \in \mathbb{N}\)
  7. Calculer \(\mathbb{E}T_2\)
  8. Calculer \(\mathbb{E} T_n\)

Exercice 4 (Allocations aléatoires)  

On dispose de \(n\) urnes numérotées de \(1\) à \(n\) et de \(n\) boules. Les boules sont réparties de manière uniforme dans les urnes (chaque boule se comporte de manière indépendante des autres et a probabilité \(1/n\) de tomber dans chaque urne). On note \(U_i\) la variable aléatoire désignant le nombre de boules qui tombent dans l’urne \(i\). Dans la suite \(\alpha >1\) est un réel.

  1. Déterminer la loi de \(U_i\).
  2. Montrer que l’on a : \[\mathbb{P}( \max_{1 \leq i \leq n} U_i > \alpha \ln n) \leq n \mathbb{P}( U_1 > \alpha \ln n).\]
  3. Calculer \(\mathbb{E}(\exp(U_1))\).
  4. Montrer que pour tout \(\beta > -n\), on a \((1+\beta/n)^n \leq \exp(\beta)\).
  5. Montrer que \(\mathbb{P}(U_1 > \alpha \ln n) \leq \frac{\exp(\exp(\alpha)-1)}{n^\alpha}\).
  6. En déduire que si \(\alpha >1\), on a \[\mathbb{P}( \max_{1 \leq i \leq n} U_i > \alpha \ln n) \rightarrow_{n \rightarrow \infty} 0.\]

Exercice 5 (Restitution Organisée de Connaissances)  

  • Soient \(A, B, C\) trois événements dans un espace probabilisé. A-t-on toujours: \(A \perp\!\!\!\perp B \text{ et } B \perp\!\!\!\perp C \Rightarrow A \perp\!\!\!\perp C\)?

  • Soient \(P\) et \(Q\) deux lois de probabilités sur \((\Omega, \mathcal{F})\), on définit l’ensemble \(\mathcal{M} = \big\{ A : A \in \mathcal{F}, P(A)=Q(A)\}\). Répondre par vrai/faux/je ne sais pas aux questions suivantes:

    1. \(\mathcal{M}\) est-il toujours une classe monotone ?
    2. \(\mathcal{M}\) est-il toujours une \(\sigma\)-algèbre ?
    3. \(\mathcal{M}\) est-il toujours une \(\pi\)-classe ?
  • Soient \(G\) et \(F\) sont deux fonctions génératrices de probabilité. Répondre par vrai/faux aux questions suivantes:

    1. Est-il vrai que \(G \times F\) est toujours une fonction génératrice ?
    2. Est-il vrai que \(G + F\) est toujours une fonction génératrice de probabilité ?
    3. Est-il vrai que \(\lambda G + (1-\lambda) F\) avec \(\lambda \in [0,1]\) est toujours une fonction génératrice de probabilité ?
  • Si \(\widehat{F}\) est la fonction caractéristique de la loi de \(X\), et si \(\epsilon \perp\!\!\!\perp X\), avec \(P\{\epsilon=1\}= P\{\epsilon=-1\}=1/2\), quelle est la fonction caractéristique de la loi de \(\epsilon X\)?

Exercice 6 (Distributions biaisées par la taille)  

Si \(X\) est une variable aléatoire positive intégrable, la version biaisée par la taille de \(X\) est la variable aléatoire \(X^*\) dont la loi \(Q\) est absolument continue par rapport à celle de \(X\) (notée \(P\)) et dont la densité (par rapport à celle de \(X\)) est proportionnelle à \(X\): \[ \frac{\mathrm{d}Q}{\mathrm{d}P}(x) = \frac{x}{\mathbb{E}X} \, . \]

  1. Caractériser \(X^*\) lorsque \(X\) est une Bernoulli.
  2. Caractériser \(X^*\) lorsque \(X\) est binomiale.
  3. Caractériser \(X^*\) lorsque \(X\) est Poisson.
  4. Caractériser \(X^*\) lorsque \(X\) est Gamma.
  5. Si \(X\) est à valeurs entières, exprimer la fonction génératrice de \(X^*\) en fonction de celle de \(X\).
  6. Exprimer la transformée de Laplace de \(X^*\) en fonction de celle de \(X\).
  7. Si \(U\) est une transformée de Laplace, dérivable à droite en \(0\), \(U'/U'(0)\) est-elle la transformée de Laplace d’une loi sur \([0, \infty)\)?

Exercice 7 (Amies des gaussiennes)  

NoteRappel

La loi normale centrée réduite \(\mathcal{N}(0,1)\) admet pour densité \(x\mapsto \frac{1}{\sqrt{2\pi}} \exp\left(-\frac{x^2}{2}\right)\),

  • Si \(X \sim \mathcal{N}(0,1)\), donner une densité de la loi de \(Y=\exp(X)\) (Loi log-normale). Calculer l’espérance et la variance de \(Y\).
  • Même question si \(X \sim \mathcal{N}(\mu, \sigma^2)\).
  • Si \(X, Y \sim \mathcal{N}(0,1)\), avec \(X \perp\!\!\!\perp Y\), donner une densité de la loi de \(Z=Y/X\) (Loi de Student à 1 degré de liberté)
  • Si \(X, Y \sim \mathcal{N}(0,1)\), avec \(X \perp\!\!\!\perp Y\), donner une densité de la loi de \(W = Y/ \sqrt{X^2}\).
  • Si \(X \sim \mathcal{N}(0,1)\) et \(\epsilon\) vaut \(\pm 1\) avec probabilité \(1/2\) (variable de Rademacher) avec \(X \perp\!\!\!\perp \epsilon\), donner une densité de la loi de \(Y = \epsilon X\). \(Y\) et \(X\) sont-elles indépendantes ?

Exercice 8  

Exercice 9 (Principe de réflexion)  

Principe de réflexion

Dans cet exercice, \(X_1, X_2, \ldots\) sont des variables de Rademacher indépendantes (\(P\{X_i = \pm 1\} = \frac{1}{2}\)), \(S_n =\sum_{i=1}^n X_i, S_0=0\) et \(M_n = \max_{k \leq n} S_n\).

Montrer que, pour \(a> 0\),

\[P\left\{ M_n > a \right\}\leq 2 P\left\{ S_n > a \right\}\]

NoteStatistique des rangs/Statistiques d’ordre

Les statistiques d’ordre \(X_{1:n}\leq X_{2:n}\leq X_{n:n}\) d’un \(n\)-échantillon \(X_1,\ldots,X_n\) d’observations indépendantes identiquement distribuées sont formées par le réarrangement croissant (convention) de l’échantillon.

Quand \(n\) est clair d’après le contexte on peut les noter \(X_{(1)} \leq \ldots \leq X_{(n)}\).

Exercice 11 (Statistiques d’ordre)  

  1. Vérifier que la l::: oi jointe des statistiques d’ordre est absolument continue par rapport à la loi de l’échantillon.

  2. On suppose que \(X\) est une variable aléatoire réelle, absolument continue, de densité continue. Montrer que l’échantillon est presque sûrement formé de valeurs deux à deux distinctes.

  3. Donner la densité de la loi jointe des statistiques d’ordre.

  4. Si la loi des \(X_i\) définie par sa fonction de répartition \(F\), admet une densité \(f\), quelle est la densité de la loi de \(X_{k:n}\) pour \(1\leq k\leq n\) ?

  5. Montrer que conditionnellement à \(X_{k:n}=x\), la suite

    \[(X_{i:n}-X_{k:n})_{i=k+1,\ldots, n}\]

    est distribuée comme les statistiques d’ordre d’un \(n-k\) échantillon de la loi d’excès au dessus de \(x\) (fonction de survie \(\overline{F}(x+\cdot)/\overline{F}(x))\) avec la convention \(\overline{F}=1-F\)).

(Représentation de Rényi)

Exercice 10 (Statistiques d’ordre d’un échantillon exponentiel) Cet exercice reprend::: les conventions de l’exercice précédent. On s’intéresse maintenant aux statistiques d’ordre d’un échantillon exponentiel.

  1. Si \(X_1,\ldots,X_n\) est un échantillon i.i.d. de la loi exponentielle d’espérance \(1\) (densité \(\mathbb{I}_{x>0} \mathrm{e}^{-x}\)), et \(X_{n:n}\geq X_{n-1:n}\geq \ldots \geq X_{1:n}\) les statistiques d’ordre associées, montrer que:

  2. avec la convention \(X_{0:n}=0\), les écarts \((X_{i:n}-X_{i-1:n})_{1\leq i\leq n}\) (spacings) forment une collection de variables aléatoires indépendantes ;

  3. \(X_{i:n}-X_{i-1:n}\) est distribuée selon une loi exponentielle d’espérance \(\tfrac{1}{i}\) .

  4. Maintenant \((k_n)_n\) est une suite croissante d’entiers qui tend vers l’infini, telle que \(k_n/n\) tend vers une limite finie (éventuellement nulle). Montrer que

    \[\frac{X_{k_n:n} -\mathbb{E} X_{k_n:n} }{\sqrt{\operatorname{var}(X_{k_n:n} )}}\]

    converge en loi vers une Gaussienne centrée réduite.