Exercice 1 (Marches aléatoires biaisées i)
- Quelle est la loi de \(S_n\) ?
- \(S_n\) est-elle \(\mathcal{F}_n, \mathcal{F}_{n-1}, \mathcal{F}_{n+1}\) mesurable ?
- Quelle est l’espérance de \(S_n\) ?
- Quelle est la variance de \(S_n\) ?
Exercice 2 (Marches aléatoires biaisées ii)
Pour \(0 \leq \tau \leq n \Delta\),
- Majorer \(\mathbb{P}\{ S_n \leq \tau \}\) à l’aide de l’inégalité de Chebyshev
- Majorer \(\mathbb{P}\{ S_n \leq \tau \}\) à l’aide de l’inégalité de Hoeffding
- L’ensemble \[ E = \left\{ \omega : \forall n, S_n(\omega) < \tau \right\} \] appartient-il à la tribu \(\mathcal{F}_m\) pour un \(m\) donné ? est-il un événement de \(\mathcal{F}\) ?
- Si \(E\) est un événement, quelle est sa probabilité ?
Exercice 3 (Marches aléatoires biaisées iii)
- Pourquoi peut-on considérer que \(T\) est une variable aléatoire (à valeur dans \(\mathbb{N} \cup \{\infty\}\)) ?
- Quelle est la probabilité que \(T = \infty\) ?
- L’événement \(\{ T \leq n \}\) est-il \(\mathcal{F}_{n-1}, \mathcal{F}_n, \mathcal{F}_{n+1}\) mesurable ?
- Pourquoi peut-on considérer que \(S_T\) est une variable aléatoire ?
- Quelle est l’espérance de \(S_T\) ?
- Montrer que \(\mathbb{E} S_T = \Delta \mathbb{E} T\) En déduire \(\mathbb{E} T\).
Exercice 12 (Binomiale négative) Les variables \(X_1, ::: X_2, \ldots, X_n, \ldots\) sont des variables de Bernoulli de probabilité de succès \(p \in (0,1)\), indépendantes. On définit \(T_1 = \min \{i : X_i=1\}\) (temps du premier succès), \(T_2 = \min \{i : i > T_1, X_i=1\}\) (temps du premier succès après \(T_1\)), et récursivement \(T_{n+1} = \min \{ i : i > T_n, X_i =1\}\) (temps du \(n+1\)eme succès).
On admet l’existence d’un espace de probabilité \((\Omega, \mathcal{F}, P)\) où \(\Omega = \{0,1\}^{\mathbb{N}}\), \(\mathcal{F}\) est une tribu pour laquelle les \(X_i\) sont mesurables, et \(P\) tel que \(X_1, \ldots, X_n, \ldots\) est une famille indépendante.
- \(T_1\) et plus généralement \(T_n\) sont-elles des variables aléatoires?
- Calculer \(P \{ T_1 > k \}\) pour \(k \in \mathbb{N}\).
- Calculer \(P \{ T_1 = k \}\) pour \(k \in \mathbb{N}\)
- Calculer \(\mathbb{E}T_1\).
- Calculer \(P \{ T_1 = k \wedge T_2 = k+j\}\) pour \(k, j \in \mathbb{N}\)
- Calculer \(P \{ T_2 = k \}\) pour \(k \in \mathbb{N}\)
- Calculer \(\mathbb{E}T_2\)
- Calculer \(\mathbb{E} T_n\)
Exercice 4 (Allocations aléatoires)
On dispose de \(n\) urnes numérotées de \(1\) à \(n\) et de \(n\) boules. Les boules sont réparties de manière uniforme dans les urnes (chaque boule se comporte de manière indépendante des autres et a probabilité \(1/n\) de tomber dans chaque urne). On note \(U_i\) la variable aléatoire désignant le nombre de boules qui tombent dans l’urne \(i\). Dans la suite \(\alpha >1\) est un réel.
- Déterminer la loi de \(U_i\).
- Montrer que l’on a : \[\mathbb{P}( \max_{1 \leq i \leq n} U_i > \alpha \ln n) \leq n \mathbb{P}( U_1 > \alpha \ln n).\]
- Calculer \(\mathbb{E}(\exp(U_1))\).
- Montrer que pour tout \(\beta > -n\), on a \((1+\beta/n)^n \leq \exp(\beta)\).
- Montrer que \(\mathbb{P}(U_1 > \alpha \ln n) \leq \frac{\exp(\exp(\alpha)-1)}{n^\alpha}\).
- En déduire que si \(\alpha >1\), on a \[\mathbb{P}( \max_{1 \leq i \leq n} U_i > \alpha \ln n) \rightarrow_{n \rightarrow \infty} 0.\]
Exercice 5 (Restitution Organisée de Connaissances)
Soient \(A, B, C\) trois événements dans un espace probabilisé. A-t-on toujours: \(A \perp\!\!\!\perp B \text{ et } B \perp\!\!\!\perp C \Rightarrow A \perp\!\!\!\perp C\)?
Soient \(P\) et \(Q\) deux lois de probabilités sur \((\Omega, \mathcal{F})\), on définit l’ensemble \(\mathcal{M} = \big\{ A : A \in \mathcal{F}, P(A)=Q(A)\}\). Répondre par vrai/faux/je ne sais pas aux questions suivantes:
- \(\mathcal{M}\) est-il toujours une classe monotone ?
- \(\mathcal{M}\) est-il toujours une \(\sigma\)-algèbre ?
- \(\mathcal{M}\) est-il toujours une \(\pi\)-classe ?
Soient \(G\) et \(F\) sont deux fonctions génératrices de probabilité. Répondre par vrai/faux aux questions suivantes:
- Est-il vrai que \(G \times F\) est toujours une fonction génératrice ?
- Est-il vrai que \(G + F\) est toujours une fonction génératrice de probabilité ?
- Est-il vrai que \(\lambda G + (1-\lambda) F\) avec \(\lambda \in [0,1]\) est toujours une fonction génératrice de probabilité ?
Si \(\widehat{F}\) est la fonction caractéristique de la loi de \(X\), et si \(\epsilon \perp\!\!\!\perp X\), avec \(P\{\epsilon=1\}= P\{\epsilon=-1\}=1/2\), quelle est la fonction caractéristique de la loi de \(\epsilon X\)?
Exercice 6 (Distributions biaisées par la taille)
Si \(X\) est une variable aléatoire positive intégrable, la version biaisée par la taille de \(X\) est la variable aléatoire \(X^*\) dont la loi \(Q\) est absolument continue par rapport à celle de \(X\) (notée \(P\)) et dont la densité (par rapport à celle de \(X\)) est proportionnelle à \(X\): \[ \frac{\mathrm{d}Q}{\mathrm{d}P}(x) = \frac{x}{\mathbb{E}X} \, . \]
- Caractériser \(X^*\) lorsque \(X\) est une Bernoulli.
- Caractériser \(X^*\) lorsque \(X\) est binomiale.
- Caractériser \(X^*\) lorsque \(X\) est Poisson.
- Caractériser \(X^*\) lorsque \(X\) est Gamma.
- Si \(X\) est à valeurs entières, exprimer la fonction génératrice de \(X^*\) en fonction de celle de \(X\).
- Exprimer la transformée de Laplace de \(X^*\) en fonction de celle de \(X\).
- Si \(U\) est une transformée de Laplace, dérivable à droite en \(0\), \(U'/U'(0)\) est-elle la transformée de Laplace d’une loi sur \([0, \infty)\)?
Exercice 7 (Amies des gaussiennes)
- Si \(X \sim \mathcal{N}(0,1)\), donner une densité de la loi de \(Y=\exp(X)\) (Loi log-normale). Calculer l’espérance et la variance de \(Y\).
- Même question si \(X \sim \mathcal{N}(\mu, \sigma^2)\).
- Si \(X, Y \sim \mathcal{N}(0,1)\), avec \(X \perp\!\!\!\perp Y\), donner une densité de la loi de \(Z=Y/X\) (Loi de Student à 1 degré de liberté)
- Si \(X, Y \sim \mathcal{N}(0,1)\), avec \(X \perp\!\!\!\perp Y\), donner une densité de la loi de \(W = Y/ \sqrt{X^2}\).
- Si \(X \sim \mathcal{N}(0,1)\) et \(\epsilon\) vaut \(\pm 1\) avec probabilité \(1/2\) (variable de Rademacher) avec \(X \perp\!\!\!\perp \epsilon\), donner une densité de la loi de \(Y = \epsilon X\). \(Y\) et \(X\) sont-elles indépendantes ?
Exercice 8
Exercice 9 (Principe de réflexion)
Principe de réflexion
Dans cet exercice, \(X_1, X_2, \ldots\) sont des variables de Rademacher indépendantes (\(P\{X_i = \pm 1\} = \frac{1}{2}\)), \(S_n =\sum_{i=1}^n X_i, S_0=0\) et \(M_n = \max_{k \leq n} S_n\).
Montrer que, pour \(a> 0\),
\[P\left\{ M_n > a \right\}\leq 2 P\left\{ S_n > a \right\}\]
Exercice 11 (Statistiques d’ordre)
Vérifier que la l::: oi jointe des statistiques d’ordre est absolument continue par rapport à la loi de l’échantillon.
On suppose que \(X\) est une variable aléatoire réelle, absolument continue, de densité continue. Montrer que l’échantillon est presque sûrement formé de valeurs deux à deux distinctes.
Donner la densité de la loi jointe des statistiques d’ordre.
Si la loi des \(X_i\) définie par sa fonction de répartition \(F\), admet une densité \(f\), quelle est la densité de la loi de \(X_{k:n}\) pour \(1\leq k\leq n\) ?
Montrer que conditionnellement à \(X_{k:n}=x\), la suite
\[(X_{i:n}-X_{k:n})_{i=k+1,\ldots, n}\]
est distribuée comme les statistiques d’ordre d’un \(n-k\) échantillon de la loi d’excès au dessus de \(x\) (fonction de survie \(\overline{F}(x+\cdot)/\overline{F}(x))\) avec la convention \(\overline{F}=1-F\)).
(Représentation de Rényi)
Exercice 10 (Statistiques d’ordre d’un échantillon exponentiel) Cet exercice reprend::: les conventions de l’exercice précédent. On s’intéresse maintenant aux statistiques d’ordre d’un échantillon exponentiel.
Si \(X_1,\ldots,X_n\) est un échantillon i.i.d. de la loi exponentielle d’espérance \(1\) (densité \(\mathbb{I}_{x>0} \mathrm{e}^{-x}\)), et \(X_{n:n}\geq X_{n-1:n}\geq \ldots \geq X_{1:n}\) les statistiques d’ordre associées, montrer que:
avec la convention \(X_{0:n}=0\), les écarts \((X_{i:n}-X_{i-1:n})_{1\leq i\leq n}\) (spacings) forment une collection de variables aléatoires indépendantes ;
\(X_{i:n}-X_{i-1:n}\) est distribuée selon une loi exponentielle d’espérance \(\tfrac{1}{i}\) .
Maintenant \((k_n)_n\) est une suite croissante d’entiers qui tend vers l’infini, telle que \(k_n/n\) tend vers une limite finie (éventuellement nulle). Montrer que
\[\frac{X_{k_n:n} -\mathbb{E} X_{k_n:n} }{\sqrt{\operatorname{var}(X_{k_n:n} )}}\]
converge en loi vers une Gaussienne centrée réduite.