22 Septembre 2025-26 Septembre 2025
Master I Isifar
Probabilités
Exercice 1 (Espérance conditionnelle/tribu atomique)
Espérance conditionnelle par rapport à une tribu engendrée par une partition dénombrable.
Soit \((A_n, n \in \mathbb{N}^*)\) une partition de \(\Omega\) et \(\mathcal{F}= \sigma(A_n, n \ge 1)\) la tribu engendrée par les \(A_n, n \ge 1\). Rappelons qu’une v.a.r. \(Y\) est \(\mathcal{F}\)-mesurable si et seulement si il existe une suite de réls \((a_n)\) telle que \(Y= \sum_{n \ge 1} a_n \mathbf{1}_{A_n}\). Exprimer \(\mathbb{E}[X \mid \mathcal{F}]\).
Soient \(X,Y\) deux variables i.i.d. \(\sim\) Ber\((p)\). On considère \(\mathcal{G} = \sigma(\{X+Y=0\})\). Calculer \(\mathbb{E}[X \mid \mathcal{G}], \mathbb{E}[Y\mid \mathcal{G}]\). Les variables obtenues sont-elles toujours indépendantes?
- Nécessairement \(Y:=\mathbb{E}[X \mid \mathcal{F}]\) est \(\mathcal{F}\)-mesurable et donc on peut le chercher sous la forme \(\sum_{n \ge 1} a_n \mathbb{I}_{A_n}\).
Comme \(A_n \in \mathcal{F}\) on doit nécessairement avoir de plus \[\mathbb{E}[X \mathbb{I}_{A_n}] = \mathbb{E}[Y \mathbb{I}_{A_n}] = a_n \mathbb{P}(A_n),\]
car \((A_n, n \ge 1)\) est une partition de \(\Omega\). On déduit que \[a_n = \frac{\mathbb{E}[X \mathbb{I}_{A_n}]}{ \mathbb{P}(A_n)}, \ n \ge 1.\]
et donc
\[\mathbb{E}[X \mid \mathcal{F}] = \sum_{n \ge 1} \frac{\mathbb{E}[X \mathbb{I}_{A_n}]}{ \mathbb{P}(A_n)} \mathbb{I}_{A_n}.\]
- On a \(\mathcal{G} = \{\emptyset, \{X = Y = 0\}, \{X=1\} \cup \{Y=1\}, \Omega\}\), et on est dans la situation précédente avec une partition à deux éléments non dégénérés \(A_1 = \{X=Y = 0\}, A_2 = A_1^c = \{X=1\} \cup \{Y=1\}\).
On a donc
\[\begin{align*}
\mathbb{E}[X \mid \mathcal{G}] & = \frac{\mathbb{E}[X \mathbb{I}_{A_1}]}{ \mathbb{P}(A_1)} \mathbb{I}_{A_1} + \frac{\mathbb{E}[X \mathbb{I}_{A_2}]}{ \mathbb{P}(A_2)} \mathbb{I}_{A_2} \\
& = \frac{2}{3} \mathbb{I}_{A_2}
\end{align*}\]
en utilisant que \(\mathbb{E}[X \mathbb{I}_{A_1}] =0, \mathbb{E}[X \mathbb{I}_{A_2}] = \frac{1}{2}, \mathbb{P}(A_2) = \frac{3}{4}\).
Par le même raisonnement (\(X\) et \(Y\) jouent des rôles symétriques)
\[\mathbb{E}[Y \mid \mathcal{G}] = \frac{2}{3} \mathbb{I}_{A_2}\]
On obtient que \(\mathbb{E}[X \mid \mathcal{G}] = \mathbb{E}[Y \mid \mathcal{G}] = \frac{2}{3} \mathbb{I}_{A_2}\), ces variables ne sont clairement pas indépendantes.
Exercice 2 (Conditionnement continu)
Soient \((X,Y)\) un couple de v.a. réelles intégrables de densité jointe \(f\), \(g : \mathbb{R}^2 \to \mathbb{R}\) borélienne telle que \(g(X,Y) \in \mathbb{L}^1\).
Rappeler l’expression de \(\phi, \psi\) telles que \[\mathbb{E}[g(X,Y)\mid Y] = \phi(Y), \quad \mathbb{E}[g(X,Y)|X] = \psi(X).\]
On considère \((X,Y)\) de densité jointe \(f(x,y)= \frac{1}{x} \mathbf{1}_{\{0 \le y \le x \le 1\}}.\) Quelle est la loi de \(X\)? Calculer la distribution conditionnelle \(f_{Y \mid X}\) de \(Y\) sachant \(X\). Calculer \(\mathbb{P}(X^2 +Y^2 \le 1 |X)\), puis en déduire \(\mathbb{P}(X^2+Y^2 \le 1)\).
Pour simplifier l’expression obtenue on pourra utiliser que \(x \to \sqrt{1-x^2} - \tanh^{-1}(\sqrt{1-x^2}) = \sqrt{1-x^2}-\frac{1}{2} \ln(1+\sqrt{1-x^2}) + \frac{1}{2} \ln(1-\sqrt{1-x^2})\) est une primitive de \(x \to \frac{\sqrt{1-x^2}}{x}\).
Dans le cas général, montrer que \(\mathbb{E}[\mathbb{E}[Y|X]] = \mathbb{E}[Y]\). Que vaut \(\mathbb{E}[Y]\) dans l’exemple de la question précédente?
Montrer, dans le cas général, que \[\mathbb{E}[\mathbb{E}[Y|X] g(X)] = \mathbb{E}[Yg(X)],\] pour toute fonction \(g\) telle que les deux espérances sont définies. Que vaut \(\mathbb{E}[Y g(X) \mid X]\)?
Lorsque \((X,Y)\) a densité jointe \(f\), rappelons que si on pose
\[
f_{Y \mid X}(y \mid x) = \begin{cases} \frac{f(x,y)}{f_X(x)} & \mbox{ si } f_X(x)>0 \\
0 & \mbox{ sinon} \end{cases}, \quad f_{X \mid Y}(x \mid y) = \begin{cases} \frac{f(x,y)}{f_Y(y)} & \mbox{ si } f_Y(y)>0 \\
0 & \mbox{ sinon} \end{cases},
\]
\[\phi(y) = \int_{\mathbb{R}} g(x,y) f_{X \mid Y}(x \mid y) dx \quad \ \psi(x) = \int_{\mathbb{R}} g(x,y) f_{Y \mid X}(y \mid x) dy,
\]
alors \[\mathbb{E}[g(X,Y) \mid Y]= \phi(Y), \qquad \mathbb{E}[g(X,Y) \mid X] = \psi(X).\]
Montrons par exemple la deuxième assertion : si \(A \in \sigma(X)\), i.e. il existe \(B \in \mathcal{B}(\mathbb{R})\) tel que \(A = X^{-1}(B),\) et \(\mathbb{I}_A(\omega) = \mathbb{I}_B(X(\omega))\), de sorte que (l’usage de Fubini à la troisième ligne ci-dessous est justifié car \((x,y) \to |g(x,y)|\mathbb{I}_B(x)\) est \(\mathbb{P}_{(X,Y)}\)-intégrable puisque \((x,y) \to |g(x,y)|\) l’est ) :
\[\begin{align*}
\mathbb{E}[g(X,Y) \mathbb{I}_A] & = \int_{\mathbb{R}^2} g(x,y) \mathbb{I}_B(x) f(x,y) dx dy \\
& = \int_{\mathbb{R}^2} g(x,y) f_{Y \mid X}(y \mid x) f_X(x) \mathbb{I}_B(x) dx dy \\
& = \int_{\mathbb{R}} \left(\int_{\mathbb{R}} g(x,y) f_{Y \mid X}(y \mid x)\right) \mathbb{I}_B(x) f_X(x) dx \\
& = \mathbb{E}[\psi(X) \mathbb{I}_B(X)] = \mathbb{E}[\psi(X) \mathbb{I}_A]
\end{align*}\]
comme souhaité.
\(X\) a densité a pour \(f_X\) avec \(f_X\) nulle en dehors de \([0,1]\) et
\[f_X(x) = \int_{\mathbb{R}} f(x,y) dy = \frac{1}{x} \int_{0}^x dy = 1, 0 \le x \le 1,\]
on déduit que \(X \sim \mathrm{Unif}[0,1]\).
Par ailleurs
\[f_{Y \mid X} (y \mid x) = \frac{1}{x} \mathbb{I}_{\{0 \le y \le x\}}.\]
Remarque : Cela signifie que sachant \(X\), \(Y \sim \mathrm{Unif}[0,X]\).
On en déduit
\[\mathbb{P}(X^2 + Y^2 \le 1 \mid X) = \mathbb{P}(Y^2 \le 1-X^2 \mid X) = \begin{cases} 1 & \mbox{ si } X \le \frac{1}{\sqrt{2}} \\ \frac{\sqrt{1-X^2}}{X} & \mbox{ sinon. } \end{cases}.\]
On a alors, puisque \(X \sim \mathrm{Unif}[0,1]\), et en utilisant l’indication
\[\begin{align*}
& \mathbb{P}(X^2+Y^2 \le 1) = \mathbb{E}[ \mathbb{P}(X^2+Y^2\le 1 \mid X)] \\ & = \frac{1}{\sqrt{2}} + \int_{\frac{1}{\sqrt{2}}}^{1} \frac{\sqrt{1-x^2}}{x} dx \\ & = \frac{1}{\sqrt{2}} + \left[ \sqrt{1-x^2}-\frac{1}{2} \ln(1+\sqrt{1-x^2}) + \frac{1}{2} \ln(1-\sqrt{1-x^2})\right]_{\frac{1}{\sqrt{2}}}^{1}\\ & = \frac{1}{\sqrt{2}} - \frac{1}{\sqrt{2}} + \frac{1}{2} \ln\left(1+ \frac{1}{\sqrt{2}}\right) - \frac{1}{2} \ln\left(1-\frac{1}{\sqrt{2}}\right) = \ln(\sqrt{2}+1).
\end{align*}\]
Comme \(Y\) est intégrable on peut appliquer Fubini à la troisième ligne ci-dessous et se servir du fait que \(\forall (x,y) \in \mathbb{R}^2, \ f_X(x) f_{Y \mid X}(y \mid x) = f(x,y)\) pour voir que
\[\begin{align*}\mathbb{E}[\mathbb{E}[Y \mid X]] & = \mathbb{E}[\psi(X)] = \int_{\mathbb{R}} \psi(x) f_X(x) dx \\ & = \int_{\mathbb{R}} \int_{\mathbb{R}} y f_{Y\mid X}(y \mid x) dy f_X(x) dx \\ & = \int_{\mathbb{R}^2} y f(x,y) dx dy = \mathbb{E}[Y]
\end{align*}\]
Dans l’exemple précédent on a \(\mathbb{E}[Y \mid X] = \frac{X}{2}\) et donc
\[\mathbb{E}[Y]= \mathbb{E}[\mathbb{E}[Y \mid X]] = \frac{\mathbb{E}[X]}{2} = \frac{1}{4}.\]
- On peut appliquer Fubini à la troisième ligne ci-dessous car \(\mathbb{E}[|Y g(X)|]<\infty\), et se servir du fait que \(\forall (x,y) \in \mathbb{R}^2, \ f_X(x) f_{Y \mid X}(y \mid x) = f(x,y)\)
\[\begin{align*}
\mathbb{E}[\mathbb{E}[Y \mid X] g(X)] & = \mathbb{E}[\psi(X) g(X)] = \int_{\mathbb{R}} \psi(x) g(x) f_X(x) dx \\ & = \int_{\mathbb{R}} \int_{\mathbb{R}} y f_{Y\mid X}(y \mid x) dy g(x) f_X(x) dx \\ & = \int_{\mathbb{R}^2} y g(x) f(x,y) dx dy = \mathbb{E}[Y g(X)]
\end{align*}\]
Pour \(B \in \mathcal{B}(\mathbb{R})\), quitte à considérer la fonction \(\hat{g} = g \mathbb{I}_B\), on déduit
\[\mathbb{E}[Y g(X) \mathbb{I}_B(X)] = \mathbb{E}[\psi(X) g(X) \mathbb{I}_B]\]
de sorte que
\[\mathbb{E}[Y g(X) \mid X] = g(X) \mathbb{E}[Y \mid X] = g(X) \psi(X)\]
Exercice 3 (Partiel passé)
Soient \(0 \le r \le p \le 1\) tels que \(1-2p+r \ge 0\).
Soient \(X_1, X_2\) tels que
\[\begin{eqnarray*}
&& \mathbb{P}(X_1=1, X_2=1)=r, \quad \mathbb{P}(X_1=0, X_2=1)=p-r, \\
&& \mathbb{P}(X_1=1, X_2=0)=p-r, \quad \mathbb{P}(X_1=0, X_2=0)=1-2p+r.
\end{eqnarray*}\]
Quelle est la loi de \(X_1\)? celle de \(X_2\)?
Calculer \(Y = \mathbb{E}[X_1\mid X_2]\) et vérifier que
\[Y= \begin{cases} & \frac{p-r}{1-p} \mbox{ avec probabilité } 1-p\\ & \frac{r}{p} \mbox{ avec probabilité } p.\end{cases}\]
Rappelons que par définition \(\text{Var}[X_1 \mid X_2] = \mathbb{E}[X_1^2\mid X_2] - \mathbb{E}[X_1\mid X_2]^2\). Montrer que
\[\mathrm{Var}[X_1 \mid X_2] = \left( \frac{p-r}{1-p} - \left(\frac{p-r}{1-p}\right)^2
\right) \mathbf{1}_{\{X_2=0\}} + \left( \frac{r}{p} - \left(\frac{r}{p}\right)^2 \right)
\mathbf{1}_{\{X_2=1\}}.\]
Que vaut \(\mathrm{Var}(\mathbb{E}[X_1\mid X_2])\)? \(\mathbb{E}[\mathrm{Var}[X_1\mid X_2]]\)? Vérifier qu’on a bien
\[\mathrm{Var}(X_1) = \mathrm{Var}(\mathbb{E}[X_1\mid X_2]) + \mathbb{E}[\mathrm{Var}[X_1\mid X_2]].\]
\(X_1\), comme \(X_2\), prend ses valeurs dans \(\{0,1\}\). On a \(\mathbb{P}(X_1=1) = r+ p-r\) de sorte que \(X_1 \sim \mathrm{Ber}(p)\), et \(\mathbb{P}(X_2=1) = r+ p-r\) de sorte qu’également \(X_2 \sim \mathrm{Ber}(p)\).
On a (cf EF3)
\[\begin{align*}
\mathbb{E}[X_1 \mid X_2] & = \frac{\mathbb{E}[X_1 \mathbb{I}_{\{X_2 = 1\}}]}{ \mathbb{P}(X_2 =1)} \mathbb{I}_{\{X_2=1\}} + \frac{\mathbb{E}[X_1 \mathbb{I}_{\{X_2 = 0\}}]}{ \mathbb{P}(X_2 =0)} \mathbb{I}_{\{X_2=0\}} \\ & = \frac{r}{p} \mathbb{I}_{\{X_2=1\}} + \frac{p-r}{1-p} \mathbb{I}_{\{X_2=0\}}
\end{align*}\]
Remarquons que \(\mathbb{P}(Y = \frac{r}{p}) = \mathbb{P}(X_2=1) = p, \mathbb{P}(Y = \frac{p-r}{1-p}) = \mathbb{P}(X_2=0) = 1-p\). Autrement dit \(Y\) est une variable qui prend deux valeurs, \(\frac{r}{p}\) sur l’événement \(\{X_2=1\}\) (qui est bien de probabilité \(p\)) et \(\frac{p-r}{1-p}\) sur l’événement complémentaire (qui est bien de probabilité \(1-p\)).
On a p.s. \(X_1^2 = X_1\) puisque \(X_1\) prend ses valeurs dans \(\{0,1\}\) et donc \(\mathbb{E}[X_1^2 \mid X_2 ]= \mathbb{E}[X_1 \mid X_2]\). Par ailleurs un rapide calcul assure que
\[\mathbb{E}[X_1 \mid X_2]^2 = \frac{r^2}{p^2} \mathbb{I}_{\{X_2=1\}} + \frac{(p-r)^2}{(1-p)^2} \mathbb{I}_{\{X_2=0\}},\]
et on obtient donc la formule souhaitée.
D’après la question 2, \(Y = c + \left|\frac{r}{p}- \frac{p-r}{1-p}\right| \xi,\) où \(\xi \sim \mathrm{Ber}(p)\). On obtient donc
\[\begin{align*}
\text{Var}(Y) & = \left(\frac{r}{p}- \frac{p-r}{1-p}\right)^2 p(1-p) & = \frac{r^2(1-p)}{p} + \frac{p (p-r)^2}{1-p} - 2r (p-r) \\ & = \frac{r^2}{p} - r^2 + \frac{(p-r)^2}{1-p} - (p-r)^2 - 2r (p-r) \\
& = \frac{r^2}{p} + \frac{(p-r)^2}{1-p} -(r+(p-r))^2
\end{align*}\]
Par ailleurs d’après la question 3,
\[\mathbb{E}[\mathrm{Var}[X_1 \mid X_2]]) = \left( \frac{p-r} - \frac{(p-r)^2}{1-p} \right) + \left( r - \frac{r^2}{p} \right) = p - \frac{(p-r)^2}{1-p} - \frac{r^2}{p}.\]
On a donc
\[\mathrm{Var}(Y) + \mathbb{E}[\mathrm{Var}[X_1 \mid X_2]] = p - p^2= \mathrm{Var}[X_1].\]
Exercice 4 (Conditionnement)
Soit \((X_n)\) une suite de v.a. .i.i.d intégrables, et \(S_n = \sum_{i=1}^n X_i\).
- Que valent \(\mathbb{E}[X_1\mid X_2], \mathbb{E}[S_n \mid X_1], \mathbb{E}[S_n \mid S_{n-1}]?\)
- Montrer que si les paires de variables \((X,Z)\), \((Y,Z)\) ont la même loi jointe, alors pour toute fonction réelle positive (ou satisfaisant une condition d’intégrabilité), \(\mathbb{E}[f(X)\mid Z] = \mathbb{E}[f(Y)\mid Z]\). En déduire \(\mathbb{E}[X_1 \mid S_n]\).
- Puisque \(X_1\) est indépendant de \(X_2\) on a (EF2)
\[\mathbb{E}[X_1 \mid X_2] = \mathbb{E}[X_1].\] De même pour \(i \ge 2\) \(\mathbb{E}[X_i \mid X_1] = \mathbb{E}[X_i] = \mathbb{E}[X_1],\) tandis que (EF1) : \(\mathbb{E}[X_1 \mid X_1] = X_1\). On conclut en faisant usage de la linéarité de \(\mathbb{E}[\cdot \mid \cdot]\) que \[\mathbb{E}[S_n \mid X_1] = X_1 + (n-1) \mathbb{E}[X_1].\] Par un raisonnement similaire, \(\mathbb{E}[S_{n-1} \mid S_{n-1}] = S_{n-1}\), tandis que \(X_n\) étant indépendant de \(S_{n-1}\) on a \(\mathbb{E}[X_n \mid S_{n-1}] = \mathbb{E}[X_1]\). En utilisant que \(S_n = S_{n-1}+X_n\), la linéarité de \(\mathbb{E}[\cdot \mid \cdot]\) permet de conclure que \[\mathbb{E}[S_n \mid S_{n-1}] = S_{n-1} + \mathbb{E}[X_1].\]
- Supposons que \(\mathbb{P}_{(X,Z)} = \mathbb{P}_{(Y,Z)}\), et que \(X \in \mathbb{L}^1\), notons \(T= \mathbb{E}[X \mid Z]\) (qui est, par définition, \(\sigma(Z)\)-mesurable). Soit \(A \in \sigma(Z)\), de sorte que \(A = Z^{-1}(B)\) pour un \(B\) dans la tribu dont on a muni l’espace dans lequel \(Z\) prend ses valeurs. Alors \[\mathbb{E}[Y \mathbb{I}_A] = \mathbb{E}[Y \mathbb{I}_B(Z)] = \mathbb{E}[X \mathbb{I}_B(Z)] = \mathbb{E}[X \mathbb{I}_A] = \mathbb{E}[T \mathbb{I}_A],\] donc \(T = \mathbb{E}[Y \mid Z]\).
On peut faire le même raisonement avec \(f(X), f(Y)\), ou simplement remarquer que \(\mathbb{P}_{(X,Z)} = \mathbb{P}_{(Y,Z)} \ \Rightarrow \ \mathbb{P}_{(f(X),Z)} = \mathbb{P}_{(f(Y),Z)}\).
Comme les \(X_i, 1 \le i \le n\) jouent des rôles parfaitement symétriques dans \(S_n\) puisqu’elles sont i.i.d, on a \(\mathbb{P}_{(X_i,S_n)} = \mathbb{P}_{(X_1, S_n)}\) pour tout \(1 \le i \le n\). On déduit de ce qui précède que \(\mathbb{E}[X_1 \mid S_n] = \mathbb{E}[X_i \mid S_n], 1 \le i \le n\). Mais alors par linéarité \[ S_n= \mathbb{E}[S_n \mid S_n] = \sum_{i=1}^n \mathbb{E}[X_i \mid S_n] = n \mathbb{E}[X_1 \mid S_n],\] et on conclut que \(\mathbb{E}[X_1 \mid S_n] = \frac{S_n}{n}\).
Exercice 5 (Examen passé)
Soit \((X_n, n \ge 0)\) une suite de variables i.i.d, avec \(X_1 \sim \text{Ber}(1/2)\). On pose \(S_n = \sum_{i=1}^n (X_i -1/2)\), \(\mathcal{F}_n= \sigma(X_1,...,X_n)\).
Calculer \(\mathbb{E}[S_n \mid \mathcal{F}_5]\) en fonction de \(n\). Quelle est la loi de cette variable aléatoire?
Si \(n \le 5\), \(S_5\) est \(\mathcal{F}_5\) mesurable et donc (EF1) ;
\[\mathbb{E}[S_n \mid \mathcal{F}_5] = S_n \quad \forall n \le 5\]. Comme dans l’exercice précédent, puisque \(X_i\) est indépendant de \(\mathcal{F}_5\) pour tout \(i \ge 6\), on a \[\mathbb{E}[(X_i-1/2) \mid \mathcal{F}_5] = \mathbb{E}[X_i-1/2]= 0.\] Donc \[\mathbb{E}[S_n \mid \mathcal{F}_5] = S_5 \ \ \forall n \ge 5.\] Enfin \(S_k+\frac{k}{2} \sim \mathrm{Bin}(k,1/2)\).
Exercice 6 (Partiel passé)
Soient \(\{\mathbf{e}_i, i \in \mathbb{N} \}\) des variables i.i.d exponentielles de paramètre \(1\). Pour \(n \in \mathbb{N}^*\) on note \(S_n := \sum_{i=1}^n \mathbf{e}_i\).
- On note \(f_n\) la fonction de densité de la variable \(S_n\). Montrer que pour tout \(t \ge 0\) \[ f_n(t) = \frac{t^{n-1}}{(n-1)!} \exp(-t).\]
- Pour \(t >0, n \in \mathbb{N}^*\), que vaut \(\mathbb{P}(S_n \le t)\)?
- On fixe \(t>0\) et on suppose \(X_t \sim \mathrm{Poisson}(t)\). Que vaut \(\mathbb{P}(X_t \ge n)\), pour \(n \in \mathbb{N}^*\)?
- Sur la demi-droite \(\mathbb{R}_+\) on place les points \(S_1, S_2, S_3,...\). On note \(N_t\) le nombre de ces points qui tombent dans l’intervalle \([0,t]\). Exprimer l’événement \(\{N_t \ge n\} = \{S_n \le t\}\). Déterminer la loi de \(N_t\) à l’aide des questions préc'dentes.
- Montrer que, conditionnellement à \(\{N_t=1\}\), la loi de \(\mathbf{e}_1\) est uniforme sur \([0,t]\).
- Conditionnellement à \(\{N_t=2\}\), quelle est la loi du vecteur \((\mathbf{e}_1; \mathbf{e}_2)\)?
- On montre l’assertion souhaitée par récurrence sur \(n \in \mathbb{N}^*\). L’assertion est trivialement vérifiée pour \(n=1\) puisqu’on reconna^t en \(f_1\) la densité d’une \(\exp(1)\) et donc de \(S_1 = \mathbf{e}_1\).
Soit \(n \in \mathbb{N}^*\), supposons que \(S_n\) a densité \(f_n\), comme \((S_n, \mathbf{e}_{n+1})\) sont indépendantes, le couple a densité
\[g(s,t) = f_n(s) \exp(-t) \mathbb{I}_{s \ge 0, t \ge 0}\]
et donc
\[\begin{align*}
\mathbb{E}[\phi(S_{n+1})] & = \mathbb{E}[\phi(S_n + \mathbf{e}_{n+1})] \\
& = \int_{\mathbb{R}_+^2} \phi(s+t) \frac{s^{n-1}}{(n-1)!} \exp(-s-t) ds dt
\end{align*}\]
Avec \((u,v)=(s+t,t)\) on a un \(\mathcal{C}^1\)-difféomorphisme de \(\mathbb{R}_+^2\) dans \(\{(u,v) \in \mathbb{R}_+^2 : v \le u\}\), de jacobien \(1\), et donc par changement de variables, on obtient comme souhaité :
\[\mathbb{E}[\phi(S_{n+1}] = \int_{\mathbb{R}_+} du \phi(u) \exp(-u) \left(\int_0^u \frac{(u-v)^{n-1}}{(n-1)!} dv\right) = \int_{\mathbb{R}_+} \phi(u) f_{n+1}(u) du\]
Remarque : Avec des exponentielles indépendantes de paramètre commun \(\lambda\), on obtient la densité d’une \(\Gamma(n, \lambda)\) pour la somme, ici on est dans le cas \(\lambda=1\).
On a
\[\begin{align*}
\mathbb{P}(S_n \ge t) & = \int_{t}^{\infty} f_n(u) du
\end{align*}\]
Cette intégrale se calcule, en fonction de \(n, t\), au moyen d’intégrations par parties successives :
\[\int_t^{\infty} f_n(u) du = \left[ \frac{u^{n-1}}{(n-1)!} \right]_t^{\infty} + \int_t^{\infty} f_{n-1}(u) du.\]
Comme \(\int_t^{\infty} f_1(u) du = \exp(-t)\), une récurrence immédiate fournit donc que
\[\int_t^{\infty} f_n(u) du = \exp(-t) \sum_{k=0}^{n-1} \frac{t^{n-1}}{(n-1)!}.\]
Soit \(n \in \mathbb{N}^*\), on a
\[\mathbb{P}(X_t \ge n) = \exp(-t) \sum_{k \ge n} \frac{t^k}{k!}\]
et on remarque d’après la question précédente que ceci vaut précisément \(1- \mathbb{P}(S_n \ge t) = \mathbb{P}(S_n \le t)\) (pour la dernière égalité on a utilisé que \(S_n\) possède une densité pour assurer que \(\mathbb{P}(S_n=t) =0\)).
Par définition \(N_t \ge n\) ssi au moins \(n\) points parmi \(\{S_1,S_2,\dots,S_n, \dots\}\) tombent dans l’intervalle \([0,t]\). Comme \((S_k, k \ge 0)\) est p.s. croissante ceci se produit (p.s.) lorsque \(S_n \le t\) et on on déduit que
\[\{N_t \ge n\} = \{S_n \le t\}\]
La variable \(N_t\) est à valeurs dans \(\mathbb{N}\), et on a pour tout \(n \in \mathbb{N}\) (cf la question précédente pour \(n\in \mathbb{N}^*\), on a ajouté la cas trivial \(n=0\)),
\[\mathbb{P}(N_t \ge n) = \mathbb{P}(X_t \ge n). \]
Mais ces valeurs caractérisent la fonction de répartition de \(N_t\), et donc la loi de \(N_t\), et on conclut que \(N_t \sim \mathrm{Poisson}(t)\).
On a \(\{N_t=1\} = \{\mathbf{e}_1 \le t, \mathbf{e}_2 > t- \mathbf{e}_1\}\).
Par ailleurs, \((\mathbf{e}_1, \mathbf{e}_2)\) sont indépendantes et possèdent donc la densité jointe
\[f_{(\mathbf{e}_1,\mathbf{e}_2}(u,v) = \exp(-u)\exp(-v) \mathbb{I}_{\{u \ge 0\}} \mathbb{I}_{\{v \ge 0\}}\]
Pour \(\phi : \mathbb{R} \to \mathbb{R}_+\) borélienne, on en déduit que
\[\begin{align*}
\mathbb{E}[\phi(\mathbf{e}_1) \mid N_t=1] & = \frac{\mathbb{E}[\phi(\mathbf{e}_1) \mathbb{I}_{\{N_t = 1\}}]}{ \mathbb{P}(N_t = 1)} \\ & = \frac{\mathbb{E}[\phi(\mathbf{e}_1) \mathbb{I}_{\{\mathbf{e}_1 \le t, \mathbf{e}_2 > t-\mathbf{e}_1\}}]}{t \exp(-t)}
\\ & = \frac{\exp(t)}{t} \int_{\mathbb{R}} \int_{\mathbb{R}} \phi(u) \exp(-u)\exp(-v) \mathbb{I}_{\{0 \le u \le t\}} \mathbb{I}_{\{0\le t-u < v\}} du dv
\\ & = \frac{\exp(t)}{t} \int_{\mathbb{R}} du \phi(u) \exp(-u) \mathbb{I}_{[0,t]}(u) \int_{t-u}^{\infty} \exp(-v) dv
\\ & = \frac{\exp(t)}{t} \int_{\mathbb{R}} du \phi(u) \exp(-u) \mathbb{I}_{[0,t]}(u) \exp(u-t) \\
& = \int_{\mathbb{R}}\phi(u) \frac{\mathbb{I}_{[0,t]}(u)}{t} du,
\end{align*}\]
où on a utilisé Fubini-Tonelli à la troisième ligne ci-dessus.
On conclut, gr^ace au théorème de caractérisation habituel, que la loi conditionnelle de \(\mathbf{e}_1\) sachant \(\{N_t=1\}\) est \(\mathrm{Unif}[0,t]\),
- On effectue un raisonnement similaire à celui de la question qui précède.
On a
\[\{N_t=2\} = \{S_1 \le t, \mathbf{e}_3 > t- S_1\}= \left\{\mathbf{e}_1 \le t, \mathbf{e}_2 \le t-\mathbf{e}_1, \mathbf{e}_3 > t - (\mathbf{e}_1+\mathbf{e}_2)\right\}.\]
Par ailleurs, \((\mathbf{e}_1, \mathbf{e}_2,\mathbf{e}_3)\) sont indépendantes et possèdent donc la densité jointe
\[f_{(\mathbf{e}_1,\mathbf{e}_2,\mathbf{e}_3}(u,v,w) = \exp(-u)\exp(-v)\exp(-w) \mathbb{I}_{\{u \ge 0\}} \mathbb{I}_{\{v \ge 0\}}\mathbb{I}_{\{w \ge 0\}}.\]
Pour \(\phi : \mathbb{R}^2 \to \mathbb{R}_+\) borélienne, on en déduit que
\[\begin{align*}
\mathbb{E}[\phi(\mathbf{e}_1,\mathbf{e}_2) \mid N_t=2]
& = \frac{\mathbb{E}[\phi(\mathbf{e}_1, \mathbf{e}_2) \mathbb{I}_{\{N_t = 2\}}]}{ \mathbb{P}(N_t = 2)} \\
& = \frac{\mathbb{E}[\phi(\mathbf{e}_1, \mathbf{e}_2) \mathbb{I}_{\{\mathbf{e}_1 \le t, \mathbf{e}_2 \le t-\mathbf{e}_1, \mathbf{e}_3 > t - (\mathbf{e}_1+\mathbf{e}_2)\}}]}{\frac{t^2}{2} \exp(-t)} \\
& = \frac{2\exp(t)}{t^2} \int_{\mathbb{R}^3} \phi(u,v) \exp(-u-v)\exp(-w) \mathbb{I}_{\{0\le u \le u+v \le t\}} \mathbb{I}_{\{w>t-(u+v)\}} du dv dw \\
& = \frac{2\exp(t)}{t^2} \int_{\mathbb{R}^2} du dv \phi(u,v) \exp(-u-v) \mathbb{I}_{\{0\le u \le u+v \le t\}} \int_{t-(u+v)}^{\infty} \exp(-w) dw \\
& = \frac{2\exp(t)}{t^2} \int_{\mathbb{R}} du \phi(u) \exp(-u-v) \mathbb{I}_{\{0\le u \le u+v \le t\}} \exp(u+v-t) = \int_{\mathbb{R}}\phi(u,v) \frac{2\mathbb{I}_{\{0\le u \le u+v \le t\}}}{t^2} du,
\end{align*}\]
et on conclut que la loi conditionnelle de \((\mathbf{e}_1, \mathbf{e}_2)\) sachant \(\{N_t=2\}\) a pour densité \(\frac{2\mathbb{I}_{\{u \ge 0\}} \mathbb{I}_{\{v \ge 0\}} \mathbb{I}_{\{u+v \le t\}}}{t^2}\).
Autrement dit, la loi conditionnelle de \((\mathbf{e}_1, \mathbf{e}_2)\) sachant \(\{N_t=2\}\) est uniforme sur le triangle \(\{(u,v) \in [0,t]^2 : u+v \le t\}\).
On considère \[ X \sim \mathcal{N} \left( \begin{pmatrix} -1 \\ 0 \\ 1 \\ 0 \end{pmatrix}, \begin{pmatrix} 2 & 1 & -1 & -1 \\ 1 & 2 & -1 & 0 \\ -1 & -1 & 3 & -1 \\ -1 & 0 & -1 & 5 \end{pmatrix}\right).\]
- Calculer \(\mathbb{E}[X_3 \mid X_4]\), et déterminer la loi conditionnelle de \(X_3\) sachant \(X_4\).
- On pose \(A = \begin{pmatrix} 2 & 1 \\ 1 & 2 \end{pmatrix}\), \(B= \begin{pmatrix} -1 & -1 \\ -1 & 0 \end{pmatrix}\). Calculer \(BA^{-1}\), puis vérifier que \[B A^{-1} B^T = \begin{pmatrix} \frac{2}{3} & \frac{1}{3} \vspace{0.1cm} \\ \frac{1}{3} & \frac{2}{3}\end{pmatrix}.\]
- Déterminer \(\mathbb{E}\left[\begin{pmatrix} X_3 \\ X_4 \end{pmatrix} \ \bigg| \ \begin{pmatrix} X_1 \\ X_2 \end{pmatrix}\right]\). et la loi conditionnelle de \(\begin{pmatrix} X_3 \\ X_4 \end{pmatrix}\) sachant \(\begin{pmatrix} X_1 \\ X_2 \end{pmatrix}\).
- D’après l’énoncé \(\displaystyle{\begin{pmatrix} X_3 \\ X_4 \end{pmatrix} \sim \mathcal{N} \left( \begin{pmatrix} 1 \\ 0 \end{pmatrix}, \begin{pmatrix} 3 & -1 \\ -1 & 5 \end{pmatrix}\right)}\), et donc d’après la formule du cours, sachant \(X_4\), \(X_3 \sim \mathcal{N}\left(1 -\frac{X_4}{5},\frac{14}{5}\right)\). En particulier \(\mathbb{E}[X_3 \mid X_4] = 1 - \frac{X_4}{5}\).
- On a \(A^{-1} = \begin{pmatrix} \frac{2}{3} & -\frac{1}{3} \\ -\frac{1}{3} & \frac{2}{3} \end{pmatrix}\), et donc
\[B A^{-1} = \begin{pmatrix} -\frac{1}{3} & -\frac{1}{3} \\ -\frac{2}{3} & \frac{1}{3} \end{pmatrix},\] et
\[BA^{-1}B^T = \begin{pmatrix} -\frac{1}{3} & -\frac{1}{3} \\ -\frac{2}{3} & \frac{1}{3} \end{pmatrix} \begin{pmatrix} -1 & -1 \\ -1 & 0 \end{pmatrix} = \begin{pmatrix} \frac{2}{3} & \frac{1}{3} \\ \frac{1}{3} & \frac{2}{3}\end{pmatrix},\] comme souhaité.
- D’après le cours, sachant \(\begin{pmatrix} X_1 \\ X_2 \end{pmatrix}\), la loi conditionnelle de \(\begin{pmatrix} X_3 \\ X_4 \end{pmatrix}\) est gaussienne, centrée en \[\mathbb{E}\left[\begin{pmatrix} X_3 \\ X_4 \end{pmatrix} \ \bigg| \ \begin{pmatrix} X_1 \\ X_2 \end{pmatrix}\right] = BA^{-1} \begin{pmatrix} X_1 +1 \\ X_2 \end{pmatrix} + \begin{pmatrix} 1 \\ 0 \end{pmatrix} = \begin{pmatrix} \frac{2}{3} - \frac{1}{3}X_1 - \frac{1}{3} X_2 \\ - \frac{2}{3} -\frac{2}{3}X_1 + \frac{1}{3}X_2 \end{pmatrix},\] et de matrice de covariances \[ \begin{pmatrix} 3 & -1 \\ -1 & 5 \end{pmatrix} - BA^{-1}B^T = \begin{pmatrix} \frac{7}{3} & \frac{-4}{3} \vspace{0.1cm}\\ \frac{-4}{3} & \frac{13}{3}\end{pmatrix}.\]
Exercice 8 (Partiel passé)
Soit \((X_1,X_2,X_3) \sim \mathcal{N}(\mu, M)\) où \[\mu = \begin{pmatrix} 1 \\ 0 \\ -1 \end{pmatrix}, \quad M = \begin{pmatrix} 2 & 1 & 0 \\ 1 & 2 & 1 \\ 0 & 1 & 2 \end{pmatrix}.\]
- Quelle est la loi du couple \((X_1,X_2)\)?
- Déterminer \(\alpha\) un réel tel que $Y = X_1 + X_2 $ est indépendante de \(X_1\). Que vaut \(\mathbb{E}[Y]\)? \(\text{Var}(Y)\)?
- En déduire \(\mathbb{E}[X_2 \mid X_1]\). Quelle est la loi conditionnelle de \(X_2\) sachant \(X_1\)?
- Déterminer un réel \(\beta\) tels que \(Z=\beta X_1 + X_3\) est indépendante de \(X_1\). En déduire \[\mathbb{E}[X_3 \mid X_1], \quad \mathbb{E}[X_3^2 \mid X_1].\]
- Calculer \(\mathbb{E}\left[X_1^2X_2 + X_3^2 X_1 \mid X_1\right]\).
- \((X_1,X_2)\) est un vecteur gaussien (comme image d’un vecteur gaussien par une application linéaire, en l’occurrence une projection), et on lit directement sur \(\mu, M\) moyennes et covariances. On a donc \((X_1,X_2) \sim \mathcal{N}(m,A)\), avec \(m = \begin{pmatrix} 1 \\ 0 \end{pmatrix}\) et \(A = \begin{pmatrix} 2 & 1 \\ 1 & 2\end{pmatrix}\).
- Quel que soit \(\alpha \in \mathbb{R}\), \((X_1,Y)\) est un vecteur gaussien comme image du vecteur gaussien \((X_1,X_2)\) par l’application linéaire de matrice \(\begin{pmatrix} 1 & 0 \\ \alpha & 1\end{pmatrix}\).
Par théorème caractérisant l’indépendance des coordonnées d’un vecteur gaussien, \(X_1\) est indépendant de \(Y\) ssi \(\mathrm{Cov}(X_1,Y)=0\). Or \[\mathrm{Cov}(X_1,Y)= \alpha \mathrm{Var}[X_1] + 1 = 2\alpha +1,\] et donc on a l’indépendance souhaitée lorsque \(\alpha=-\frac{1}{2}\). 1. Puisque \(-\frac{1}{2}X_1+X_2\) est indépendant de \(X_1\) on a donc 2. \[\begin{align*}
\mathbb{E}[X_2 \mid X_1 ] & = \mathbb{E}\left[\frac{1}{2}X_1 +\left(-\frac{1}{2}X_1+X_2\right) \mid X_1\right] \\ & = \frac{1}{2}X_1 + \mathbb{E}\left[-\frac{1}{2}X_1 + X_2\right] = \frac{1}{2}X_1 -\frac{1}{2}.
\end{align*}\] Par ailleurs, \(\mathrm{Var}\left(-\frac{1}{2}X_1+X_2\right) = \frac{1}{4} \mathrm{Var}(X_1) - \mathrm{Cov}(X_1,X_2) + \mathrm{Var}(X_2) = \frac{3}{2}\) et donc \(-\frac{1}{2}X_1+X_2 \sim \mathcal{N}\left(-\frac{1}{2}, \frac{3}{2}\right)\). L’écriture \(X_2 = \frac{1}{2}X_1 + \left(-\frac{1}{2}X_1+X_2\right)\) permet donc d’affirmer que sachant \(X_1\), la loi conditionnelle de \(X_2\) est \(\mathcal{N}\left(\frac{1}{2}X_1-\frac{1}{2}, \frac{3}{2} \right)\).
- Ici \(\mathrm{Cov}(X_1,X_3) = 0\) et donc \(X_1\) et \(X_3\) sont indépendants, il suffit donc de prendre \(\beta=0\). On trouve donc ici que \[\mathbb{E}[X_3 \mid X_1] = \mathbb{E}[X_3] = -1\] et que sachant \(X_1\), la loi conditionnelle de \(X_3\) reste la loi de \(X_3\), i.e. \(\mathcal{N}\left(-1, 2 \right)\). Par ailleurs
\[\begin{align*}
\mathbb{E}[X_3^2 \mid X_1] & = \mathbb{E}[X_3^2] = \mathbb{E}[X_3]^2 + \mathrm{Var}[X_3] \\
& = 1 + 2 = 3.
\end{align*}\]
- On a, en utilisant les propriétés de l’espérance conditionnelle et les question précédentes, puis en simplifiant
\[\begin{align*}
\mathbb{E}[X_1^2 X_2 + X_3^2 X_1 \mid X_1] & = X_1^2 \mathbb{E}[X_2 \mid X_1] + X_1 \mathbb{E}[X_3^2\mid X_1 ] \\
& = X_1^2 \left(\frac{1}{2}X_1 -\frac{1}{2}\right) + 3X_1 \\
& = \frac{1}{2}X_1^3 -\frac{1}{2} X_1^2 + 3X_1
\end{align*}\]
Exercice 9 (Examen passé)
Soit \((X_1,X_2,X_3) \sim \mathcal{N}(\mu,M)\), où \[ \mu = \begin{pmatrix} 0 \\ 1 \\ 0 \end{pmatrix}, \qquad M= \begin{pmatrix} 1 & 1/2 & 2 \\ 1/2 & 1 & 1 \\ 2 & 1 & 3 \end{pmatrix}.\] Calculer \(\mathbb{E}[X_1+2X_2 \mid X_3].\) Quelle est la loi conditionnelle de \(X_1+2X_2\) sachant \(X_3\)?
Comme dans l’exercice précédent on peut commencer par chercher \(\alpha\) tel que \(Y=\alpha X_3 + X_1 + 2X_2\) est indépendant de \(X_3\). Bien s^ur, \((Y,X_3)\) est un vecteur gaussien puisque c’est l’image de \((X_1,X_2,X_3)\) par une application linéaire. Donc on a l’indépendance voulue lorsque \(\mathrm{Cov}(Y,X_3) =0\), i.e. lorsque \[ 0 = \alpha \mathrm{Var}(X_3) + \mathrm{Cov}(X_1,X_3)+2 \mathrm{Cov}(X_2,X_3) = 3\alpha + 2 + 2,\] et donc il faut prendre \(\alpha = -\frac{4}{3}\).
On a alors \[\mathbb{E}[X_1+2X_2 \mid X_3] = \frac{4}{3}X_3 + \mathbb{E}[-\frac{4}{3}X_3 + X_1 + 2X_2] = \frac{4}{3}X_3+2.\]
Par ailleurs,
\[\begin{align*}
\text{Var}(Y) & = \frac{16}{9} \mathrm{Var}(X_3) + \mathrm{Var}(X_1) + 4 \mathrm{Var}(X_2) - \frac{8}{3} \mathrm{Cov}(X_3,X_1) - \frac{16}{3} \mathrm{Cov}(X_2,X_3) + 4 \mathrm{Cov}(X_1,X_2) \\
& = \frac{16}{3} + 1 + 4 - \frac{16}{3} -\frac{16}{3} + 2 = \frac{5}{3}
\end{align*}\] et on déduit que sachant \(X_3\), la loi conditionnelle de \(X_1+2X_2\) est \(\mathcal{N}\left( \frac{4}{3}X_3+2, \frac{5}{3} \right)\).
Alternativement, on peut utiliser les formules du cours. D’abord, avec \(K= \begin{pmatrix} 1 & 2 & 0 \\ 0 & 0 & 1 \end{pmatrix}\)
\[
\begin{pmatrix} X_1+2X_2 \\ X_3 \end{pmatrix} = K \begin{pmatrix} X_1 \\ X_2 \\X_3 \end{pmatrix} \sim \mathcal{N}\left( K \begin{pmatrix} 0 \\ 1 \\ 0 \end{pmatrix}, K M K^T \right) \sim \mathcal{N} \left( \begin{pmatrix} 2 \\ 0 \end{pmatrix}, \begin{pmatrix} 7 & 4 \\ 4 & 3 \end{pmatrix}\right).
\]
On peut alors appliquer la méthode précédente à ce vecteur, ou la formule du cours pour le conditionnement avec \(\theta = X_1+2X_2, \xi=X_3\), \(\mu_{\theta} = 2, \mu_{\xi} = 0, \ M_{\theta \xi} = M_{\xi \theta} = 4, M_{\xi \xi} = 3, M_{\theta \theta}=7\), pour obtenir
\[\mathbb{E}[X_1+2X_2 \mid X_3] = \mu_{\theta} + M_{\theta \xi} M_{\xi \xi}^{-1} (\xi-\mu_{\xi}) = 2 + \frac{4}{3} X_3,\]
et
\[\mathrm{Var}[X_1+2X_2 \mid X_3] = M_{\theta \theta} - M_{\theta \xi} M_{\xi \xi}^{-1} M_{\xi \theta} = 7 - \frac{16}{3} = \frac{5}{3}.\]
On suppose dans cet exercice que \((X,Y)\) est un couple de variables aléatoires tel que pour toute \(\phi : \mathbb{R}^2\to \mathbb{R}_+\) borélienne, \[\mathbb{E}[\phi(X,Y)] = \sum_{n \ge 1} \frac{2}{3^{n}\sqrt{2\pi n}} \int_{\mathbb{R}} \phi(n,y) \exp\left(-\frac{y^2}{2n}\right) dy.\]
- Montrer que \(X \sim \mathrm{Geom}(2/3)\).
- Vérifier que pour une fonction \(f : \mathbb{R} \to \mathbb{C}\) telle que \(f(Y) \in \mathbb{L}^1\), on a
\[\mathbb{E}[f(Y) \mid X] = \sum_{n \ge 1} \left(\int_{\mathbb{R}} \frac{1}{\sqrt{ 2\pi n}} f(y) \exp\left(-\frac{y^2}{2n} \right) dy \right) \mathbb{I}_{\{X=n\}}\] %1. En déduire que pour tout \(k \in \mathbb{N}\), %\[\mathbb{E}[Y^k \mid X] = \frac{k!}{X^{2k}}\]
- Calculer \(\mathbb{E}[\exp(itY) \mid X]\), \(t \in \mathbb{R}\), quelle est la loi conditionnelle de \(Y\) sachant \(X\) ?
- Déduire que si \(t\in \mathbb{R}\) \[\mathbb{E}[\exp(itY)] = \frac{2 \exp\left(-\frac{t^2}{2}\right)}{3-\exp\left(-\frac{t^2}{2}\right)}.\]
- Notons que pour tout \(n \ge 1\), \(\int_{\mathbb{R}} \frac{1}{\sqrt{2\pi n}} \exp\left(-\frac{y^2}{2n}\right) dy =1\) (on intègre sur \(\mathbb{R}\) la densité d’une variable de loi \(\mathcal{N}(0,n)\)). On en déduit (quitte à considérer \(\phi(X,Y) = \mathbb{I}_{\{X= n\}}\))
\[ \mathbb{P}(X=n) = \mathbb{E}[\mathbb{I}_{\{X=n\}}] = \frac{2}{3^{n}} \int_{\mathbb{R}} \frac{1}{\sqrt{2\pi n}} \exp\left(-\frac{y^2}{2n}\right) dy = \frac{2}{3^n},\] et il découle que \(X \sim \mathrm{Geom}(2/3)\).
- Les événements \(\{\{X=n\}, n \ge 1\}\) forment une partition de \(\Omega\), on est dans le cadre de EF3 pour \(\mathrm{Re}(f), \mathrm{Im}(f)\) et quitte à utiliser la linéarité de l’espérance, on obtient
\[\mathbb{E}[f(Y) \mid X] = \sum_{n \ge 1} \frac{\mathbb{E}[f(Y) \mathbb{I}_{\{X=n\}}]}{ \mathbb{P}(X=n)} \mathbb{I}_{\{X=n\}}.\] Quitte à considérer \(\phi(X,Y) = \mathrm{Re(f(Y))} \mathbb{I}_{\{X=n\}}\) puis \(\phi_2(X,Y) = \mathrm{Im(f(Y))} \mathbb{I}_{\{X=n\}}\) et utiliser la linéarité de l’espérance, on obtient
\[\mathbb{E}[f(Y) \mathbb{I}_{\{X=n\}}] = \frac{2}{3^{n} \sqrt{2 \pi n}} \int_{\mathbb{R}} f(y) \exp\left(-\frac{y^2}{2n}\right) dy,\] et donc \[ \frac{\mathbb{E}[f(Y) \mathbb{I}_{\{X=n\}}]}{ \mathbb{P}(X=n)} = \int_{\mathbb{R}} \frac{1}{\sqrt{2 \pi n}} f(y) \exp\left(-\frac{y^2}{2n}\right) dy,\] ce qui conduit à la formule souhaitée.
Puisque la fonction caractéristique d’une variable suivant la loi \(\mathcal{N}(0,n)\) est \(t \to \exp\left( -\frac{t^2 n}{2} \right)\) on a \[ \int_{\mathbb{R}} \exp(ity) \frac{1}{\sqrt{2 \pi n}} \exp\left(-\frac{y^2}{2n}\right) dy = \exp\left(-\frac{t^2 n}{2} \right)\] de sorte que \[\mathbb{E}[\exp(itY) \mid X] = \exp\left(-\frac{t^2 X}{2} \right).\] La loi conditionnelle de \(Y\) sachant \(X\) est donc \(\mathcal{N}(0,X)\).
On a grâce à la propriété de tour et la question précédente
\[\begin{align*}
\mathbb{E}[\exp(itY)] & = \mathbb{E}[\mathbb{E}[\exp(itY) \mid X]] = \mathbb{E}\left[\exp\left(-\frac{t^2 X}{2}\right)\right] \\
& = \sum_{n \ge 1} \frac{2}{3^n} \exp\left(-\frac{t^2 n}{2}\right) \\
& = \frac{2 \exp\left(-\frac{t^2}{2}\right)}{3} \sum_{n \ge 1} \left(\frac{\exp\left(-\frac{t^2}{2}\right)}{3}\right)^{n-1}
\\ & = \frac{2 \exp\left(-\frac{t^2}{2}\right)}{3} \sum_{n' \ge 0} \left(\frac{\exp\left(-\frac{t^2}{2}\right)}{3}\right)^{n'}
\\ & = \frac{2 \exp\left(-\frac{t^2}{2}\right)}{3} \frac{1}{1-\frac{\exp\left(-\frac{t^2}{2}\right)}{3}}
\\ & = \frac{2 \exp\left(-\frac{t^2}{2}\right)}{3-\exp\left(-\frac{t^2}{2}\right)}
\end{align*}\]
comme souhaité.
Exercice 11 (Partiel passé)
Partie I
On considère le couple \((X,Z)\) de densité jointe \[ f(x,z) := (z-x)\exp(-z) \mathbf{1}_{\{z \ge x \ge 0\}}.\]
Calculer la loi de \(X\), puis celle de \(Z\).
En déduire que
\[f_{X \mid Z}(x \mid z) = \frac{2(z-x)}{z^2} \mathbf{1}_{\{0 \le x \le z, z >0\}}.\]
Calculer \(\mathbb{E}[X \mid Z]\), puis \(\mathrm{Var}[X\mid Z]\).
Calculer \(f_{Z \mid X}(z \mid x)\), puis démontrer que \(\mathbb{E}[Z \mid X] = X + 2\).
Quelle est la loi du couple \((X, Z-X)\)? En déduire la loi de \(Z-X\).
La variable de \(X\) possède la densité \(f_X\) avec pour \(x \in \mathbb{R}\),
\[\begin{align*}
f_X(x) & = \int_{\mathbb{R}} dz f(x,z) = \mathbb{I}_{\{x \ge 0\}} \int_{x}^{\infty} (z-x) \exp(-z) dz
\\ & = \mathbb{I}_{\{x \ge 0\}} \int_0^{\infty} y \exp(-(y+x)) dy \\
& = \mathbb{I}_{\{ x \ge 0\}} \exp(-x)
\end{align*}\]
en utilisant le changement de variables \(y = z-x\) et le fait que \(\int_{0}^{\infty} y \exp(y)\) vaut \(1\) (par exemple en reconnaissant l’espérance d’une exponentielle standard, ou alors en effectuant une i.p.p). On conclut que \(X \sim \exp(1)\).
La variable \(Z\) possède la densité \(f_Z\) avec pour \(z \in \mathbb{R}\),
\[\begin{align*}
f_Z(z)
& = \int_{\mathbb{R}} dx f(x,z) \\
& = \mathbb{I}_{\{z \ge 0\}} \exp(-z) \int_{0}^{z} (z-x) dz \\
& = \mathbb{I}_{\{z \ge 0\}} \exp(-z) \frac{z^2}{2}
\end{align*}\]
et on conclut que \(Z \sim \Gamma(2,1)\).
On a donc
\[f_{X \mid Z}(x \mid z) = \begin{cases} \frac{f(x,z)}{f_Z(z)} & \mbox{si } z > 0 \\ 0 & \mbox{sinon}\end{cases} = \frac{2(z-x)}{z^2} \mathbf{1}_{\{0 \le x \le z, z >0\}}.\]
On déduit pour \(z >0\),
\[\begin{align*}
Phi(z)
& := \int_{\mathbb{R}} x f_{X \mid Z}(x \mid z) dx \\
& = \int_{0}^{x} \frac{2 x(z-x)}{z^2} dx = \frac{z^3 - \frac{2}{3}z^3}{z^2} = \frac{z}{3}
\end{align*}\]
et on conclut d’après le résultat EF4 que \(\mathbb{E}[X \mid Z] = \Phi_1(Z) = \frac{Z}{3}\).
De plus pour \(z>0\),
\[\begin{align*}
\Phi_2(z)
& : = \int_{\mathbb{R}} x^2 f_{X \mid Z}(x \mid z) dx \\
& = \int_0^x \frac{2x^2(z-x)}{z^2} dx = \frac{2}{3} z^2 - \frac{1}{2} z^2 = \frac{z^2}{6}
\end{align*}\]
de sorte, toujours par le même résultat, que \(\mathbb{E}[X^2 \mid Z] = \Phi_2(Z) = \frac{Z^2}{6}\).
On déduit que
\[\mathrm{Var}[X \mid Z] = \mathbb{E}[X^2 \mid Z] - (\mathbb{E}[X \mid Z])^2 = \frac{Z^2}{6} - \frac{Z^2}{9} = \frac{Z^2}{18}.\]
- On a
\[\begin{align*}
f_{Z\mid X}(z \mid x) = \begin{cases} \frac{f(x,z)}{f_X(x)} & \mbox{si } x > 0 \\ 0 & \mbox{sinon}\end{cases} = (z-x) \exp(-(z-x)) \mathbf{1}_{\{0 < x \le z\}}.
\end{align*}\]
On déduit que pour \(x >0\),
\[\begin{align*}
\Psi(x) & := \int_{\mathbb{R}} z f_{Z \mid X}(z \mid x) dz \\
& = \int_{x}^{\infty} z (z-x) \exp(-(z-x)) dx \\
& = \int_{0}^{\infty} (x+u) u \exp(-u) du \\
& = \left[ -(x+u)u \exp(-u) \right]_{0}^{\infty} + \int_0^{\infty} (x+2u) \exp(-u) du \\
& = \left[ -(x+2u) \exp(-u)\right]_0^{\infty} + \int_0^{\infty} 2 \exp(-u) du = x + 2,
\end{align*}\]
et on obtient, toujours par EF4, comme souhaité, que \(\mathbb{E}[Z \mid X] = \Psi(X)=X+2\).
- Soit \(\phi : \mathbb{R}^2 \to \mathbb{R}_+\) borélienne, par le changement de variables \((x,z) \to (x,z-x)\) de \(\{(z,x) : 0 \le x \le z\}\) dans \(\mathbb{R}_+^2\) on obtient
\[\begin{align*}
\mathbb{E}[\phi(X, Z-X)]
& = \int_{\mathbb{R}_+^2} \phi(x, z-x) (z-x) \exp(-z) \mathbb{I}_{\{z \ge x\}} dx dz \\
& = \int_{\mathbb{R}_+^2} \phi(u,v) \exp(-u) v \exp(-v) du dv
\end{align*}\]
et on obtient que \(X \sim \exp(1)\) est indépendante de \(Z-X \sim \mathrm{Gamma}(2,1)\).
Partie II
- Soit \(z >0\). On suppose que \(U_1^z \sim \mathrm{Unif}[0,z]\), \(U_2^z \sim \mathrm{Unif}[0,z]\) et que \(U_1^z\) est indépendante de \(U_2^z\). Calculer la densité de \(\min(U_1^z, U_2^z)\).
- On suppose à présent que conditionnellement à \(Z\), \(U_1^Z \sim \mathrm{Unif}[0,Z]\), \(U_2^Z \sim \mathrm{Unif}[0,Z]\) et que \(U_1^Z\) est (toujours conditionnellement à \(Z\)) indépendante de \(U_2^Z\). Montrer que, conditionnellement à \(Z\), \(\mathrm{min}(U_1^Z, U_2^Z)\) a la même loi que X.
- Soient \(X_1,X_2,X_3\) trois variables indépendantes, toutes trois distribuées suivant la distribution exponentielle de paramètre \(1\). On note \(S= X_1+X_2+X_3\). Déterminer la loi de \((X_1,S)\). Que vaut \(\mathbb{E}[X_1\mid S]\)? \(\mathbb{E}[S \mid X_1]\)? Montrer finalement que conditionnellement à \(S\), le couple \((X_1,X_1+X_2)\) a la même loi que \(\left(\mathrm{min}(U_1^S, U_2^S), \mathrm{max}(U_1^S, U_2^S)\right)\).
La fonction de répartition \(F\) de \(U_1^z\) (et donc de \(U_2^z\) puisqu’elle a la même loi est donnée entre \(0\) et \(z\) par \(F(x) = \frac{x}{z}, 0 \le x \le z\). On déduit que pour \(0 \le x \le z\), en utilisant l’indépendance de \(U_1^z, U_2^z\) à la deuxième ligne ci-dessous,
\[\begin{align*}
\mathbb{P}(\min(U_1^z, U_2^z) > x)
& = \mathbb{P}(U_1^z > x) \mathbb{P}(U_2^z > x) \\
& = (1 - F(x))^2 = \left(1-\frac{x}{z}\right)^2
\end{align*}\]
et on déduit que la densité de \(\min(U_1^z,U_2^z)\) est donnée par
\[g_z(x) = \frac{2}{z} \left(1-\frac{x}{z}\right)\mathbb{I}_{[0,z]}(x), \ x \in \mathbb{R}.\]
D’après la question précédente, conditionnellement à \(Z\), \(\min(U_1^Z,U_2^Z)\) possède la densité conditionnelle \(g_Z\). Par ailleurs, la densité conditionnelle de \(X\) sachant \(Z\) est \(f_{X|Z}\) calculée à la question I.2 est p.p. égale à \(g_Z\). On conclut que conditionnellement à \(Z\), les variables \(X\) et \(\min(U_1^Z,U_2^Z)\) ont la même loi.
Tout d’abord, par indépendance des trois variables exponentielles, \((X_1,X_2,X_3)\) a densité donnée par
\[f(x_1,x_2,x_3) = \exp(-x_1-x_2-x_3) \mathbb{I}_{\{x_1\ge 0, x_2 \ge 0, x_3 \ge 0\}}, \quad (x_1,x_2,x_3) \in \mathbb{R}^3.\]
On en déduit pour \(\phi : \mathbb{R}^2 \to \mathbb{R}_+\) borélienne, en utilisant à la deuxiième ligne le changement de variables \((x_1,x_2,x_3) \to (u=x_1,v=x_1+x_2,w=x_1+x_2+x_3)\) de \(\mathbb{R}_+^3\) dans \(\{(u,v,w) \in \mathbb{R}_+^3 : u \le v \le w\}\)
\[\begin{align*}
\mathbb{E}[\phi(X_1,S)]
& = \int_{\mathbb{R}_+^3} \phi(x_1,x_1+x_2+x_3) \exp(-x_1-x_2-x_3) dx_1 dx_2 dx_3 \\
& = \int_{\mathbb{R}_+^3 : u \le v \le w} \phi(u,w) \exp(-w) du dv dw \\
& = \int_{\mathbb{R}_+^2 : u \le w} \phi(u,w) (w-u) \exp(-w)
\end{align*}\]
et on déduit que \((X_1,S)\) a même loi que \((X,Z)\).
Puisque les deux vecteurs ont même loi jointe, on peut utiliser la partie I pour déduire que
\[\mathbb{E}[X_1 \mid S] = \frac{S}{3}, \quad \mathbb{E}[S \mid X_1] = X_1 +2.\]
On peut aussi prouver ces résultats directement (cf exercice 5)
D’après le calcul en début de question, la densité du triplet \((X_1.X_1+X_2.S)\) est donnée par
\[h(u,v,w) = \mathbb{I}_{\{0< u \le v \le w\}} \exp(-w) \quad (u,v,w) \in \mathbb{R}^3.\]
Quitte à noter \(T=X_1.V=X_1+X_2\) on a donc
\[h_{(T,V) \mid S} ((t,v) \mid s) = \frac{2}{s^2} \mathbb{I}_{0< t < v < s}.\]
Par ailleurs, la densité conditionnelle de \((U_1^S,U_2^S)\) sachant \(S\) est donnée par
\[\frac{1}{w^2}\mathbb{I}_{[0,w]^2}(u,v), (u,v) \in \mathbb{R}^2.\]
Ceci peut être récrit
\[\frac{1}{w^2} \mathbb{I}_{\{0<u<v<w\}} + \mathbb{I}_{\{0<v<u<w\}}, (u,v) \in \mathbb{R}^2,\]
la première partie correspondant aux cas où la première uniforme réalise le \(\min\) des deux, et la deuxième partie aux cas où elle réalise le \(\max\).
Comme \((U_1^S,U_2^S)\) jouent, conditionnellement à \(S\), des rôles parfaitement symétriques, on déduit que \(h_{(U,V) \mid S}\) est la densité de la statistique d’ordre de ces deux variables, ce qui est le résultat souhaité.
Exercice 12 (Partiel passé)
Pour \((x,y) \in \mathbb{R}^2\) on définit
\[f(x,y) := \frac{4y}{x^3} \mathbf{1}_{\{0<x<1, 0<y <x^2\}}.\]
Vérifier que \(f\) est bien une densité de probabilité, puis calculer les densités marginales \(f_X\), \(f_Y\).
Il est clair que \(f\) est à valeurs dans \(\mathbb{R}_+\). Reste à vérifier que \(\int_{\mathbb{R}^{2}} f(x,y)dx dy =1\). Comme \(f\) est positive, on peut appliquer Fubini pour voir qu’on peut choisir un ordre quelconque d’intégration. Commençons par exemple par intégrer en \(y\), on obtient :
\[\begin{align*}
\int_{\mathbb{R}^{2}} f(x,y)dx dy
& = \int_{0}^1 \left(\int_{0}^{x^2} f(x,y) dy \right) dx \\
& = \int_{0}^1 \left(\int_{0}^{x^2} y dy \right) \frac{4}{x^3} dx \\
& = \int_{0}^1 \frac{x^4}{2} \frac{4}{x^3} dx \\
& = \int_0^1 2x dx = \left[ x^2 \right]_0^1 =1,
\end{align*}\]
et on conclut que \(f\) est bien une densité de probabilité sur \(\mathbb{R}^2\) (on remarquera qu’étant donnée la présence de l’indicatrice, un vecteur \((X,Y)\) de densité \(f\) est presque sûrement à valeurs dans le carré ouvert \((0,1)^2\), et même presque sûrement à valeurs dans la partie du carré qui se trouve strictement sous la parabole \(y=x^2\). En particulier, les lois marginales sont toutes deux supportées par \((0,1)\).).
Pour \(x \in (0,1)\),
\[f_X(x) = \int_{0}^{x^2} f(x,y) dy = 2x.\]
de sorte que \(f_X(x) = 2x \mathbf{1}_{(0,1)}(x)\).
Enfin, pour \(y \in (0,1)\), on a
\[\begin{align*}
f_Y(y)
&= \int_{\sqrt{y}}^1 f(x,y) dx \\
&= 2y \int_{\sqrt{y}}^1 \frac{2}{x^3} dx \\
&= 2y \left[ \frac{-1}{x^2} \right]_{\sqrt{y}}^1 = 2y \left(-1+\frac{1}{y}\right) = 2(1-y)
\end{align*}\]
de sorte que \(f_Y(y) = 2(1-y) \mathbf{1}_{(0,1)}(y)\).
Calculer \(f_{Y\mid X}(y \mid x)\) et en déduire que
\[\mathbb{E}[Y \mid X] = \frac{2}{3} X^2.\]
Rappelons que
\[f_{Y\mid X}(y \mid x) = \begin{cases} & \frac{f(x,y)}{f_X(x)} \mbox{ si } f_X(x) \ne 0 \\ & 0 \mbox{ sinon.}\end{cases}\]
On a donc
\[f_{Y\mid X}(y \mid x) = \begin{cases} & \frac{2y}{x^4} \mathbf{1}_{\{0<y <x^2\}} \text{ si } x \in (0,1) \\ & 0 \mbox{ sinon.} \end{cases}\]
On a alors \(\mathbb{E}[Y \mid X] = \psi(X)\), où
\[\psi(x) = \int_{\mathbb{R}} y f_{Y \mid X}(y \mid x) dy.\]
En particulier \(\psi\) a pour support \((0,1)\) et si \(x \in (0,1)\),
\[\begin{align*}
\psi(x)
& = \int_{0}^{x^2} y \frac{2y}{x^4} dy \\
& = \frac{2}{x^4} \left[ \frac{y^3}{3} \right]_0^{x^2} = \frac{2x^2}{3}.
\end{align*}\]
On conclut que
\[\mathbb{E}[Y \mid X] = \frac{2}{3} X^2.\]
Montrer que
\[f_{X \mid Y}(x\mid y) = \frac{2y}{1-y} \frac{1}{x^3} \mathbf{1}_{\{0<x<1, 0<y <x^2\}},\]
puis calculer \(\mathbb{E}[X \mid Y]\).
Comme dans la question précédente,
\[\begin{align*}
f_{X\mid Y}(x \mid y)
& = \begin{cases} & \frac{f(x,y)}{f_Y(y)} \mbox{ si } f_Y(y) \ne 0 \\ & 0 \text{ sinon,} \end{cases} \\
& = \begin{cases} \frac{4y}{2(1-y)x^3}\mathbf{1}_{\{0<x<1, 0<y<x^2\}} & \text{ si } y \in (0,1) \\ 0 & \text{ sinon,} \end{cases}
\end{align*}\]
ce qui est le résultat recherché puisque si \(0<x<1\) et \(0<y<x^2\), on a bien \(y \in (0,1).\)
On a alors \(\mathbb{E}[X \mid Y] = \phi(Y)\), où
\[\phi(y) = \int_{\mathbb{R}} x f_{X \mid Y}(x \mid y) dx. \]
En particulier \(\phi\) a pour support \((0,1)\) et si \(y \in (0,1)\),
\[\begin{align*}
\phi(y)
& = \frac{2y}{1-y} \int_{\sqrt{y}}^{1} \frac{1}{x^2} dx \\
& = \frac{2y}{1-y} \left[ -\frac{1}{x} \right]_{\sqrt{y}}^{1} \\
& = \frac{2y}{1-y} \left(-1+\frac{1}{\sqrt{y}} \right) \\
& = 2 \sqrt{y} \frac{1-\sqrt{y}}{1-y} = 2\frac{\sqrt{y}}{1+\sqrt{y}}.
\end{align*}\]
Finalement
\[\mathbb{E}[X \mid Y] = 2 \frac{\sqrt{Y}}{1+\sqrt{Y}}.\]
Dans cet exercice on suppose que
\[
\begin{pmatrix} X \\ Y\end{pmatrix} \sim \mathcal{N} \left( \begin{pmatrix} 0 \\ 0 \end{pmatrix}, \begin{pmatrix} 2 & 1 \\ 1 & 1 \end{pmatrix} \right),
\]
et on pose \(U= X^2\).
Vérifier que \(U \sim \mathrm{Gamma}(1/2,1/4)\).
Montrer que \((X,Y)\) possède une densité jointe \(g\) que l’on déterminera.
Montrer que \((U,Y)\) possède la densité jointe \[ f(u,y) = \frac{1}{{ 4} \pi \sqrt{u}} \left( \exp\left(- \frac{u}{2} - y^2 + y \sqrt{u} \right) + \exp\left(-\frac{u}{2}- y^2 - y\sqrt{u} \right) \right) \mathbb{I}_{\{u >0\}}. \]
Calculer \(f_{Y \mid U}(y \mid u)\). En déduire \(\mathbb{E}[Y \mid U], \mathbb{E}[Y^2 \mid U]\) et \(\mathrm{Var}(Y \mid U)\). Vérifier qu’on a bien \[\mathrm{Var}[Y] = \mathbb{E}[\mathrm{Var}[Y \mid U]] + \mathrm{Var}[\mathbb{E}[Y \mid U]]\, .\]
On suppose que conditionnellement à \(U\), \(\xi\) et \(Z\) sont indépendantes avec \(\xi \sim \mathrm{Ber}(1/2)\) et \(Z \sim \mathcal{N}\left(\frac{\sqrt{U}}{2},\frac{1}{2}\right)\). Montrer que conditionnellement à \(U\), \((2\xi-1) Z\) a même loi que \(Y\). Vérifier alors les calculs de la question précédente.
rappelle que pour \(a>0, \lambda >0\), la densité d’une variable \(G \sim \mathrm{Gamma}(a,\lambda)\) est donnée par
\[f_G(x) = \frac{\lambda^a x^{a-1}}{\Gamma(a)} \exp(-\lambda x) \mathbb{I}_{\{x >0 \}}\]
On fera attention à distinguer les domaines \(D_1 = \mathbb{R}_-^*\times \mathbb{R}\) et \(D_2 = \mathbb{R}_+^* \times \mathbb{R}\) pour pouvoir considérer les \(\mathcal{C}^1\)-difféomorphismes \(\displaystyle{\Psi_1 : \begin{cases} \!\!&\!\! D_1 \to \mathbb{R}_+^* \times \mathbb{R} \\ \!\!&\!\! (x,y) \to (x^2,y) \end{cases}, \ \ \Psi_2 : \begin{cases} \!\!&\!\! D_2 \to \mathbb{R}_+^* \times \mathbb{R} \\ \!\!&\!\! (x,y) \to (x^2,y)\end{cases}}\).
Pour \(\alpha \in \mathbb{R}\), les deux premiers moments de la variable \(\zeta \sim \mathcal{N}\left(\alpha \frac{\sqrt{u}}{2}, \frac{1}{2}\right)\) sont
\[\begin{align*}
\mathbb{E}[\zeta]
& = \int_{\mathbb{R}} \frac{1}{\sqrt{\pi}} y \exp\left(- \left(y - \alpha \frac{\sqrt{u}}{2}\right)^2 \right) dy \\
& = \alpha \frac{\sqrt{u}}{2}, \\
\mathbb{E}[\zeta^2]
& = \mathbb{E}[\zeta]^2+ \mathrm{Var}[\zeta] = \int_{\mathbb{R}} \frac{1}{\sqrt{\pi}} y^2 \exp\left(- \left(y - \alpha \frac{\sqrt{u}}{2}\right)^2 \right) dy \\
& = \alpha^2 \frac{u}{4} + \frac{1}{2}
\end{align*}\]
- On a \(U= X^2\) avec \(X \sim \mathcal{N}(0,2)\). Pour \(\phi : \mathbb{R} \to \mathbb{R}_+\) borélienne, on obtient donc \[\begin{align*}
\mathbb{E}[\phi(U)]
& = \int_{\mathbb{R}} \phi(x^2) \frac{1}{2 \sqrt{\pi}} \exp(-x^2) dx \\
& = \int_{\mathbb{R}_-^*} \phi(x^2) \frac{1}{2 \sqrt{\pi}} \exp\left(-\frac{x^2}{4}\right) dx + \int_{\mathbb{R}_+^*} \phi(x^2) \frac{1}{2 \sqrt{\pi}} \exp\left(-\frac{x^2}{4}\right) dx
\end{align*}\] En effectuant le changement de variables \(u=x^2\) dans chacune des deux intégrales ci-dessus on obtient
\[\mathbb{E}[\phi(U)] = \int_{\mathbb{R}_+^*} \phi(u) \frac{1}{2\sqrt{\pi}} \exp\left(-\frac{u}{4}\right) du,\]
et on conclut que
\[f_U(u) = \frac{1}{2\sqrt{\pi}} \exp\left(-\frac{u}{4} \right) \mathbb{I}_{\{u>0\}},\]
ce qui est bien la densité d’une \(\mathrm{Gamma}(1/2,1/4)\). 1. D’après le cours, un vecteur gaussien bi-dimensionnel suivant la loi \(\mathcal{N}(0,\Sigma)\) a une densité sur \(\mathbb{R}^2\) ssi \(\mathrm{det}(\Sigma) \ne 0\) et cette densité au point \((x,y)\) vaut
\[\frac{1}{2\pi \sqrt{\mathrm{det}(\Sigma)}} \exp\left(- \frac{1}{2} \begin{pmatrix} x & y \end{pmatrix} \Sigma^{-1} \begin{pmatrix} x \\ y \end{pmatrix} \right).\]
Ici \(\Sigma = \begin{pmatrix} 2 & 1 \\ 1 & 1 \end{pmatrix}\), donc \(\mathrm{det}(\Sigma) = 1\), \(\Sigma^{-1}= \begin{pmatrix} 1 & -1 \\ -1 & 2 \end{pmatrix}\), et on obtient donc
\[g(x,y) = \frac{1}{2 \pi} \exp\left( -\frac{x^2}{2} - xy - y^2\right)\]
Soit \(\phi: \mathbb{R}^2 \to \mathbb{R}_+\) borélienne, on a d’après la question précédente
\[\begin{align*}
\mathbb{E}[\phi(U,Y)]
& = \int_{\mathbb{R}^2} \phi(x^2,y) \frac{1}{2 \pi} \exp\left( -\frac{x^2}{2} - xy - y^2\right)
\\
& = \int_{\mathbb{R}_-^* \times \mathbb{R}} \phi(x^2,y) \frac{1}{2\pi} \exp\left( -\frac{x^2}{2} - xy - y^2\right) dc dy \\
& \qquad + \int_{\mathbb{R}_+^* \times \mathbb{R}} \phi(x^2,y) \frac{1}{2\pi} \exp\left( -\frac{x^2}{2} - xy - y^2\right) dx dy
\end{align*}\]
L’application \((x,y) \to (u=x^2,y)\) est un changement de variables de \(\mathbb{R}_-^* \times \mathbb{R} \to \mathbb{R}_+^* \times \mathbb{R}\), avec \(x = -\sqrt{u}\), et de \(\mathbb{R}_+^* \times \mathbb{R} \to \mathbb{R}_+^* \times \mathbb{R}\) avec \(x = \sqrt{u}\), dont le jacobien inverse est \(\frac{1}{2\sqrt{u}}\). On obtient donc :
\[\begin{align*}
\mathbb{E}[\phi(U,Y)]
& = \int_{\mathbb{R}_+^* \times \mathbb{R}} \frac{1}{4\pi \sqrt{u}} \left(\exp\left( -\frac{u}{2} + \sqrt{u} y - y^2\right) + \exp\left( -\frac{u}{2} - \sqrt{u} y - y^2\right) \right)du dy
\end{align*}\]
ce qui conduit bien au résultat souhaité.
Remarque : Comme
\[\int_{\mathbb{R}} \frac{1}{\sqrt{\pi}} \exp\left(-\frac{u}{4} + \sqrt{u} y -y^2\right) dy = \int_{\mathbb{R}} \frac{1}{\sqrt{\pi}} \exp\left(-\frac{u}{4} - \sqrt{u} y -y^2\right) dy = 1,
\]
puisque la première intégrale est celle de la densité d’une variable \(\sim \mathcal{N}(-\sqrt{u}/2,1/2)\), et la deuxième intégrale celle de la densité d’une variable \(\mathcal{N}(\sqrt{u}/2,1/2)\), on retrouve bien que
\[f_U(u) = \int_{\mathbb{R}} f(u,y) dy = \frac{2}{4\sqrt{\pi u}} \exp\left(-\frac{u}{4}\right) \mathbb{I}_{\{u >0\}},\]
comme à la question 1.
- On a donc
\[f_{Y \mid U}(y \mid u) = \frac{1}{2\sqrt{\pi}} \left( \exp\left(- \frac{u}{4} - y^2 - y \sqrt{u} \right) + \exp\left(-\frac{u}{4}- y^2+y\sqrt{u} \right) \right) \mathbb{I}_{\{u >0\}}.\]
Remarquons que
\[\int_{\mathbb{R}} \frac{1}{\sqrt{\pi}} y \exp\left(- \frac{u}{4} - y^2 + y \sqrt{u} \right) dy = \int_{\mathbb{R}} \frac{1}{\sqrt{\pi}} \exp\left(- \left(y - \frac{\sqrt{u}}{2}\right)^2 \right) dy\]
est la moyenne d’une variable \(\sim \mathcal{N}(-\sqrt{u},1/2)\), elle vaut donc \(-\frac{\sqrt{u}}{2}\).
Par le même raisonnement, \(\int_{\mathbb{R}} \frac{1}{\sqrt{\pi}} y^2 \exp\left(- \frac{u}{4} - y^2 + y \sqrt{u} \right) dy\) est l’espérance du carré de cette même variable, et vaut donc \(\frac{1}{2}+\frac{u}{4}\).
De même, \(\int_{\mathbb{R}} \frac{1}{\sqrt{\pi}} y \exp\left(- \frac{u}{4} - y^2 - y \sqrt{u} \right) dy\) est la moyenne d’une variable \(\sim \mathcal{N}(\frac{\sqrt{u}}{2},1/2)\), et vaut donc \(\frac{\sqrt{u}}{2}\), tandis que \(\int_{\mathbb{R}} \frac{1}{\sqrt{\pi}} y^2 \exp\left(- \frac{u}{4} - y^2 + y \sqrt{u} \right) dy\) est l’espérance du carré de cette même variable, et vaut donc \(\frac{1}{2}+\frac{u}{4}\).
On a donc
\[\int_{\mathbb{R}} y f_{Y \mid U}(y \mid u) dy = -\frac{1}{4}\sqrt{u}+\frac{1}{4}\sqrt{u}=0, \quad \mbox{ donc } \mathbb{E}[Y \mid U]=0\]
tandis que
\[\int_{\mathbb{R}} y^2 f_{Y \mid U}(y \mid u) dy = \frac{1}{4}(u+2) + \frac{1}{4}(u+2) = u+2 \quad \mbox{ donc } \mathbb{E}[Y^2 \mid U] = \frac{1}{2} +\frac{U}{4}.\]
Enfin
\[\mathrm{Var}[Y \mid U] = \mathbb{E}[Y^2 \mid U] - \mathbb{E}[Y \mid U]^2= \frac{1}{2}+\frac{U}{4}.\]
Bien s^ur \(\mathrm{Var}[\mathbb{E}[Y \mid U]]=0\). Comme \(\mathbb{E}[U] = \frac{1}{2} \times \left(\frac{1}{4}\right)^{-1} = 2\), on a bien
\[\mathbb{E}[\mathrm{Var}[Y \mid U]] = \frac{1}{2} + \frac{1}{2} = 1,\]
et on a bien \(\mathrm{Var}(Y) = 1 = \mathbb{E}[\mathrm{Var}[Y \mid U]]+\mathrm{Var}[\mathbb{E}[Y \mid U]]\).
- La densité d’une variable \(\zeta \sim \mathcal{N}\left(\frac{\sqrt{u}}{2}, \frac{1}{2}\right)\) est donnée par
\[f_{\zeta}(y) = \frac{1}{\sqrt{\pi}} \exp\left(- \left(y - \frac{\sqrt{u}}{2}\right)^2 \right), \ y \in \mathbb{R}.\]
Celle de \(-\zeta \sim \mathcal{N}\left(-\frac{\sqrt{u}}{2}, \frac{1}{2}\right)\) est donc donnée par
\[f_{-\zeta}(y) = \frac{1}{\sqrt{\pi}} \exp\left(- \left(y + \frac{\sqrt{u}}{2}\right)^2 \right), \ y \in \mathbb{R}.\]
Si \(\xi \sim \mathrm{Ber}(1/2)\), la variable \((2\xi-1) \zeta\) a donc densité \(\frac{1}{2} \left(f_{\zeta}(y) + \frac{1}{2} f_{-\zeta}(y)\right), y \in \mathbb{R}\), et on déduit que la densité conditionnelle de \((2\xi -1) Z\) sachant \(U\) au point \((y,u)\) est donnée par \(f_{Y \mid U}(y \mid u)\). Ainsi \((U,Y)\) et \((U, (2\xi-1)Z)\) ont même loi.
On retrouve bien :
\[\mathbb{E}[Y \mid U] = \mathbb{E}[(2\xi-1)Z \mid U] = \frac{1}{2} \left( \frac{\sqrt{U}}{2} - \frac{\sqrt{U}}{2}\right) =0, \quad \mathbb{E}(Y^2 \mid U) = \mathbb{E}[Z^2 \mid U] = \frac{U}{4}+\frac{1}{2}\]
Exercice 14 (Rattrapage passé)
Soit \(X=(X_1,X_2,X_3) \sim \mathcal{N}(0,M)\), où
\[M := \begin{pmatrix} 2& 2 &-2 \\ 2& 5 & 1 \\ -2 & 1 & 5 \end{pmatrix},\]
- Montrer que \(\det(M)=0\). Le vecteur \(X\) possède-t-il une densité dans \(\mathbb{R}^3\)?
- Trouver \(a \in \mathbb{R}\) tel que \(X_1\) et \(Y=X_2-a X_1\) soient indépendantes. Calculer \(\mathrm{Var}(Y)\) et en déduire la loi de \((X_1,Y)\).
- Trouver la loi conditionnelle de \(X_2\) sachant \(X_1\).
- On trouve \(\ker(M) = \mathrm{Vect} \left\{ \begin{pmatrix} 2 \\ -1 \\ 1 \end{pmatrix} \right\}\) de dimension \(1\), donc \(\det(M)=0\). Le vecteur \(X\) est donc p.s. à valeurs dans \(\mathrm{Ker}(M)^{\perp} = \{(x,y,z) \in \mathbb{R}^3 : 2x - y + z =0\}\), en particulier il ne possède pas de densité sur \(\mathbb{R}^3\).
- \((X_1,Y)\) est un vecteur gaussien comme image par une application linéaire d’un vecteur gaussien, ses coordonnées sont donc indépendantes ssi \(\mathrm{Cov}(X_1,X_2-aX_1)=0\) ssi \(a=1\).
- On déduit que \(X_2 = X_1 + Y\), avec \(Y = X_2-X_1\) indépendant de \(X_1\), et de loi \(\mathcal{N}(0,3)\) (on a utilisé que \(\mathrm{Var}(Y) = \mathrm{Var}(X_1)+\mathrm{Var}(X_2) - 2 \mathrm{Cov}(X_1,X_2) = 3\)).
On conclut que conditionnellement à \(X_1\), \(X_2 \sim \mathcal{N}(X_1,3)\).
Exercice 15 (Combinaison linéaire de gaussiennes)
On considère \(X_0 =0\), et \((X_n)_{n \ge 1}\) une suite de variables aléatoires réelles indépendantes, identiquement distribuées suivant la loi normale centrée réduite.
On introduit les variables
\[Y_i = \frac{X_i-X_{i-1}}{i}, i \ge 1.\]
Pour \(n \ge 1\), montrer que le vecteur \((Y_1,...,Y_n)\) est gaussien, puis calculer le vecteur moyenne et la matrice de covariances de \((Y_1,...,Y_n)\).
Fixons \(n \ge 1\) et notons \(\mathbf{X}_n = (X_1,...,X_n), \mathbf{Y}_n=(Y_1,...,Y_n)\).
Les variables \(\{X_i\}_{i=1}^n\) étant des gaussiennes centrées réduites indépendantes, on a déjà montré (par exemple à la première question du partiel) que \((X_1,...,X_n)\) est un vecteur gaussien (et d’ailleurs \(\mathbf{X}_n \sim \mathcal{N}(0,I_n)\)).
Notons alors
\[A_n := \begin{pmatrix} 1 & 0 & 0 & 0 & \dots & 0 & 0 \\
-1/2 & 1/2 & 0 & 0& \dots &0 & 0 \\
0 & -1/3 & 1/3 & 0 & \dots & 0 & 0 \\
\vdots & & \ddots & \ddots & & & \\
\vdots & & & \ddots & \ddots & & \\
\vdots & & & & \ddots & \ddots & \\
0 & 0 & 0& 0 & \dots & -1/n & 1/n \end{pmatrix},\]
de sorte que \(\mathbf{Y}_n = A_n \mathbf{X}_n\), et le vecteur \(\mathbf{Y}_n\) est donc bien un vecteur gaussien en tant que transformation linéaire du vecteur gaussien \(\mathbf{X}_n\).
D’après un théorème du cours, on a alors que \(\mathbf{Y}_n \sim \mathcal{N}(A_n 0, A_n I_n A_n^T)\), i.e. \(\mathbf{Y}_n \sim \mathcal{N}(0,A_n A_n^T)\), où
\[
A_n A_n^T = \begin{pmatrix} 1 & -1/2 & 0 & 0 & \dots & 0 & 0 \\
-1/2 & 1/2 & -1/6 & 0 & \dots & 0 & 0 \\
0 & -1/6 & 2/9 & -1/12 & \dots &0 & 0 \\
\vdots & & \ddots & \ddots & \ddots & & \\
\vdots & & & \ddots & \ddots & \ddots & \\
\vdots & & & & \ddots & \ddots & \\
0 & \dots & & & 0 & -\frac{1}{n(n-1)} & \frac{2}{n^2}\end{pmatrix}.
\]
Calculer, pour \(n \ge 1\), \(\mathbb{E}[Y_{n+1}\mid Y_n]\).
Pour \(a \in \mathbb{R}\) on peut toujours écrire \(Y_{n+1} = Y_{n+1} + a Y_n - a Y_n\).
Comme le vecteur \(\mathbf{Y}_{n+1}\) est gaussien, la variable \(Y_{n+1}+aY_n\) est indépendante de \(Y_n\) si et seulement si \(\mathrm{cov}(Y_{n+1}+a Y_n, Y_n)=0.\) Or \[\mathrm{cov}(Y_{n+1}+a Y_n, Y_n)= -\frac{1}{n(n+1)} + \frac{2a}{n^2},\] qui s’annule pour \(a = \frac{n}{2(n+1)}\).
On a alors, en utilisant cette indépendance et le fait que les variables \(Y_n, Y_{n+1}\) sont centrées :
\[\begin{align*}
\mathbb{E}[Y_{n+1} \mid \mathcal{F}_n] & = \mathbb{E}[( Y_{n+1} + \frac{n}{2(n+1)} Y_n )\mid \mathcal{F}_n] - \mathbb{E}[\frac{n}{2(n+1)} Y_n \mid \mathcal{F}_n] \\
& = \mathbb{E}[Y_{n+1} + \frac{n}{2(n+1)} Y_n] - \frac{n}{2(n+1)} Y_n \\
& = - \frac{n}{2(n+1)} Y_n.
\end{align*}\]
Exercice 16 (Loi jointe à densité)
Soient \((X,Y)\) dont la loi jointe a pour densité \(f(x,y) = x(y-x) \exp(-y), 0 \le x \le y <\infty\). On introduit la notation \(f_{X|Y}(x|y) := f(x,y)/f_Y(y)\) lorsque le quotient est \(>0\), \(0\) sinon.
- Exprimer \(f_{X|Y}(x|y)\), puis \(f_{Y|X}(y|x)\).
- En déduire les expressions de \(\mathbb{E}[X|Y], \mathbb{E}[Y|X]\).
Calculons d’abord les densités marginales.
\[\begin{align*}
f_X(x) & = \mathbb{I}_{\{x>0\}} \int_x^{\infty} x(y-x) \exp(-y) dy \\
& = \mathbb{I}_{\{x > 0\}} x \exp(-x) \int_0^{\infty} u \exp(-u) du = \mathbb{I}_{\{x > 0\}} x \exp(-x)
\end{align*}\]
de sorte que \(X \sim \mathrm{Gamma}(2,1)\).
Par ailleurs
\[\begin{align*}
f_Y(y)
& = \mathbb{I}_{\{y >0\}} \exp(-y) \int_0^y x(y-x) dx \\
& = \mathbb{I}_{\{y >0\}} \exp(-y) \left( \frac{y^3}{2} - \frac{y^3}{3} \right) = \mathbb{I}_{\{y >0\}} \exp(-y) \frac{y^3}{6}
\end{align*}\]
de sorte que \(Y \sim \mathrm{Gamma}(4,1)\).
On déduit
\[f_{X \mid Y} (x \mid y) = \frac{6x(y-x)}{y^3} \mathbb{I}_{\{0 < x < y\}},\]
\[f_{Y \mid X} (y \mid x) = (y-x) \exp(-(y-x)) \mathbb{I}_{\{0 < x < y\}}.\]
Remarque : On peut assez facilement interpréter cette deuxième densité conditionnelle : sachant \(X\), \(Y = X + U\) où \(U \sim \Gamma(2,1)\) indépendante de \(X\).
On a
\[\int_{\mathbb{R}} x f_{X \mid Y}(x \mid y) dx = \int_0^y \frac{6x^2(y-x)}{y^3} dx = 2y - \frac{3}{2}y= \frac{y}{2},\]
et on conclut que \(\mathbb{E}[X \mid Y] = \frac{Y}{2}\).
D’autre part
\[\begin{align*}
\int_{\mathbb{R}} y f_{Y \mid X}(y \mid x) dy & = \int_{x}^{\infty} y (y-x) \exp(-(y-x)) dy \\
& = \int_0^{\infty} (u+x) u \exp(-u) du \\
& = \left[ -(u+x)u \exp(-u) \right]_{0}^{\infty} + \int_0^{\infty} (2u+x) \exp(-u) du \\
& = \left[ -(2u+x) \exp(-u) \right]_0^{\infty} + \int_0^{\infty} 2 \exp(-u) du = x + 2
\end{align*}\]
et on conclut que \(\mathbb{E}[Y \mid X] = X+2\).
Exercice 17 (Exponentielles conditionnées)
Soient \(Y,Z\) deux v.a.r. indépendantes \(\sim \mathrm{exp}(\lambda)\) où \(\lambda>0\). On pose \(X= Y+Z\). Quelle est la loi conditionnelle de \(Y\) sachant \(X\)? Que vaut \(\mathbb{E}[Y|X]\)? En déduire l’expression de \(\mathbb{E}[Y|X]\)
Remarquons déjà que par le même raisonnement que dans l’exercice 5 on trouve \(\mathbb{E}[Y \mid X] = \frac{X}{2}\).
Pour le reste on peut faire un raisonnement similaire aux exercices 11, 15. D’abord, pour \(\phi : \mathbb{R}^2 \to \mathbb{R}_+\) borélienne,
\[\begin{align*}
\mathbb{E}[\phi(Y, Y+Z)] & =
\int_{\mathbb{R}_+^2} \phi(y,y+z) \lambda^2 \exp(-\lambda (y+z)) dy dz \\
& = \int_{\mathbb{R}_+^2} \mathbb{I}_{\{y \le x\}} \phi(y,x) \lambda^2 \exp(-\lambda x) dy dx
\end{align*}\]
de sorte que \(f_{(Y,X)}(y,x) = \mathbb{I}_{\{0<y<x\}} \lambda^2 \exp(-\lambda x), \ (x,y) \in \mathbb{R}^2\).
Comme \(X \sim \mathrm{Gamma}(2,1)\) on a
\(f_X(x) = \lambda^2 \exp(-\lambda x) \mathbb{I}_{\{x >0\}}, x \in \mathbb{R}\)
et donc
\[f_{Y \mid X}(y \mid x) = \frac{1}{x} \mathbb{I}_{\{0 < y < x \}}\]
de sorte que la loi conditionnelle de \(Y\) sachant \(X\) est \(\mathrm{Unif}[0,X]\). On conclut que \(\mathbb{E}[Y \mid X] = \frac{X}{2}.\)
Exercice 18 (Gaussiennes corrélées)
Soient \(X\) et \(Y\) deux variables aléatoires indépendantes, toutes deux normales centrées réduites. On définit pour \(\sigma_1 >0, \sigma_2>0, |\rho|\le 1\),
\[U = \sigma_1 X, \quad V= \sigma_2 \rho X + \sigma_2 \sqrt{1- \rho^2} Y.\]
- Quelle est la loi de \((U,V)\)?
- Que vaut \(\mathbb{E}[UV]\)?
- Que vaut \(\mathbb{E}[U \mid V]? \mathbb{E}[V \mid U]? \mathrm{Var}[U \mid V]? \mathrm{Var}[V \mid U]?\)
On a \(\begin{pmatrix} U \\ V \end{pmatrix} = \begin{pmatrix} \sigma_1 & 0 \\ \sigma_2 \rho & \sigma_2 \sqrt{1-\rho^2} \end{pmatrix} \begin{pmatrix} X \\ Y \end{pmatrix}\), avec \(\begin{pmatrix} X \\ Y \end{pmatrix} \sim \mathcal{N}(0,I_2)\). Or \(\begin{pmatrix} \sigma_1 & 0 \\ \sigma_2 \rho & \sigma_2 \sqrt{1-\rho^2} \end{pmatrix} I_2 \begin{pmatrix} \sigma_1 & 0 \\ \sigma_2 \rho & \sigma_2 \sqrt{1-\rho^2} \end{pmatrix}^T = \begin{pmatrix} \sigma_1^2 & \sigma_1 \sigma_2 \rho \\ \sigma_1 \sigma_2 \rho & \sigma_2^2 \end{pmatrix}\), on déduit donc que \(\begin{pmatrix} U \\ V \end{pmatrix} \sim \mathcal{N}\left( \begin{pmatrix} 0 \\ 0 \end{pmatrix}, \begin{pmatrix} \sigma_1^2 & \sigma_1 \sigma_2 \rho \\ \sigma_1 \sigma_2 \rho & \sigma_2^2 \end{pmatrix}\right).\)
On a \(\mathbb{E}[UV]=\mathrm{Cov}(UV) = \sigma_1\sigma_2 \rho\) d’après la question précédente.
D’après les formules du cours, avec \(\theta = U, \xi =V\), \(\mu_{\theta}=\mu_{\xi}=0, M_{\theta \xi} = M_{\xi\theta} = \sigma_1\sigma_2 \rho, M_{\theta \theta} = \sigma_1^2\) et \(MM_{\xi \xi} = \sigma_2^2\), on trouve que
\[\mathbb{E}[U \mid V] = M_{\theta \xi} M_{\xi\xi}^{-1} \xi = \frac{\sigma_1 \rho}{\sigma_2} V, \qquad \mathrm{Var}[U \mid V ] = M_{\theta \theta} - M_{\theta \xi} M_{\xi \xi } M_{\xi \theta} = \sigma_1^2(1-\rho^2)\]
De manière symétrique on trouve que
\[\mathbb{E}[V \mid U] = \frac{\sigma_2 \rho}{\sigma_1} U, \qquad \mathrm{Var}[V \mid U] = \sigma_2^2 (1-\rho^2).\]
Remarque : \(\mathrm{Cov}(\alpha U + V, U) = \alpha \sigma_1^2 + \rho \sigma_1 \sigma_2\), on trouve donc pour \(\alpha = - \frac{\sigma_2 \rho}{\sigma_1}\) que \[ V = \frac{\sigma_2 \rho}{\sigma_1} U + \left( - \frac{\sigma_2 \rho}{\sigma_1}U + V \right),\] la première partie de la somme étant bien s^ur \(\sigma(U)\)-mesurable, alors que la deuxième en est indépendante, et suit la loi \(\mathcal{N}(0,\sigma_2^2(1-\rho^2))\). On retrouve donc bien que conditionnellement à \(U, V \sim \mathcal{N}\left( \frac{\sigma_2 \rho}{\sigma_1} U, \sigma_2^2(1-\rho^2)\right)\).
{} : \(\sigma_1^2\) est la variance de \(U\), \(\sigma_2^2\) celle de \(V\), et \(\rho\) est le coefficient de corrélation de \(U\) et \(V\). L’énoncé de l’exercice fournit donc une mani ere de fabriquer un vecteur gaussien \(2\)-dimensionnel et non dégénéré quelconque à partir d’un vecteur gaussien centré réduit.
Exercice 19 (Gaussiennes corrélées (2))
Soit \(Z = (X, Y )\) un vecteur aléatoire gaussien à valeurs dans \(\mathbb{R}^2\). On suppose que \(E(X) = E(Y ) = 0\), \(\mathrm{Var}(X) = \mathrm{Var}(Y ) = 1\) et que \(\mathrm{Cov}(X; Y ) = \rho\) avec \(|\rho|^2 \ne 1\). On pose \(U = X -\rho Y , V = \sqrt{1-\rho^2} Y\).
- Quelles sont les lois de \(U\) et \(V\) ? Les v.a. \(U\) et \(V\) sont-elles indépendantes ?
- Calculer \(\mathbb{E}(U^2V^2), \mathbb{E}(U V^3), \mathbb{E}(V^4)\). En déduire \(\mathbb{E}(X^2Y^2)\).
- Retrouver ce dernier résultat par conditionnement.
On a \(\begin{pmatrix} U \\ V \end{pmatrix} = \begin{pmatrix} 1 & -\rho \\ 0 & \sqrt{1-\rho^2} \end{pmatrix} \begin{pmatrix} X \\ Y \end{pmatrix}\), avec \(\begin{pmatrix} X \\ Y \end{pmatrix} \sim \mathcal{N}\left(\begin{pmatrix} 0 \\ 0 \end{pmatrix}, \begin{pmatrix} 1 & \rho \\ \rho & 1\end{pmatrix} \right)\). Or \(\begin{pmatrix} 1 & -\rho \\ 0 & \sqrt{1-\rho^2} \end{pmatrix} \begin{pmatrix} 1 & \rho \\ \rho & 1\end{pmatrix} \begin{pmatrix} 1 & 0 \\ - \rho & \sqrt{1-\rho^2} \end{pmatrix} = \begin{pmatrix} \sigma_1^2 & \sigma_1 \sigma_2 \rho \\ \sigma_1 \sigma_2 \rho & \sigma_2^2 \end{pmatrix}\), on déduit donc que \(\begin{pmatrix} U \\ V \end{pmatrix} \sim \mathcal{N}\left( \begin{pmatrix} 0 \\ 0 \end{pmatrix}, \begin{pmatrix} 1-\rho^2 & 0 \\ 0 & 1-\rho^2 \end{pmatrix}\right),\) autrement dit \(U\) et \(V\) sont i.i.d de loi \(\mathcal{N}(0,1-\rho^2)\).
On déduit \[\mathbb{E}[U^2V^2] = (1-\rho^2)^2, \quad \mathbb{E}[UV^3] = 0, \quad \mathbb{E}[V^4] = 3(1-\rho^2).\] On a donc (\(V\) et \(Y\) ne diffèrent que par une constante multiplicative donc \(U\) est indépendant de \(Y\) \[\mathbb{E}[X^2 Y^2] = \mathbb{E}[(U+\rho Y)^2 Y^2] = \mathbb{E}[U^2] \mathbb{E}[Y^2] + 2 \rho \mathbb{E}[U] \mathbb{E}[Y^3] + \rho^2 \mathbb{E}[Y^4] = (1-\rho^2) +3\rho^2 = 1+2\rho^2.\]
- On a vu que \(U=X-\rho Y\) est indépendant de \(Y\) (et suit une \(\mathcal{N}(0,1-\rho^2)\), donc sachant \(Y\), \(X \sim \mathcal{N}(\rho Y, 1-\rho^2)\). En particulier \(\mathbb{E}[X^2 \mid Y] = \mathbb{E}[X \mid Y]^2 + \mathrm{Var}[X \mid Y] = \rho^2 Y^2 + 1-\rho^2.\) On a donc \[\mathbb{E}[X^2 Y^2] = \mathbb{E}[\mathbb{E}[X^2 Y^2 \mid Y]] = \mathbb{E}[\rho^2 Y^4 + (1-\rho^2)Y^2] = 3 \rho^2 + (1-\rho^2) = 1+2\rho^2.\]
Exercice 20 (Gaussiennes)
Soient \(U, V, W\) trois v.a.r. gaussiennes centrées réduites. On pose \[Z =\frac{U + VW}{\sqrt{1+W^2}}.\]
- Quelle est la loi conditionnelle de \(Z\) sachant \(W\)?
- En déduire que \(Z\) et \(W\) sont indépendantes et donner la loi de \(Z\).
- Pour \(\alpha \in \mathbb{R}\), la loi de \(\frac{U+ \alpha V}{\sqrt{1+\alpha^2}}\) est gaussienne, centrée, et de variance \[ \frac{\mathrm{Var}(U) + 2\alpha \mathrm{Cov}(U,V) + \alpha^2 \mathrm{Var}(V)}{1+\alpha^2} = 1.\] Donc, quelque soit \(\alpha \in \mathbb{R}\), \(\frac{U+ \alpha V}{\sqrt{1+\alpha^2}} \sim \mathcal{N}(0,1)\). On déduit que sachant \(W\), \(Z \sim \mathcal{N}(0,1)\)
- La loi conditionnelle de \(Z\) sachant \(W\) ne dépend pas de \(W\) (et c’est sa loi), on déduit que \(Z\) et \(W\) sont indépendantes. La loi de \(Z\) est \(\mathcal{N}(0,1)\).
Raisonnement alternatif :
Par hypothèse, \((U,V,W)\) possède la densité jointe
\[f(u,v,w) = \frac{1}{(2\pi)^{3/2}} \exp\left(-\frac{1}{2}(u^2+v^2+w^2) \right), \quad (u,v,w) \in \mathbb{R}^3.\]
Calculons la densité de \((W,Z)\). Soit \(\phi : \mathbb{R}^2 \to \mathbb{R}_+\) borélienne. On va utiliser le changement de variables \(\Psi : \begin{cases} & \mathbb{R}^3 \to \mathbb{R}^3 \\ & (u,v,w) \to (z,s,t) \end{cases}\) avec \(z=\frac{u+vw}{\sqrt{1+w^2}}, s=v, t=w\). Il s’agit bien d’un \(\mathcal{C}^1\)-difféomorphisme, d’inverse
\(u=z\sqrt{1+t^2}- st, v=s, w=t\) et de jacobien inverse \(\sqrt{1+t^2}\)
\[\begin{align*}
\mathbb{E}[\phi(W,Z)] & = \frac{1}{(2\pi)^{3/2}}\int_{\mathbb{R}^3}\phi\left(w,\frac{u+vw}{\sqrt{1+w^2}}\right) \exp\left(-\frac{1}{2}(u^2+v^2+w^2) \right) du dv dw \\
& = \frac{1}{(2\pi)^{3/2}}\int_{\mathbb{R}^3} \phi(t,z) \sqrt{1+t^2} \exp\left(-\frac{1}{2} \left(z^2(1+s^2) + s^2 t^2 -2z t s \sqrt{1+t^2}+ s^2 + t^2\right)\right) ds dt dz
\\ & = \int_{\mathbb{R}^2} \frac{1}{(2\pi)} \exp\left( -\frac{1}{2} (z^2+t^2)\right) dt dz \int_{\mathbb{R}}\frac{\sqrt{1+t^2}}{\sqrt{2\pi}} \exp\left( -\frac{1}{2} (s\sqrt{1+t^2} -zt)^2\right) ds
\end{align*}\]
Comme \(\int_{\mathbb{R}}\frac{\sqrt{1+t^2}}{\sqrt{2\pi}} \exp\left( -\frac{1}{2} (s\sqrt{1+t^2} -zt)^2\right) ds = 1\) (on reconna^t l’intégrale sur \(\mathbb{R}\) de la densité d’une \(\mathcal{N}(\frac{zt}{\sqrt{1+t^2}}, \frac{1}{\sqrt{1+t^2}})\), on obtient
\[\mathbb{E}[\phi(W,Z)] = \int_{\mathbb{R}^2} \frac{1}{(2\pi)} \exp\left( -\frac{1}{2} (s^2+t^2)\right)\]
et on conclut que \((W,Z)\) est un vecteur gaussien bi-dimensionnel, centré réduit, et on retrouve les résultats précédents.
Exercice 21 (Maxima d’exponentielles)
Soient \(X_1\) et \(X_2\) des v.a. indépendantes, de lois exponentielles de paramètres respectifs \(\lambda_1\) et \(\lambda_2\).
- Calculer \(\mathbb{E}[\max(X_1,X_2) \mid X_1]\).
- Calculer \(\mathbb{E}[\max(X_1;X_2)]\).
- \(X_2 \sim \exp(\lambda_2)\) et possède donc la propriété d’absence de mémoire. Pour \(a>0\) fixé on a donc
On en déduit que
\[\mathbb{E}[X_1 \mathbb{I}_{\{X_1 \ge X_2\}} \mid X_1] = X_1 (1-\exp(-\lambda_2 X_1)), \quad \mathbb{E}[X_2 \mathbb{I}_{\{X_2 \ge X_1\}} \mid X_1] = \left(X_1+\frac{1}{\lambda_2}\right) \exp(-\lambda_2 X_1),\]
et donc
\[\mathbb{E}[\max(X_1,X_2) \mid X_1] = X_1 + \frac{1}{\lambda_2} \exp(-\lambda_2 X_1)\]
- On a pour \(t \ge 0\), \(\mathbb{E}[\exp(-t X_1)] = \frac{\lambda_1}{\lambda_1+t}\) et donc
\[\mathbb{E}[\max(X_1,X_2)] = \mathbb{E}[\mathbb{E}[\max(X_1,X_2) \mid X_1]] = \frac{1}{\lambda_1} + \frac{1}{\lambda_2} \frac{\lambda_1}{\lambda_1+\lambda_2} = \frac{\lambda_1^2 + \lambda_1\lambda_2 + \lambda_2^2}{\lambda_1\lambda_2(\lambda_1+\lambda_2)}.\]
Remarque, vérification : Soit \(Y = \max(X_1,X_2)\), on a \(F_Y(t) = F_{X_1}(t)F_{X_2}(t) = (1-\exp(-\lambda_1 t)) (1-\exp(-\lambda_1 t)) \mathbb{I}_{\{t \ge 0\}}\). On déduit
\[\begin{align*}
f_Y(t) & = \left( \lambda_1 \exp(-\lambda_1 t) (1-\exp(-\lambda_2 t)) + \lambda_2 \exp(-\lambda_2 t) (1-\exp(-\lambda_1 t)) \right) \mathbb{I}_{\{t \ge 0\}}
\\ & = \left(\lambda_1 \exp(-\lambda_1 t) + \lambda_2 \exp(-\lambda_2 t) - (\lambda_1+\lambda_2) \exp(-(\lambda_1+\lambda_2)t) \right) \mathbb{I}_{\{t \ge 0\}}.
\end{align*}\]
On calcule alors facilement
\[\mathbb{E}[Y] = \int_{\mathbb{R}} t f_Y(t) dt = \frac{1}{\lambda_1} + \frac{1}{\lambda_2}- \frac{1}{\lambda_1+\lambda_2},\]
et on retrouve le résultat précédent.
Exercice 22 (Densités jointes)
On pose \(h(x) = \frac{1}{\Gamma(a+1)} \exp(-x)x^{a-1}\) (\(a > 0\) fixé) et \(D = \{0 < y < x\}\). Soit \(f(x, y) = h(x)\mathbf{1}_D(x, y)\):
- Montrer que \(f\) est une densité de probabilité sur \(\mathbb{R}^2\). On considère dans la suite un couple \((X, Y)\) de v.a.r. de densité \(f\).
- Les v.a. \(X\) et \(Y/X\) sont-elles indépendantes?
- Quelle est la loi conditionnelle de \(Y\) sachant \(X\) ?
- Soit \(U\) une v.a.r. indépendante du couple \((X, Y)\) telle que \(\mathbb{P}(U = 1) = p\) et \(\mathbb{P}(U = 0) = 1 - p\). On pose \(Z = UX + (1 - U)Y\). Quelle est l’espérance conditionnelle de \(Z\) sachant \(X\)?
Comme \(h(x)\) ne dépend pas de \(y\), on a pour \(x \in \mathbb{R}\), \[\int_{\mathbb{R}} f(x,y) dy = x h(x) \mathbb{I}_{\{x >0\}} = \frac{x^a}{\Gamma(a+1)} \exp(-x) \mathbb{I}_{\{x >0\}},\] et on reconna^t là la densité d’une variable \(\Gamma(a,1)\). On a donc \[\int_{\mathbb{R}^2} f(x,y) dx dy = \int_{\mathbb{R}_+} \frac{x^a}{\Gamma(a+1)} \exp(-x) dx = 1.\]
Notons \(T = \frac{Y}{X}\), on a pour \(\phi : \mathbb{R}^2 \to \mathbb{R}_+\) borélienne, en utilisant le changement de variables \(\Psi : \begin{cases} & D \to \mathbb{R}_+^* \times (0,1) \\ & (x,y) \to \left(x, t=\frac{y}{x}\right)\end{cases}\) de jacobien inverse \(x\),
\[\begin{align*}
\mathbb{E}[\phi(X,T)] & = \int_{\mathbb{R}^2} \phi(x,\frac{y}{x}) \frac{x^{a-1}}{\Gamma(a+1)} \exp(-x) \mathbb{I}_{\{0<y<x\}}dx dy \\
& = \int_{\mathbb{R}^2} \phi(x,t) \frac{x^{a-1}}{\Gamma(a+1)} \exp(-x) \mathbb{I}_{\{x >0\}} \mathbb{I}_{(0,1)}(t) dx dz
\end{align*}\]
et on conclut que \(X\) et \(T\) sont indépendantes, de lois respectives \(\Gamma(a,1)\), \(\mathrm{Unif}[0,1]\).
- D’après ce qui précède, \(Y = TX\), avec \(T\) indépendante de \(X\), \(\sim \mathrm{Unif}[0,1]\). Remarquons que si \(a>0\), \(aT \sim \mathrm{Unif}[0,a]\). On déduit que sachant \(X\), la loi conditionnelle de \(Y\) est \(\mathrm{Unif}[0,X]\).
- On a en utilisant que \(\mathbb{E}[XS \mid X] = X \mathbb{E}[S \mid X]\), puis l’indépendance de \(X,U,Z\),
\[\begin{align*}
\mathbb{E}[Z \mid X] & = \mathbb{E}[UX \mid X] + \mathbb{E}[(1-U)TX \mid X]\\
& = X \mathbb{E}[U] + X \mathbb{E}[T(1-U)] = X \mathbb{E}[U] + X \mathbb{E}[T]\mathbb{E}[1-U] = \frac{3}{4} X.
\end{align*}\]
Soit \((X_n, n \in \mathbb{N})\) une suite de v.a.r.i.i.d. de densité \(f\) et fonction de répartition \(F\). Soient \(N := \min\{ n \ge 1 : X_n >X_0\}\) et
\(M := \min \{n \ge 1 : X_0 \ge X_1 \ge ... \ge X_{n-1} <X_n \}.\)
- Trouver \(\mathbb{P}(N=n)\), puis montrer que la fonction de répartition de \(X_N\) est \(F +(1-F) \log(1-F)\) (on pourra conditionner par les événements \(\{N=n\}, n \in \mathbb{N}\)).
- Exprimer \(\mathbb{P}(M=m), m \ge 1\).
- On suppose dans cette question que \(f = \mathbf{1}_{[0,1]}\). Pour \(x \in (0,1)\) on introduit \(R^x := \min\{ n \ge 1 : X_1+...+X_n >x \}\). Montrer que \(\mathbb{E}[\mathbf{1}_{\{R^x>n\}} \mid X_n] = \Phi(X_n)\) où \(\Phi(u) = \mathbb{I}_{\{u<x\}} \mathbb{P}(R^{x-u} > n-1)\). En déduire \(H_n(x):= \mathbb{P}(R^x>n)\).
- Puisque les \((X_i, i \ge 1)\) sont à densité elles sont p.s. toutes distinctes, et puisqu’elles sont i.i.d elles sont échangeables. Autrement dit, pour tout \(n \in \mathbb{N}^*\), pour tout \(\sigma_n\) permutation de \(\{0,\dots,n\}\), \((X_0,...,X_n)\) a même loi que \((X_{\sigma_n(0)},\dots,X_{\sigma_n(n)})\).
Il s’ensuit que pour tout \(n \in \mathbb{N}^*\) l’application \(\tau_{n-1} : \{0,...,n-1\} \to \{0,...,n-1\}\) telle que $ X_{{n-1}(0)} > X{{n-1}(1)} > > X{_{n-1}(n-1)}$ est uniforme dans les permutations de \(\{0, \dots,n-1\}\). En particulier,
\[
\mathbb{P}(\max(X_0,...,X_{n-1}) = X_0) = \mathbb{P}(\tau_n(0) =0 ) = \frac{1}{n}
\]
\[\begin{align*}
\mathbb{P}(N=n)
& = \mathbb{P}(\max(X_0,...,X_{n-1}) = X_0, \max(X_0,...,X_n)=X_n) \\
&= \mathbb{P}(\tau_{n+1}(0) = n, \tau_{n+1}(1)=0) \\
& = \frac{1}{n(n+1)}.
\end{align*}\]
Par ailleurs, le maximum de \((n+1)\) telles variables i.i.d a pour fonction de répartition \(F^{n+1}\). Or, sachant \(\{N=n\}\), \(X_N\) réalise ce maximum, on a donc \[\mathbb{P}(X_N < a \mid N=n) = F(a)^{n+1} \]
Il découle que
\[\mathbb{P}(X_N < a) = \sum_{n \in \mathbb{N}^*} \mathbb{P}(N=n) \mathbb{P}(X_N < a \mid N=n) = \sum_{n \in \mathbb{N}^*} \frac{F(a)^{n+1}}{n(n+1)}.\]
Or si \(y < 1\),
\[y + (1-y) \log(1-y) = y -(1-y)\sum_{ n \ge 1} \frac{y^n}{n} = y -\sum_{n \ge 1} \frac{y^n}{n} + \sum_{n \ge 1} \frac{y^{n+1}}{n} = \sum_{n \ge 1} \frac{y^{n+1}}{n(n+1)},\]
et on vérifie que l’égalité reste vraie si \(y=1\). On conclut, comme souhaité, que
\[\sum_{n \in \mathbb{N}^*} \frac{F(a)^{n+1}}{n(n+1)} = F(a) + (1-F(a)) \log(1-F(a)).\]
On a \[\mathbb{P}(M=m) = \mathbb{P}(\tau_m = Id, \tau_{m+1} \ne Id) = \mathbb{P}(\tau_m = Id)- \mathbb{P}(\tau_{m+1}=Id) = \frac{1}{m!}- \frac{1}{(m+1)!} = \frac{m}{(m+1)!}\]
On a \(\{R^x>n\} = \{X_1+\dots+X_n < x\} = \{X_1+\dots +X_{n-1} < x-X_n\} = \{X_n <x, R^{x-X_n}>n-1\}\). On déduit que sachant \(X_n\),
\[R^x \begin{cases} & \le n \mbox{ si } X_n \ge x \mbox{ ou si } X_1+\dots + X_{n-1} \ge x-X_n \\ & < n \mbox{ si } X_n <x, \mbox{ et } R^{x-X_n} > n-1 \end{cases}.\]
ce qui conduit à l’égalité souhaitée gr^ace à EF5.
On a donc
\[ H_n(x) = \mathbb{E}[\Phi(X_n)] = \int_0^1 \Phi(u) du =\int_0^x H_{n-1}(x-u) du = \int_0^x H_{n-1}(v) dv\]
et donc \(H_n\) est la primitive de \(H_{n-1}\) nulle en \(0\). Comme \(H_1(x) = \mathbb{P}(X_1 \le x) = x\), on conclut que \(H_n(x) = \frac{x^n}{n!}\)
Soient \(X\) et \(Y\) deux v.a.r. indépendantes de loi uniforme sur \([0, 1]\).
- Quelle est l’espérance conditionnelle de \((Y - X)_+\) sachant \(X\)?
- Quelle est la loi conditionnelle de \((Y - X)_+\) sachant \(X\)?
- Comme \((X,Y)\) est uniforme sur \([0,1]^2\), si \(a \in [0,1]\), on a
\[\begin{align*}
\mathbb{E}[(Y-X)^+ \mathbb{I}_{\{X \le a\}}] & = \int_0^a \int_0^1 (y-x)^+ dx dy \\
& = \int_0^a \left(\int_x^1 (y-x) dy\right) dx \\
& = \frac{1-(1-a)^3}{6}
\end{align*}\]
On cherche donc \(\mathbb{E}[(Y-X)^+ \mid X]\) sous la forme \(f(X)\) avec une fonction \(f\) telle que
\[\mathbb{E}[f(X) \mathbb{I}_{\{X \le a\}}] = \int_0^a f(u) du = \frac{1-(1-a)^3}{6},\]
et donc \(f(u) = \frac{(1-u)^2}{2}\), ce qui permet de conclure que
\[\mathbb{E}[(Y-X)^+ \mid X] = \frac{(1-X)^2}{2}.\]
- Pour \(a \in [0,1]\), \((Y-a)^+ = 0 \mathbb{I}_{\{Y \le a\}} + (Y-a) \mathbb{I}_{\{Y > a\}}\). De plus, sachant \(\{Y>a\}\), la loi conditionnelle de \(Y-a\) est uniforme sur \([0,1-a]\). Autrement dit,
\[(Y-a)^+ = \xi Z\]
où \(\xi \sim \mathrm{Ber}(1-a)\) indépendante de \(Z \sim \mathrm{Unif}[0,1-a]\), et si \(\phi: \mathbb{R} \to \mathbb{R}_+\) est borélienne, on a
\[\mathbb{E}[\phi(Y-a)^+] = a \phi(0) + \int_0^{1-a} \phi(u) du.\]
Conditionnellement a \(X\), définissons \(\xi_X \sim \mathrm{Ber}(1-X)\), indépendamment de \(Z_X \sim \mathrm{Unif}[0,1-X]\) . Alors d’après ce qui précède,
\[\mathbb{E}[\phi(Y-X)^+ \mid X] = X \phi(0) + \int_0^{1-X} \phi(u) du.\]
Autrement dit, sachant \(X\),
\[(Y-X)^+ = \xi_X Z_X.\]
Soient \(X_1, X_2, X_3\) trois v. a. r. gaussiennes centrées réduites indépendantes. On pose \(U = 2X_1 - X_2 - X_3, V = X_1 + X_2 + X_3, W = 3X_1 + X_2 - 4X_3\).
- Quelles sont les lois de \(U, V\) et \(W\)? Quels sont les couples de v.a. indépendantes parmi les couples \((U, V), (U,W), (V,W)\)?
- Montrer qu’il existe \(a \in \mathbb{R}\) tel que \(W = aU + Z\) avec \(U\) et \(Z\) indépendantes. En déduire \(\mathbb{E}(W \mid U)\).
- On a
\[\begin{pmatrix} U \\ V \\ W \end{pmatrix} = \begin{pmatrix} 2 & -1 & -1 \\ 1 & 1 & 1 \\ 3 & 1 & -4 \end{pmatrix} \begin{pmatrix} X_1 \\ X_2 \\ X_3 \end{pmatrix}, \mbox{ et } \begin{pmatrix} 2 & -1 & -1 \\ 1 & 1 & 1 \\ 3 & 1 & -4 \end{pmatrix} \begin{pmatrix} 2 & -1 & -1 \\ 1 & 1 & 1 \\ 3 & 1 & -4 \end{pmatrix}^T = \begin{pmatrix} 6 & 0 & 9 \\ 0 & 3 & 0 \\ 9 & 0 & 26 \end{pmatrix},\]
de sorte que \(\begin{pmatrix} U \\ V \\ W \end{pmatrix} \sim \mathcal{N}\left(\begin{pmatrix} 0 \\ 0 \\0 \end{pmatrix}, \begin{pmatrix} 6 & 0 & 9 \\ 0 & 3 & 0 \\ 9 & 0 & 26 \end{pmatrix} \right)\).
En particulier \(U\) et \(V\) sont indépendants, tout comme \(V\) et \(W\), en revanche \(U\) et \(W\) ne le sont pas.
- Pour que \(W-aU\) soit indépendant de \(U\) il faut et il suffit que \(\mathrm{Cov}(W-aU, U) = 9-6a = 0\) et il faut donc choisir \(a=\frac{3}{2}\). On peut en déduire que sachant \(U\), la loi conditionnelle de \(W\) est \(\mathcal{N}(\frac{3}{2}U, \frac{25}{2})\), et en particuler que \(\mathbb{E}[W \mid U]= \frac{3}{2}U\).
Soient \(X\) et \(Y\) deux v. a. r. gaussiennes centrées réduites indépendantes. On pose \(Z = X + Y\) , \(W = X - Y\).
- Montrer que \(Z\) et \(W\) sont indépendantes. Quelle est la loi de \(W\)?
- En déduire l’espérance conditionnelle et la loi conditionnelle de \(X\) sachant \(Z\).
- Calculer \(\mathbb{E}(XY \mid Z)\) et \(\mathbb{E}(XYZ \mid Z)\).
On a ici \[ \begin{pmatrix} Z \\ W \end{pmatrix} = \begin{pmatrix} 1 & 1 \\ 1 & -1 \end{pmatrix} \begin{pmatrix} U \\ V \end{pmatrix}, \mbox{ et } \begin{pmatrix} 1 & 1 \\ 1 & -1 \end{pmatrix}\begin{pmatrix} 1 & 1 \\ 1 & -1 \end{pmatrix} = \begin{pmatrix}2 & 0 \\ 0 &2 \end{pmatrix},\] de sorte que \(\begin{pmatrix}Z\\ W \end{pmatrix} \sim \mathcal{N}\left(\begin{pmatrix} 0 \\ 0 \end{pmatrix}, \begin{pmatrix} 2 & 0 \\ 0 & 2 \end{pmatrix} \right)\). En particulier \(Z\) et \(W\) sont indépendantes et \(W \sim \mathcal{N}(0,2)\).
On a \(X = \frac{Z+W}{2}\) et donc d’apr es ce qui précède, sachant \(Z\), la loi condiitonnelle de \(X\) est \(\mathcal{N}\left(\frac{1}{2}Z, \frac{1}{2}\right)\), et en particulier \(\mathbb{E}[X \mid Z] = \frac{1}{2}Z\).
On a d’après ce qui précède, et les propriétés de l’espérance conditionnelle
\[\begin{align*}
\mathbb{E}[XY \mid Z] & = \mathbb{E}[\frac{Z+W}{2} \frac{Z-W}{2} \mid Z] \\ & = \frac{Z^2}{4} - \frac{Z \mathbb{E}[W]}{2} + \frac{\mathbb{E}[W^2]}{4} \\
& = \frac{Z^2}{4} + \frac{1}{2}.
\end{align*}\]
On déduit que \[\mathbb{E}[XYZ \mid Z] = Z \mathbb{E}[XY \mid Z] = \frac{Z^3}{4} + \frac{Z}{2}.\]