\(
\newcommand{\paren}[1]{\left( #1\right) }
\newcommand{\fun}[3]{#1:#2\to #3}
\newcommand{\p}{\mathbb{P}}
\newcommand{\proba}[1]{\imf{\p}{#1}}
\DeclareMathOperator{\Var}{Var}
\newcommand{\var}[1]{\imf{\Var}{#1}}
\newcommand{\abs}[1]{\left|#1\right|}
\newcommand{\esp}[1]{\imf{\mathbb{E}}{#1}}
\newcommand{\F}{\mathscr{F}}
\newcommand{\na}{\mathbb{N}}
\newcommand{\re}{\mathbb{R}}
\newcommand{\E}{\mathscr{E}}
\newcommand{\eps}{\varepsilon}
\newcommand{\imf}[2]{#1\!\paren{#2}}
\newcommand{\set}[1]{\left\{ #1\right\} }
\newcommand{\sag}[1]{\sigma\!\paren{#1}}
\newcommand{\espc}[2]{\imf{\mathbb{E}}{\cond{#1}{#2}}}
\newcommand{\cond}[2]{\left.\vphantom{#2}#1\ \right| #2}
\newcommand{\indi}[1]{\mathbf{1}_{#1}}
\)
Procesos Estocasticos I, 2012-II
Tarea 2
Ejercicio 1: La ley fuerte de los grandes números para muestras estocásticas
Sea \(X_i\) una sucesión iid con media finita \(\mu\). Por la ley fuerte de los grandes números, se sabe que, casi seguramente y en \(L_1\):
$$
\frac{1}{n}\sum_{i=1}^n X_i\to\mu.
$$
Imaginemos ahora que un observador escoge, a cada instante \(i\), si quiere observar o no a \(X_i\) (basado en la información que tiene hasta el instante \(i-1\)). El objetivo del ejercicio es precisar un argumento de que el promedio de las observaciones de cualquier forma converge casi seguramente a \(\mu\). (Claro, se debe asumir que tenemos garantizado que el observador escogera una cantidad infinita de las \(X_i\). Sea \(C_i\) la indicadora del evento se escoge la observación \(i\). Por hipótesis, \(C_0\) debe ser constante y \(C_i\) debe ser medible respecto a \(\mathscr{\F}_i=\sag{X_1,\ldots, X_i}\). Definimos
$$
N_n=\sum_{i=1}^n C_i\quad\text{y}\quad Y_n=\sum_{i=1}^n C_i X_i.
$$El enunciado formal del ejercicio es que \(Y_n/N_n\to\mu\) conforme \(n\to\infty\).
- Sean
$$
T_1=\min\set{i\geq 1:C_i=1}
\quad\text{y}\quad
T_{n+1}=\min\set{i>T_n:C_i=1}.
$$Pruebe que cada \(T_n\) es un tiempo de paro.
- Explique las igualdades$$
\set{X_{T_1}\in A_1,T_2=j}
=\bigcup_{j_1< j}\set{X_{j_1}\in A_1, T_1=j_1,T_2=j}
=\bigcup_{j_1< j}\set{X_{j_1}\in A_1}\cap\set{C_i=0, 1\leq i< j,i\neq j_1, C_{j_1}=C_j=1}
$$y extiéndalas para probar (si quiere por inducción) que
$$
\set{X_{T_1}\in A_1,\ldots,X_{T_n}\in A_n, T_{n+1}=j}\in \F_{j-1}.
$$
- Pruebe que las variables \(X_{T_1},X_{T_2},\ldots\) son independientes y que su distribución común es la de \(X_1\). Sugerencia: hágalo por inducción mediante el inciso anterior y descomponiendo, para el paso inductivo, sobre el valor que toma \(T_{n+1}\). Concluya que $$\frac{Y_{T_n}}{N_{T_n}}\to\mu$$casi seguramente y en \(L_1\) y que por lo tanto \(Y_n/n\to\mu\) al menos casi seguramente puesto que \(N_n\to\infty\) conforme \(n\to\infty\). Sugerencia: analice qué sucede con \(Y_k/N_k\) si \(T_n\leq k<T_{n+1}\).
Ejercicio 2: Desigualdades maximales para caminatas aleatorias
Tomado de Probability: Theory and examples, R. Durrett, Cambridge University Press, 2010, 5.4.1 y 5.4.2, p. 250
Sean \(X_1,X_2,\ldots\) variables aleatorias independientes tales que \(X_i\in L_2\), \(\esp{X_i}=0\) y defina \(S_n=X_1+\cdots+X_n\).
- Pruebe que
$$
\proba{\max_{1\leq i\leq n}\abs{S_n}\geq x}\leq \frac{\var{S_n}}{x^2}.
$$
- Pruebe que si adicionalmente existe una constante \(K\) tal que \(\abs{S_1}\leq k\) y definimos \(s_n^2=\sum_{i=1}^n\var{X_i}\) entonces
- \(S_n^2-s_n^2\) es una submartingala y
- \(\proba{\max_{1\leq i\leq m}\abs{S_i}\leq x}\leq \paren{x+K}^2/\var{S_n}\).
Ejercicio 3: Extensiones del teorema de paro opcional
Sea \(M=\paren{M_n,n\in\na}\) una (super)martingala respecto de una filtración \(\paren{\F_n,n\in\na}\) y sean \(S\) y \(T\) tiempos de paro.
- Pruebe que \(S\wedge T\), \(S+T\) y \(S\vee T\) son tiempos de paro.
- Sea \(\F_T=\set{A\in\F:A\cap\set{T\leq n}\in\F_n\text{ para toda } n}\) es una \(\sigma\)-álgebra, a la que nos referimos como la \(\sigma\)-álgebra detenida en \(\tau\). Comente qué puede fallar si \(T\) no es tiempo de paro. Pruebe que \(T\) es \(F_T\)-medible.
- Pruebe que si \(T\) es finito, entonces \(M_T\) es \(\F_T\)-medible.
- Pruebe que si \(S\leq T\leq n\) entonces \(\F_S\subset\F_T\). Si además \(T\) es acotado entonces \(X_S,X_T\in L_1\) y \(\espc{M_T}{\F_S}\leq M_S\).
- Si \(X=\paren{X_n,n\in\na}\) es un proceso estocástico \(\paren{\F_n}\)-adaptado y tal que \(X_n\in L_1\) y tal que para cualesquiera tiempos de paro acotados \(S\) y \(T\) se tiene que \(\esp{X_S}=\esp{X_T}\) entonces \(X\) es una martingala. Sugerencia: considere tiempos de paro de la forma \(n\indi{A}+(n+1)\indi{A^c}\) con \(A\in\F_n\).
Ejercicio 4: Ejercicios sueltos sobre martingalas
- Descomposición de Doob para submartingalas: Sea Sea \(X=\paren{X_n}_{n\in\na}\) una submartingala. Pruebe que \(X\) se puede descomponer de manera única como \(X=M+A\) donde \(M\) es una martingala y \(A\) es un proceso previsible con \(A_0=0\). Sugerencia: Asuma que ya tiene la descomposición y calcule esperanza condicional de \(X_{n+1}\) dada \(X_n\).
- Sea \(S_n=\xi_1+\cdots+\xi_n\) donde las variables \(\xi\) son independientes y \(\xi_i\) tiene media cero y varianza finita \(\sigma_i^2\). Pruebe que si \(\sum_i \sigma_i^2<\infty\) entonces \(S_n\) converge casi seguramente y en \(L_2\) conforme \(n\to\infty\). Construya un ejemplo de variables aleatorias \(\xi_i\) tales que la serie \(\sum_i \xi_i\) sea casi seguramente absolutamente divergente y casi seguramente condicionalmente convergente (considere ejemplos má simples!). Explique heurísticamente por qué cree que suceda esto.
- Sean \(X\) y \(Y\) dos martingalas (respecto de la misma filtración) y tales que \(\esp{X_i},\esp{Y_i}<\infty\) para toda \(i\). Pruebe la siguiente fórmula de integración por partes: $$ \esp{X_nY_n}-\esp{X_0Y_0}=\sum_{i=1}^n \esp{\paren{X_i-X_{i-1}}\paren{Y_i-Y_{i-1}}} . $$
- Desigualdad de Azema-Hoeffding, tomado de Probability with Martingales, D. Williams, Cambridge University Press, 1991, E14.2, p.237.
- Muestre que si \(Y\) es una variable aleatoria con valores en \([-c,c]\) y media cero entonces, para \(\theta\in\re\)
$$\esp{e^{\theta Y}}\leq\imf{\cosh}{\theta c}\leq \imf{\exp}{\frac{1}{2}\theta^2c^2}. $$
- Pruebe que si \(M\) es una martingala nula en cero tal que para algunas constantes \(\paren{c_n,n\in\na}\) se tiene que
$$\abs{M_n-M_{n-1}}\leq c_n\quad\forall n $$
entonces, para \(x>0\)
$$
\proba{\max_{k\leq n} M_k\geq x}\leq \imf{\exp}{\frac{x^2}{2\sum_{k=1}^n c_k^2}}.
$$
Ejercicio 5: Martingalas y la caminata aleatoria simple
Sea \(S=\paren{S_n,n\in\na}\) una caminata aleatoria con incrementos integrables y filtración canónica \(\paren{\F_n,n\in\na}\).
- Identidad de Wald: Pruebe que si \(T\) es un tiempo de paro integrable entonces \(\esp{S_T}=\esp{T}\esp{S_1}\). Sugerencia: Utilice muestreo opcional aplicado a \(S_n-n\esp{S_1}\) para ver que la fórmula es válida si \(T\) es un tiempo de paro acotado. Luego, utilice la descomposición$$\abs{S_T-S_{T\wedge n}}=\sum_{i>n}\paren{S_i-S_{i-1}}\indi{T\geq i}$$y la independencia de los incrementos para mostrar que \(S_{T\wedge n}\) converge en \(L_1\) a \(S_T\). Puede leer otra prueba de la identidad de Wald aquí.
- Suponga ahora que los incrementos de \(S\) toman los valores \(-1\) y \(1\) con probabilidad \(1/2\). Sea$$T=\min\set{n\in\na: S_n\in\set{-a,b}}$$ donde \(a,b\in\mathbb{Z}_+\). Recuerde por qué \(T\) admite colas geométricas y, al aplicar muestreo opcional, pruebe que$$\proba{S_T=a}=\frac{a}{a+b}.$$
- Sea ahora \(M=\paren{M_n,n\in\na}\) la martingala obtenida al detener a \(S\) cuando llega a \(-1\) por primera vez. Utilice el inciso anterior para ver que$$\proba{\max_n M_n\geq M}=\frac{1}{M} $$y concluya que \(\esp{\max_m M_m}=\infty\) y que por lo tanto \(\esp{\max_{m\leq n}M_n}\to\infty\) conforme \(n\to\infty\). Finalmente, deduzca que no puede haber una desigualdad tipo Doob cuando \(p=1\).
Ejercicio 6: Un poco de simulación
- Ejecute y explique la función del siguiente código en Octave. Comente qué teoremas del curso (y del curso de probabilidad) son importantes para interpretar la figura.
- tic;
- n=1000;
- m=10000;
- u=rand(n,m);
- r=2;
- v=3;
- c=1;
- x=ones(1,m)*(r/(r+v));
- for i=1:n
- x(i+1,:)=(r+v+(i-1)*c)/(r+v+i*c).*x(i,:)+(u(i,:)<x(i,:))./(r+v+i*c);
- endfor
- y=sort(x(n+1,:));
- plot(y,(1:m)./m,y,betacdf(y,r/c,v/c))
- toc
- Ejecuta y explique la función del siguiente código en Octave. Incluya una gráfica en la que la longitud de la variable k sea mayor a 1000. (Puede modificar el programa...) En la gráfica observara un esbozo de la trayectoria de un proceso de ramificación continuo (en una escala distinta...).
- k=[10];
- aux=k(length(k));
- while (aux>0 && length(k)<1000)
- k=[k;2*binornd(aux,.5)];
- aux=k(length(k));
- endwhile
- plot(k)