\( \newcommand{\paren}[1]{\left( #1\right) } \newcommand{\fun}[3]{#1:#2\to #3} \newcommand{\p}{\mathbb{P}} \newcommand{\proba}[1]{\imf{\p}{#1}} \DeclareMathOperator{\Var}{Var} \newcommand{\var}[1]{\imf{\Var}{#1}} \newcommand{\abs}[1]{\left|#1\right|} \newcommand{\esp}[1]{\imf{\mathbb{E}}{#1}} \newcommand{\F}{\mathscr{F}} \newcommand{\na}{\mathbb{N}} \newcommand{\re}{\mathbb{R}} \newcommand{\E}{\mathscr{E}} \newcommand{\eps}{\varepsilon} \newcommand{\imf}[2]{#1\!\paren{#2}} \newcommand{\set}[1]{\left\{ #1\right\} } \newcommand{\sag}[1]{\sigma\!\paren{#1}} \newcommand{\espc}[2]{\imf{\mathbb{E}}{\cond{#1}{#2}}} \newcommand{\cond}[2]{\left.\vphantom{#2}#1\ \right| #2} \newcommand{\indi}[1]{\mathbf{1}_{#1}} \)

Procesos Estocasticos I, 2012-II

Tarea 2


Ejercicio 1: La ley fuerte de los grandes números para muestras estocásticas

Tomado de MathOverflow

Sea \(X_i\) una sucesión iid con media finita \(\mu\). Por la ley fuerte de los grandes números, se sabe que, casi seguramente y en \(L_1\): $$ \frac{1}{n}\sum_{i=1}^n X_i\to\mu. $$

Imaginemos ahora que un observador escoge, a cada instante \(i\), si quiere observar o no a \(X_i\) (basado en la información que tiene hasta el instante \(i-1\)). El objetivo del ejercicio es precisar un argumento de que el promedio de las observaciones de cualquier forma converge casi seguramente a \(\mu\). (Claro, se debe asumir que tenemos garantizado que el observador escogera una cantidad infinita de las \(X_i\). Sea \(C_i\) la indicadora del evento se escoge la observación \(i\). Por hipótesis, \(C_0\) debe ser constante y \(C_i\) debe ser medible respecto a \(\mathscr{\F}_i=\sag{X_1,\ldots, X_i}\). Definimos $$ N_n=\sum_{i=1}^n C_i\quad\text{y}\quad Y_n=\sum_{i=1}^n C_i X_i. $$El enunciado formal del ejercicio es que \(Y_n/N_n\to\mu\) conforme \(n\to\infty\).

  1. Sean $$ T_1=\min\set{i\geq 1:C_i=1} \quad\text{y}\quad T_{n+1}=\min\set{i>T_n:C_i=1}. $$Pruebe que cada \(T_n\) es un tiempo de paro.
  2. Explique las igualdades$$ \set{X_{T_1}\in A_1,T_2=j} =\bigcup_{j_1< j}\set{X_{j_1}\in A_1, T_1=j_1,T_2=j} =\bigcup_{j_1< j}\set{X_{j_1}\in A_1}\cap\set{C_i=0, 1\leq i< j,i\neq j_1, C_{j_1}=C_j=1} $$y extiéndalas para probar (si quiere por inducción) que $$ \set{X_{T_1}\in A_1,\ldots,X_{T_n}\in A_n, T_{n+1}=j}\in \F_{j-1}. $$
  3. Pruebe que las variables \(X_{T_1},X_{T_2},\ldots\) son independientes y que su distribución común es la de \(X_1\). Sugerencia: hágalo por inducción mediante el inciso anterior y descomponiendo, para el paso inductivo, sobre el valor que toma \(T_{n+1}\). Concluya que $$\frac{Y_{T_n}}{N_{T_n}}\to\mu$$casi seguramente y en \(L_1\) y que por lo tanto \(Y_n/n\to\mu\) al menos casi seguramente puesto que \(N_n\to\infty\) conforme \(n\to\infty\). Sugerencia: analice qué sucede con \(Y_k/N_k\) si \(T_n\leq k<T_{n+1}\).

Ejercicio 2: Desigualdades maximales para caminatas aleatorias

Tomado de Probability: Theory and examples, R. Durrett, Cambridge University Press, 2010, 5.4.1 y 5.4.2, p. 250

Sean \(X_1,X_2,\ldots\) variables aleatorias independientes tales que \(X_i\in L_2\), \(\esp{X_i}=0\) y defina \(S_n=X_1+\cdots+X_n\).

  1. Pruebe que $$ \proba{\max_{1\leq i\leq n}\abs{S_n}\geq x}\leq \frac{\var{S_n}}{x^2}. $$
  2. Pruebe que si adicionalmente existe una constante \(K\) tal que \(\abs{S_1}\leq k\) y definimos \(s_n^2=\sum_{i=1}^n\var{X_i}\) entonces
    1. \(S_n^2-s_n^2\) es una submartingala y
    2. \(\proba{\max_{1\leq i\leq m}\abs{S_i}\leq x}\leq \paren{x+K}^2/\var{S_n}\).

Ejercicio 3: Extensiones del teorema de paro opcional

Sea \(M=\paren{M_n,n\in\na}\) una (super)martingala respecto de una filtración \(\paren{\F_n,n\in\na}\) y sean \(S\) y \(T\) tiempos de paro.

  1. Pruebe que \(S\wedge T\), \(S+T\) y \(S\vee T\) son tiempos de paro.
  2. Sea \(\F_T=\set{A\in\F:A\cap\set{T\leq n}\in\F_n\text{ para toda } n}\) es una \(\sigma\)-álgebra, a la que nos referimos como la \(\sigma\)-álgebra detenida en \(\tau\). Comente qué puede fallar si \(T\) no es tiempo de paro. Pruebe que \(T\) es \(F_T\)-medible.
  3. Pruebe que si \(T\) es finito, entonces \(M_T\) es \(\F_T\)-medible.
  4. Pruebe que si \(S\leq T\leq n\) entonces \(\F_S\subset\F_T\). Si además \(T\) es acotado entonces \(X_S,X_T\in L_1\) y \(\espc{M_T}{\F_S}\leq M_S\).
  5. Si \(X=\paren{X_n,n\in\na}\) es un proceso estocástico \(\paren{\F_n}\)-adaptado y tal que \(X_n\in L_1\) y tal que para cualesquiera tiempos de paro acotados \(S\) y \(T\) se tiene que \(\esp{X_S}=\esp{X_T}\) entonces \(X\) es una martingala. Sugerencia: considere tiempos de paro de la forma \(n\indi{A}+(n+1)\indi{A^c}\) con \(A\in\F_n\).

Ejercicio 4: Ejercicios sueltos sobre martingalas

  1. Descomposición de Doob para submartingalas: Sea Sea \(X=\paren{X_n}_{n\in\na}\) una submartingala. Pruebe que \(X\) se puede descomponer de manera única como \(X=M+A\) donde \(M\) es una martingala y \(A\) es un proceso previsible con \(A_0=0\). Sugerencia: Asuma que ya tiene la descomposición y calcule esperanza condicional de \(X_{n+1}\) dada \(X_n\).
  2. Sea \(S_n=\xi_1+\cdots+\xi_n\) donde las variables \(\xi\) son independientes y \(\xi_i\) tiene media cero y varianza finita \(\sigma_i^2\). Pruebe que si \(\sum_i \sigma_i^2<\infty\) entonces \(S_n\) converge casi seguramente y en \(L_2\) conforme \(n\to\infty\). Construya un ejemplo de variables aleatorias \(\xi_i\) tales que la serie \(\sum_i \xi_i\) sea casi seguramente absolutamente divergente y casi seguramente condicionalmente convergente (considere ejemplos má simples!). Explique heurísticamente por qué cree que suceda esto.
  3. Sean \(X\) y \(Y\) dos martingalas (respecto de la misma filtración) y tales que \(\esp{X_i},\esp{Y_i}<\infty\) para toda \(i\). Pruebe la siguiente fórmula de integración por partes: $$ \esp{X_nY_n}-\esp{X_0Y_0}=\sum_{i=1}^n \esp{\paren{X_i-X_{i-1}}\paren{Y_i-Y_{i-1}}} . $$
  4. Desigualdad de Azema-Hoeffding, tomado de Probability with Martingales, D. Williams, Cambridge University Press, 1991, E14.2, p.237.
    1. Muestre que si \(Y\) es una variable aleatoria con valores en \([-c,c]\) y media cero entonces, para \(\theta\in\re\) $$\esp{e^{\theta Y}}\leq\imf{\cosh}{\theta c}\leq \imf{\exp}{\frac{1}{2}\theta^2c^2}. $$
    2. Pruebe que si \(M\) es una martingala nula en cero tal que para algunas constantes \(\paren{c_n,n\in\na}\) se tiene que $$\abs{M_n-M_{n-1}}\leq c_n\quad\forall n $$ entonces, para \(x>0\) $$ \proba{\max_{k\leq n} M_k\geq x}\leq \imf{\exp}{\frac{x^2}{2\sum_{k=1}^n c_k^2}}. $$

Ejercicio 5: Martingalas y la caminata aleatoria simple

Sea \(S=\paren{S_n,n\in\na}\) una caminata aleatoria con incrementos integrables y filtración canónica \(\paren{\F_n,n\in\na}\).

  1. Identidad de Wald: Pruebe que si \(T\) es un tiempo de paro integrable entonces \(\esp{S_T}=\esp{T}\esp{S_1}\). Sugerencia: Utilice muestreo opcional aplicado a \(S_n-n\esp{S_1}\) para ver que la fórmula es válida si \(T\) es un tiempo de paro acotado. Luego, utilice la descomposición$$\abs{S_T-S_{T\wedge n}}=\sum_{i>n}\paren{S_i-S_{i-1}}\indi{T\geq i}$$y la independencia de los incrementos para mostrar que \(S_{T\wedge n}\) converge en \(L_1\) a \(S_T\). Puede leer otra prueba de la identidad de Wald aquí.
  2. Suponga ahora que los incrementos de \(S\) toman los valores \(-1\) y \(1\) con probabilidad \(1/2\). Sea$$T=\min\set{n\in\na: S_n\in\set{-a,b}}$$ donde \(a,b\in\mathbb{Z}_+\). Recuerde por qué \(T\) admite colas geométricas y, al aplicar muestreo opcional, pruebe que$$\proba{S_T=a}=\frac{a}{a+b}.$$
  3. Sea ahora \(M=\paren{M_n,n\in\na}\) la martingala obtenida al detener a \(S\) cuando llega a \(-1\) por primera vez. Utilice el inciso anterior para ver que$$\proba{\max_n M_n\geq M}=\frac{1}{M} $$y concluya que \(\esp{\max_m M_m}=\infty\) y que por lo tanto \(\esp{\max_{m\leq n}M_n}\to\infty\) conforme \(n\to\infty\). Finalmente, deduzca que no puede haber una desigualdad tipo Doob cuando \(p=1\).

Ejercicio 6: Un poco de simulación

  1. Ejecute y explique la función del siguiente código en Octave. Comente qué teoremas del curso (y del curso de probabilidad) son importantes para interpretar la figura.
    1. tic;
    2. n=1000;
    3. m=10000;
    4. u=rand(n,m);
    5. r=2;
    6. v=3;
    7. c=1;
    8. x=ones(1,m)*(r/(r+v));
    9. for i=1:n
    10. x(i+1,:)=(r+v+(i-1)*c)/(r+v+i*c).*x(i,:)+(u(i,:)<x(i,:))./(r+v+i*c);
    11. endfor
    12. y=sort(x(n+1,:));
    13. plot(y,(1:m)./m,y,betacdf(y,r/c,v/c))
    14. toc
  2. Ejecuta y explique la función del siguiente código en Octave. Incluya una gráfica en la que la longitud de la variable k sea mayor a 1000. (Puede modificar el programa...) En la gráfica observara un esbozo de la trayectoria de un proceso de ramificación continuo (en una escala distinta...).
    1. k=[10];
    2. aux=k(length(k));
    3. while (aux>0 && length(k)<1000)
    4. k=[k;2*binornd(aux,.5)];
    5. aux=k(length(k));
    6. endwhile
    7. plot(k)