163 lines
12 KiB
TeX
163 lines
12 KiB
TeX
\documentclass[a4paper]{article}
|
|
%\usepackage[singlespacing]{setspace}
|
|
\usepackage[onehalfspacing]{setspace}
|
|
%\usepackage[doublespacing]{setspace}
|
|
\usepackage{geometry} % Required for adjusting page dimensions and margins
|
|
\usepackage{amsmath,amsfonts,stmaryrd,amssymb,mathtools,dsfont} % Math packages
|
|
\usepackage{tabularx}
|
|
\usepackage{colortbl}
|
|
\usepackage{listings}
|
|
\usepackage{amsmath}
|
|
\usepackage{amssymb}
|
|
\usepackage{amsthm}
|
|
\usepackage{subcaption}
|
|
\usepackage{float}
|
|
\usepackage[table,xcdraw]{xcolor}
|
|
\usepackage{tikz-qtree}
|
|
\usepackage{forest}
|
|
\usepackage{changepage,titlesec,fancyhdr} % For styling Header and Titles
|
|
\usepackage{amsmath}
|
|
\pagestyle{fancy}
|
|
\usepackage{diagbox}
|
|
\usepackage{xfrac}
|
|
|
|
\usepackage{enumerate} % Custom item numbers for enumerations
|
|
|
|
\usepackage[ruled]{algorithm2e} % Algorithms
|
|
|
|
\usepackage[framemethod=tikz]{mdframed} % Allows defining custom boxed/framed environments
|
|
|
|
\usepackage{listings} % File listings, with syntax highlighting
|
|
\lstset{
|
|
basicstyle=\ttfamily, % Typeset listings in monospace font
|
|
}
|
|
|
|
\usepackage[ddmmyyyy]{datetime}
|
|
|
|
|
|
\geometry{
|
|
paper=a4paper, % Paper size, change to letterpaper for US letter size
|
|
top=2.5cm, % Top margin
|
|
bottom=3cm, % Bottom margin
|
|
left=2.5cm, % Left margin
|
|
right=2.5cm, % Right margin
|
|
headheight=25pt, % Header height
|
|
footskip=1.5cm, % Space from the bottom margin to the baseline of the footer
|
|
headsep=1cm, % Space from the top margin to the baseline of the header
|
|
%showframe, % Uncomment to show how the type block is set on the page
|
|
}
|
|
\lhead{Stochastik für die Informatik\\Wintersemester 2024/2025}
|
|
\chead{\bfseries{Übungsblatt 6}\\}
|
|
\rhead{Lienkamp, 8128180\\Werner, 7987847}
|
|
\begin{document}
|
|
\setcounter{section}{6}
|
|
\subsection{}
|
|
Eine faire Münze wird zwölfmal geworfen. Sei $X_i \in \{0,1\}$ für $i\in\{1,\dots,12\}$ die Indikatorfunktion für Kopf im $i$-ten Wurf, i.e. $X_i = 1$ genau dann, wenn die Münze im $i$-ten Wurf Kopf zeigt.\\
|
|
Seien $Z= \sum^{12}_{i=1} X_i$ und $W = 12 X_1$.\\
|
|
Berechnen Sie $\mathbb{E}Z$, $\mathbb{E}W$, $\mathbb{V} Z$ und $\mathbb{V} W$. Vergleichen Sie $\mathbb{E}Z$ mit $\mathbb{E}W$ und $\mathbb{V} Z$ mit $\mathbb{V} W$.\\\\
|
|
\(\mathbb{E}Z = \mathbb{E}\left(\sum^{12}_{i=1} X_i\right)= \mathbb{E}(X_1)+ \mathbb{E}(X_2)+ \mathbb{E}(X_3)+ \mathbb{E}(X_4)+ \mathbb{E}(X_5)+ \mathbb{E}(X_6)+ \mathbb{E}(X_7)+ \mathbb{E}(X_8)+ \mathbb{E}(X_9)+ \mathbb{E}(X_{10})+ \mathbb{E}(X_{11})+ \mathbb{E}(X_{12})= 12 \cdot (0 \cdot \frac{1}{2} + 1 \cdot \frac{1}{2}) = 6\\\\
|
|
\mathbb{E}W=\sum\limits^\cdot_{k\in X(\Omega)}k \cdot [X=k]\Rightarrow\sum\limits^\cdot_{k \in X(\Omega)} \mathbb{E}(12 X_i) = k \cdot [X=k] \Rightarrow 12 \cdot \sum\limits^\cdot_{k \in X(\Omega)} \mathbb{E}(X_i) = k \cdot [X=k]\\
|
|
\Rightarrow 12 \cdot \mathbb{E}(X_i) = 12 \cdot (0 \cdot [X=0] + 1 \cdot [X=1]) = 12 \cdot (0 \cdot \frac{1}{2} + 1 \cdot \frac{1}{2}) = 12 \cdot \frac{1}{2}=6\\\\
|
|
\mathbb{V}Z = \mathbb{E}[\sum^{12}_{i=1} X_i] = \mathbb{V}[X_1 + X_2 + \dots + X_{12}]= \mathbb{V}[X_1] + \mathbb{V}[X_2] + \dots +\mathbb{V}[X_{12}] = 12 \cdot \frac{1}{2}(1-\frac{1}{2})= 12 \cdot \frac{1}{4}=3\\
|
|
\textcolor{gray}{\mathbb{V}[X+Y]=\mathbb{V}[X]+\mathbb{V}[Y]}\\
|
|
\textcolor{gray}{Bernoulli \quad \mathbb{V}[p] = p(1-p)}\\\\
|
|
\mathbb{V}W=\mathbb{E}[12 X_1]=12^2\mathbb{V}[X_1]=144\cdot \frac{1}{2}(1-\frac{1}{2})=144 \cdot \frac{1}{4}=36\\
|
|
\textcolor{gray}{\mathbb{V}[aX]=a\cdot\mathbb{V}[X]}\\
|
|
\textcolor{gray}{Bernoulli \quad \mathbb{V}[p] = p(1-p)}\)\\\\
|
|
Da die Wahrscheinlichkeit für Kopf und Zahl fair also gleich sind, ergeben $\mathbb{E}W$ und $\mathbb{E}Z$ die gleichen Wahrscheinlichkeiten.\\
|
|
Für $\mathbb{V}W$ mit einer direkt proportionalen Konstante werden die Wahrscheinlichkeiten addiert, während $\mathbb{V}Z$ mit Bernoulli-Verteilung am Quadrat des Faktors skaliert wird. Durch die unterschiedlichen Berechnungen erhalten wir die Differenz der Ergebnisse.
|
|
\subsection{}
|
|
Sei $X$ eine Poisson-verteilte Zufallsvariable mit Parameter $\lambda>0$. Berechnen Sie $\mathbb{E} (X\vert X \geq 1)$.\\\\
|
|
$\mathbb{E}(X \vert X \geq 1) = \frac{\mathbb{E}[X \cdot 1_{\{X \geq 1\}}]}{\mathbb{P}(X \geq 1)}$\\
|
|
Die Indikatorfunktion $1_{\{x \geq 1\}}$ ist 1 wenn die Bedingung $X \geq 1$ erfüllt ist, ansonsten ist der Term gleich 0\\
|
|
$\Rightarrow \mathbb{P}(X \geq 1) = 1 - \mathbb{P}(X = 0) = 1 - \text{e}^{-\lambda}$\\
|
|
$\Rightarrow \mathbb{E}[X \cdot 1_{\{X \geq 1\}}] = \mathbb{E}[X] - \mathbb{E}[X \cdot 1_{\{X = 0\}}]$\\
|
|
$\Leftrightarrow \mathbb{E}[X] - \mathbb{E}[X \cdot 1_{\{X = 0\}}] = \lambda$ weil für $X = 0$ ist $X \cdot 1_{\{X = 0\}} = 0$\\
|
|
Jetzt setzen wir die Formel zusammen und setzen ein:\\
|
|
$\Rightarrow \mathbb{E}(X \vert X \geq 1) = \frac{\mathbb{E}[X]}{\mathbb{P}(X \geq 1)} = \frac{\lambda}{1 - \text{e}^{-\lambda}}$\\
|
|
Somit ist $\mathbb{E}(X \vert X \geq 1) = \frac{\lambda}{1 - \text{e}^{-\lambda}}$.
|
|
\clearpage
|
|
\subsection{Unabhängigkeit und Unkorreliertheit}
|
|
$X$ und $Y$ seien unabhängige Bernoulli-verteilte Zufallsvariablen mit Parameter $p= 1/2$.\\
|
|
Zeigen Sie, dass $X+ Y$ und $\vert X-Y \vert$ abhängig, aber unkorreliert sind.\\\\
|
|
\begin{tabular}{ll}
|
|
$X, Y \sim Bernoulli (\frac{1}{2})$ & $\mathbb{E}[X]=\mathbb{E}[Y]=\frac{1}{2}$ \\
|
|
$X+Y$ & $\mathbb{E}[X+Y]=\mathbb{E}[X] +\mathbb{E}[Y]=\frac{1}{2}+\frac{1}{2}=1$\\
|
|
$\vert X-Y \vert$ & $\mathbb{E}[\vert X - Y\vert]=\frac{1}{2}$
|
|
\end{tabular}\\\\
|
|
\(cov[X+Y, \vert X-Y\vert]- \mathbb{E}[X+Y]\cdot \mathbb{E}[\vert X-Y]=0\)\\\\
|
|
% #9F19E0
|
|
% #E01969
|
|
% #E019E0
|
|
\begin{tabular}{c|c c c|c}
|
|
\diagbox{B}{A} & 0 & 1 & 2 & $\mathbb{P}(A=a)$ \\ \hline
|
|
0 & \textcolor[HTML]{E019E0}{$\sfrac{1}{4}$} & 0 & \textcolor[HTML]{E01969}{$\sfrac{1}{4}$} & $\sfrac{1}{2}$ \\
|
|
1 & 0 & \textcolor[HTML]{9F19E0}{$\sfrac{1}{2}$} & 0 & $\sfrac{1}{2}$ \\ \hline
|
|
$\mathbb{P}(B=b)$ & $\sfrac{1}{4}$ & $\sfrac{1}{2}$ & $\sfrac{1}{4}$ & 1\\
|
|
\end{tabular}
|
|
\hspace*{1cm}
|
|
\begin{tabular}{c|c|c}
|
|
$X$ & $Y$ & $A$\\
|
|
\hline
|
|
0 & 0 & \textcolor[HTML]{E019E0}{0}\\
|
|
0 & 1 & \textcolor[HTML]{9F19E0}{1}\\
|
|
1 & 0 & \textcolor[HTML]{9F19E0}{1}\\
|
|
1 & 1 & \textcolor[HTML]{E01969}{2}\\
|
|
\end{tabular}
|
|
\hspace*{1cm}
|
|
\begin{tabular}{c|c|c}
|
|
$X$ & $Y$ & $B$ \\
|
|
\hline
|
|
0 & 0 & \textcolor[HTML]{E019E0}{0}\\
|
|
0 & 1 & \textcolor[HTML]{9F19E0}{1}\\
|
|
1 & 0 & \textcolor[HTML]{9F19E0}{1}\\
|
|
1 & 1 & \textcolor[HTML]{E01969}{0}\\
|
|
\end{tabular}\\\\\\
|
|
\(\mathbb{E}[A=1, B=0]=0\neq \frac{1}{2}\cdot \frac{1}{2}= \mathbb{P}[A=1]\cdot \mathbb{P}[B=0]\)\\
|
|
Somit sind A und B zwar unkorreliert, aber nicht unabhängig, also abhängig.
|
|
\subsection{Momente der Zipf-Verteilung}
|
|
Sei $X$ zipfverteilt mit Parameter $\alpha >1$.\\\\
|
|
(a) Für welche Werte von $\alpha$ ist $\mathbb{E}(X^2)$ endlich?\\
|
|
Bestimmen Sie $\mathbb{V}(X) = \mathbb{E}(X^2)-\mathbb{E}(X)^2$, falls $\mathbb{E}(X^2)$ endlich ist.\\\\
|
|
Gegeben sind:\\
|
|
$\Rightarrow \mathbb{E}[X] = \sum_{k \in X(\Omega)}^{\infty} k \cdot \mathbb{P}(X = k)$\\
|
|
$\Rightarrow \mathbb{P}(X = k) = \frac{k^{-\alpha}}{Z_N(\alpha)}$\\\\
|
|
Daraus folgt:\\
|
|
$\Rightarrow \mathbb{E}[X] = \sum_{k \in X(\Omega)}^{\infty} k \cdot \mathbb{P}(X = k) = \sum_{k \in X(\Omega)}^{\infty} k \cdot \frac{k^{-\alpha}}{Z_N(\alpha)} = \frac{1}{Z(\alpha)} \cdot \sum_{k \in X(\Omega)}^{\infty} k \cdot k^{-\alpha}\\
|
|
= \frac{1}{Z(\alpha)} \cdot \sum_{k \in X(\Omega)}^{\infty} \frac{k}{k^\alpha} = \frac{1}{Z(\alpha)} \cdot Z(\alpha - 1) = \frac{Z(\alpha - 1)}{Z(\alpha)}$\\\\
|
|
Analog dazu gilt:\\
|
|
$\Rightarrow \mathbb{E}[X^2] = \sum_{k \in X(\Omega)}^{\infty} k^2 \cdot \mathbb{P}(X = k) = \sum_{k \in X(\Omega)}^{\infty} k^2 \cdot \frac{k^{-\alpha}}{Z_N(\alpha)} = \frac{1}{Z(\alpha)} \cdot \sum_{k \in X(\Omega)}^{\infty} k^2 \cdot k^{-\alpha}\\
|
|
= \frac{1}{Z(\alpha)} \cdot \sum_{k \in X(\Omega)}^{\infty}k^{2 -\alpha} = \frac{1}{Z(\alpha)} \cdot Z(\alpha - 2) = \frac{Z(\alpha - 2)}{Z(\alpha)}$\\\\
|
|
$\sum_{k \in X(\Omega)}^{\infty}k^{2 -\alpha} = \sum_{k \in X(\Omega)}^{\infty}\frac{1}{k^{\alpha - 2}}$ ist eine harmonische Reihe. Eine harmonische Reihen $\sum_{n = 1}^\infty \frac{1}{n^k}$ konvergiert für $k > 1$.\\\\
|
|
Unsere Reihe konvergiert demnach für $\alpha - 2 > 1 \Leftrightarrow \alpha > 3$.\\
|
|
Somit ist $\mathbb{E}[X^2]$ endlich, wenn die Reihe konvergiert, für $\alpha \in \mathbb{N}:\alpha > 3$\\\\
|
|
Wir setzen ein:\\
|
|
$\mathbb{E}[X^2] - \mathbb{E}[X]^2 = \frac{Z(\alpha - 2)}{Z(\alpha)} - \left( \frac{Z(\alpha - 1)}{Z(\alpha)}\right)^2 = \frac{Z(\alpha - 2)}{Z(\alpha)} -\frac{Z(\alpha - 1)^2}{Z(\alpha)^2}$
|
|
\clearpage
|
|
\noindent (b) Für festes $\alpha$, bestimmen Sie die Menge
|
|
\[M_\alpha := {\beta >0: E[X^\beta] <\infty}\]
|
|
und berechnen Sie $E[X^\beta]$ für $\beta \in M_\alpha$.\\\\
|
|
Ähnlich wie bei der a) kann hier folgendes umgeformt werden:\\
|
|
$\mathbb{E}[X^\beta] = \sum_{k = 1}^\infty k^\beta \cdot \mathbb{P}(X = k) = \sum_{k = 1}^\infty k^\beta \cdot \frac{k^{-\alpha}}{Z(\alpha)} = \frac{1}{Z(\alpha)} \cdot \sum_{k = 1}^\alpha \frac{k^\beta}{k^\alpha} = \frac{1}{Z(\alpha)} \cdot \sum_{k = 1}^\infty \frac{1}{k^{\alpha - \beta}}$\\
|
|
Hier haben wir erneut eine harmonische Reihe. Die Reihe konvergiert für $\alpha - \beta > 1 \Leftrightarrow \alpha > \beta + 1$\\
|
|
$\Rightarrow 0 < \beta + 1 < \alpha$\\\\
|
|
Unsere Menge sieht somit wie folgt aus:\\
|
|
$M_\alpha := \{0 < \beta + 1 < \alpha\}$ für ein konstantes $\alpha$\\\\
|
|
Wir setzen fertig ein:\\
|
|
$\mathbb{E}[X^\beta] = \frac{1}{Z(\alpha)} \cdot \sum_{k = 1}^\infty \frac{1}{k^{\alpha - \beta}} = \frac{1}{Z(\alpha)} \cdot Z(\alpha - \beta) = \frac{Z(\alpha - \beta)}{Z(\alpha)}$\\\\
|
|
\subsection{}
|
|
Sei X geometrisch verteilt mit Parameter $p\in (0,1)$ und $Y$ unabhängig von $X$ poisson-verteilt mit Parameter $1/p$. Sei $f : \mathbb{R}^2 \to \mathbb{R}$ mit $f(x,y) = (x-y)^2$ gegeben. Zeigen Sie, dass die Wahrscheinlichkeit, dass $Y$ um mehr als $1 /p$ von $\mathbb{E} (f(X,Y))$ abweicht, kleiner kleiner gleich $p$ ist.\\
|
|
\textit{Hinweis}: Sie dürfen die Formel für die Varianz der Poisson-Verteilung und der Geometrischen-Verteilung aus der Vorlesung benutzen.\\\\
|
|
\(X \sim Geo(p) \Rightarrow \mathbb{P}[x=k]=(1-p)^{k-1}; \quad \mathbb{E}[X]=\frac{1}{p}; \quad \mathbb{V}[X]=\frac{1-p}{p^2}\\
|
|
Y \sim Poi(\frac{1}{p})\Rightarrow \mathbb{P}[Y=k]=\frac{(\frac{1}{p})^k}{k!}e^{-\frac{1}{p}}; \quad \mathbb{E}[Y]=\frac{1}{p}; \quad \mathbb{V}[Y]=\frac{1}{p}\\\\
|
|
\text{Z.Z. } \mathbb{P}\left(\vert Y-\frac{1}{p}\vert > \sqrt{\mathbb{E}[f(x,y)]}\right)\leq p \quad \text{Spiegelt Chebyshev-Ungleichung wieder:}\\
|
|
\mathbb{P}(\vert Y -\mathbb{E}[Y]\vert \geq c)\leq \frac{\mathbb{V}(Y)}{c^2} \quad \text{wir setzen } \sqrt{\mathbb{E}[f(x,y)]} = c\\\\
|
|
\mathbb{V}[A]=\mathbb{E}[A^2]-\mathbb{E}[A]^2\\
|
|
\mathbb{V}[x]= \mathbb{E}[x^2]-\mathbb{E}[x]^2 \Rightarrow \mathbb{E}[x^2] = \mathbb{V}[x]+\mathbb{E}[x]^2 \Rightarrow \frac{1-p}{p^2}+\frac{1}{p^2}= \frac{2-p}{p^2}=\mathbb{E}[x^2]\\
|
|
\mathbb{V}[y] = \mathbb{E}[y^2]-\mathbb{E}[y]^2 \Rightarrow \mathbb{E}[y^2] = \mathbb{V}[y]+\mathbb{E}[y]^2 \Rightarrow \frac{1}{p}+\left(\frac{1}{p}\right)^2=\frac{1}{p}+\frac{1}{p^2}=\frac{p}{p^2}\frac{1}{p^2}= \frac{p+1}{p^2}= \mathbb{E}[y^2]\\\\
|
|
\mathbb{E}[f(x,y)]=\mathbb{E}[(X-Y)^2] = \mathbb{E}[x^2 -2xy+y^2]=\mathbb{E}[x^2]-2\mathbb{E}[xy]+\mathbb{E}[y^2]=\mathbb{E}[x^2]-2\mathbb{E}[x]\mathbb{E}[y]+\mathbb{E}[y^2]\\\\
|
|
c = \sqrt{\mathbb{E}[f(x,y)]}\Rightarrow c = \sqrt{\frac{1}{p^2}}=\frac{1}{p}\\\\
|
|
\mathbb{P}(\vert Y - \mathbb{E}[y]\vert > c) \leq \frac{\mathbb{V}[y]}{c^2}\Rightarrow \mathbb{P}\left(\vert Y - \frac{1}{p}\vert > \sqrt{\mathbb{E}[f(x,y)]}\right)\leq \frac{\frac{1}{p}}{\left(\frac{1}{p}\right)^2} \Rightarrow \mathbb{P}\left(\vert Y - \frac{1}{p}\vert > \sqrt{\frac{1}{p^2}}\right)\leq \frac{\frac{1}{p}}{\frac{1}{p^2}} \\
|
|
\Rightarrow \mathbb{P}\left(\vert Y - \frac{1}{p}\vert > \frac{1}{p}\right)\leq p\)\\\\
|
|
Da die Chebyshev-Ungleichung erfüllt ist, gilt \( \mathbb{P}\left(\vert Y-\frac{1}{p}\vert > \sqrt{\mathbb{E}[f(x,y)]}\right)\leq p\).
|
|
\end{document}
|