0 Daumen
626 Aufrufe

Hallo, ich bin gerade dabei die folgende Aufgabe zu bearbeiten:

Beweisen Sie, dass die hypergeometrische Verteilung gegen die Poisson-Verteilung konvergiert, dass also für alle k ∈ N und λ > 0 gilt:

limn,r,slimnrr+sλ(rk)(snk)(r+sn)=λkk!eλ\lim\limits_{n,r,s\to\infty}\lim\limits_{\frac{nr}{r+s}\to λ}\frac{\binom{r}{k}\binom{s}{n-k}}{\binom{r+s}{n}} = \frac{λ^{k}}{k!}e^{-λ}

Ich habe meinen Term soweit umgeformt, dass ich limnrr+sλ\lim\limits_{\frac{nr}{r+s}\to λ} bereits habe gegen λ laufen lassen. Nun habe ich noch den folgenden Term:

λkk!(r1)!(rk)!(snk)(r+s1n1)λk+1\frac{λ^{k}}{k!}\frac{\frac{(r-1)!}{(r-k)!}\binom{s}{n-k}}{\binom{r+s-1}{n-1}}λ^{-k+1}

Das λkk!\frac{λ^{k}}{k!} passt schonmal. Den restlichen Term muss ich dann zu eλe^{-λ} umformen, um die Poisson Verteilung zu erhalten. Ich dachte, dass ich vielleicht die Stirling Approximation auf n, r und s anwenden kann, aber ich glaube nicht, dass es funktioniert (außerdem bekomme ich es nicht hin).

Hat jemand einen Tipp zum weiteren Vorgehen? Ich glaube, dass ich auf dem richtigen Weg bin. Viele Grüße:)

Avatar von

1 Antwort

0 Daumen
 
Beste Antwort

Hypergeometrische Verteilung :  E(X)=nMN, V(X)=nMN(1MN)NnN1Binomialverteilung :  E(X)=np, V(X)=np(1p)Setzt man p = M/N, ist der Erwartungswert beider Verteilungen identisch und die Varianz unterscheidet sich um den Faktor NnN1Bei endlichem Stichprobenumgang n geht dieser Faktor gegen 1, wenn N u¨ber alle Grenzen wa¨chst.Deshalb konvergiert die hypergeometrische Verteilung fu¨M>,N>,p=MNgegen die Binomialverteilung. P(X=k)=(nk)pk(1p)nkJetzt setzt man p=λnP(X=k)=n!k!(nk)!(λn)k(1λn)nkP(X=k)=n(n1)(n2)...(nk+1)k!(λn)k(1λn)nkP(X=k)=n(n1)(n2)...(nk+1)nkλkk!(1λn)nkP(X=k)=(nnn1nn2n...nk+1n)λkk!(1λn)nk Alle Faktoren in der Klammer konvergieren fu¨n> gegen 1, und es ergibt sich der Grenzwert P(X=k)=limnλkk!(1λn)nk=λkk!eλ\text {Hypergeometrische Verteilung: } \\ E(X) = n * \frac{M}{N}, \space V(X) = n * \frac{M}{N}* ( 1 - \frac{M}{N})*\frac{N-n}{N-1}\\ \text {Binomialverteilung: } \\ E(X) = n*p, \space V(X) = n * p * (1-p) \\ \text {Setzt man p = M/N, ist der Erwartungswert beider Verteilungen identisch und die Varianz } \\ \text {unterscheidet sich um den Faktor } \frac{N-n}{N-1} \\ \text {Bei endlichem Stichprobenumgang n geht dieser Faktor gegen 1, wenn N über alle Grenzen wächst.} \\ \text {Deshalb konvergiert die hypergeometrische Verteilung für } M -> \infty, N -> \infty, p = \frac{M}{N} \\ \text {gegen die Binomialverteilung. } \\ P(X=k) = \begin{pmatrix} n\\k \end{pmatrix} * p^k * (1-p)^{n-k} \\ \text {Jetzt setzt man } p = \frac{\lambda}{n} \\ P(X=k) =\frac{n!}{k!(n-k)!} * (\frac{\lambda}{n})^k * (1-\frac{\lambda}{n})^{n-k} \\ P(X=k) =\frac{n(n-1)(n-2) ... (n-k+1)}{k!} * (\frac{\lambda}{n})^k * (1-\frac{\lambda}{n})^{n-k} \\ P(X=k) =\frac{n(n-1)(n-2) ... (n-k+1)}{n^k} * \frac{\lambda^k}{k!} * (1-\frac{\lambda}{n})^{n-k} \\ P(X=k) = (\frac{n}{n} * \frac{n-1}{n} * \frac{n-2}{n} ... \frac{n-k+1}{n}) \frac{\lambda^k}{k!} * (1-\frac{\lambda}{n})^{n-k} \\ \text{ Alle Faktoren in der Klammer konvergieren für } n-> \infty \text { gegen 1, und es ergibt sich der Grenzwert } \\ P(X=k) = \lim\limits_{n\to\infty} \frac{\lambda^k}{k!} * (1-\frac{\lambda}{n})^{n-k} = \frac{\lambda^k}{k!} * e^{-\lambda} \\

Avatar von 3,4 k

Ein anderes Problem?

Stell deine Frage