0 Daumen
843 Aufrufe
Ein kleines Münzspiel:

Für 10 Cent Einsatz darf jemand eine 2-Cent-Münze werfen, sodass sie auf einem Raster aus Quadraten landet, deren Seitenlänge 3 cm beträgt. Wenn die Münze ganz in ein Quadrat fällt, gewinnt der Werfer 70 Cent.

Ist das Spiel fair?

Wenn nicht, wie viel Cent gewinnt oder verliert man im Mittel bei 100 Spielen?
Avatar von 479 k 🚀

1 Antwort

+1 Daumen
 
Beste Antwort

Man mache sich anhand einer Skizze klar, dass die 2-Cent-Münze ( Durchmesser d = 18,75 mm ) genau dann vollständig innerhalb des gegebenen Quadrates von 30 mm Seitenlänge liegt, wenn ihr Mittelpunkt innerhalb eines Quadrates zu liegen kommt, dessen Seitenlänge gleich der Seitenlänge des gegebenen Quadrates ( 30 mm ) abzüglich des Durchmessers der Münze ist, also 30 - 18,75 = 11,25 mm beträgt.

Die Wahrscheinlichkeit P für dieses Ereignis ist gleich dem Verhältnis des Flächeninhaltes des inneren Quadrates zu dem Flächeninhalt des äußeren Quadrates, also:

P = 11,25 ² / 30 ² =  14,0625 %

Das Spiel ist fair, wenn der Erwartungswert E gleich Null ist. 

Da der Spieler bei dem betrachteten Spiel mit einer Wahrscheinlichkeit P 60 Cent gewinnt ( 70 Cent Gewinn - 10 Cent Einsatz) und mit einer Wahrscheinlichkeit (1 - P) 10 Cent verliert, gilt für den Erwartungswert aus Sicht des Spielers:

E = 60 * P - 10 * ( 1 - P )

= 60 * 0,140625 - 10 * 0,859375 = - 0,15625

Da der Erwartungswert ungleich Null ist, ist das Spiel nicht fair.

Und da der Erwartungswert aus Sicht des Spielers kleiner als Null ist, verliert der Spieler im langfristigen Mittel und zwar den Erwartungswert, also 0,15625 Cent pro Spiel.

In 100 Spielen verliert der Spieler also im Mittel 15,625 Cent.

Avatar von 32 k

Ein anderes Problem?

Stell deine Frage

Willkommen bei der Mathelounge! Stell deine Frage einfach und kostenlos

x
Made by a lovely community