wahrscheinlichkeit ist keine grundlage für eine rechnung
Komischerweise kommt das aber 2 Jahre lang in der Schule dran und darin wird Abitur geschrieben. An der Uni wird das dann theoretischer gemacht.
Zum Roulette-Spiel:
Man wird irgendwann sicher fast das ganze Geld verlieren, denn die Wahrscheinlichkeit, dass n mal das Falsche kommt, liegt bei (19/37)^n
Bei jedem (37/19)^n -ten Mal kommts also vor. (Kehrwert nehmen)
Jetzt müsste man also genug Geld haben, um jedes Mal das doppelte zu setzen, also 2^n.
Da aber 2^n > (37/19)^n (für natürliche n)
müsste man mehr setzen, als man verdient hat. Deswegen wird man irgendwann nicht mehr genug Geld haben.
Bsp: n=10
Ich betrachte also den Fall, dass ich 10-mal verliere:
Dann müsste ich 10-mal verdoppeln, also 2^10 = 1024
Sehen wir uns an, wie oft so ein Fall statistisch vorkommt:
(37/19)^10 ~ 784
also 784-mal
Aber in diesen 784 Spielen hab ich maximal (wenn jedes Mal auf Anhieb gewonnen) 784-mal meinen Einsatz gewonnen.
Ich brauche aber das 1024-fache
Jetzt denken sich einige, dass man diese 1024€ (bei 1€ Einsatz) locker aufbringen kann, nämlich wenn das Startkapital hoch genug ist, mindestens 240€.
Dann kommt halt irgendwann der Fall, dass man 11-mal hintereinader verliert, und da ist die Differenz dann größer (521€).
Auf Dauer wird man also verlieren.
EDIT: Ich seh gerade, man muss sogar noch mehr Geld aufbringen, wenn n mal hintereinander das Falsche gekommen ist, nicht 2^n, sondern 2^{n+1} -1 , da ja alles noch addiert wird: 1+2+4+8+...
Dann verliert man also erst recht.