« Offtopic  |

Statistik / Hochrechnung / Schwankungsbreite

Teilen: facebook    whatsapp    email
Zusammenfassung anzeigen (Beta)
  •  Benji
  •   Gold-Award
29.9. - 24.10.2024
7 Antworten | 6 Autoren 7
7
vorab: das ist kein politischer Thread, sondern ein statistischer emoji

Frage an die (hoffentlich vielen emoji ) Statistiker hier: Was mich immer wieder beschäftigt, und heute (aus aktuellem Anlass) wieder mal:

Es gibt eine Hochrechnung, es sind zB erst 30% der Stimmen ausgezählt, und das Ergebnis der Hochrechnung hat eine Schwankungsbreite von zB 2%

Nun kann das aus meinem Verständnis nicht sein, weil rein theoretisch (und sei es noch so unwahrscheinlich) könnten die restlichen 70% ja alle für X gestimmt haben. Also müsste die Schwankungsbreite ja recht hoch sein.

Also muss es rund um diese Schwankungsbreite noch irgendeinen Voodoo geben. Wie ist die definiert?

  •  MalcolmX
  •   Gold-Award
29.9.2024  (#1)
Da werden Erfahrungswerte aus der Vergangenheit auf einzelne völlig ausgezählte Gemeinden umgelegt. Weil man hat ja dann bereits einige fertig ausgezählte Gemeinden und kann halbwegs sicher sagen wie sich diese im Vergleich zur Gesamtwählerschaft in etwa verhalten.

Im Podcast vom Filzmaier (Professor und der Wolf, warum eigentlich nicht Peter und der Wolf?) geht er halbwegs konkret darauf ein :)

1
  •  Benji
  •   Gold-Award
29.9.2024  (#2)
Wie die Hochrechnungen entstehen, ist mir (halbwegs) klar. Den Podcast kenn ich auch, der hat aber meine Frage nicht beantwortet.

Diese Schwankungsbreite muss auch irgendwie "halbwegs sicher" sein, aber ich bin überzeugt dass "halbwegs sicher" in der Statistik kein übliches Maß ist emoji

1
  •  Muehl4tler
  •   Bronze-Award
29.9.2024  (#3)
Ist die Schwankungsbreite nicht einfach ein x% Konfidenzintervall?

Also zu x Prozent liegt das Ergebnis innerhalb dieser Schwankungsbreite.

EDIT:
https://www.derstandard.at/story/1376534863944/size-matters-oder-welche-auswirkungen-n400-auf-die-schwankungsbreite-hat

Das sollte dazu passen

1


  •  rabaum
  •   Gold-Award
29.9.2024  (#4)
Ich bilde mir ein, das Thema wurde im Podcast behandelt.

Ganz allgemein zur Schwankungsbreite und Genauigkeit: Bei den Umfragen im Vorfeld über gewisse Medien muss man aufpassen, dass die Stichprobe auch wirklich repräsentativ ist. Wenn man klein und zB nur online abfragt, wird höchstwahrscheinlich eine gewisse Altersgruppe unterrepräsentiert sein.

Die Schwankungsbreite baut auf viele Heuristiken auf, die so viel wie möglich der Realität abbilden sollen. Wenn man jetzt im Mix genügend Stadt/Land, jung/alt, Pflichtschule/Universität, einkommensschwach/wohlhabend usw. hat, lässt sich die Verteilung bereits mit einigen Tausend relativ brauchbar abschätzen. Mit 100.000 ist das Ergebnis schon sehr sicher und mit 1.000.000 Stimmen praktisch auf einen Prozentpunkt genau vorhersagen. Die Zahlen sind jetzt sehr vereinfacht, es geht um die Dimensionen.

zitat..
Benji schrieb: und sei es noch so unwahrscheinlich

zitat..
Benji schrieb: rein theoretisch

Könnte theoretisch sein ja, aber in der Realität kommt das nicht vor. Weil die Leute im Großen und Ganzen trotzdem berechenbar sind. 


1
  •  Benji
  •   Gold-Award
29.9.2024  (#5)

zitat..
Muehl4tler schrieb: st die Schwankungsbreite nicht einfach ein x% Konfidenzintervall?

Also zu x Prozent liegt das Ergebnis innerhalb dieser Schwankungsbreite.

Ja, soweit bin ich auch schon emoji Die Schwankungsbreite ist das Konfidenzintervall.

Das Zauberwort scheint "Konfidenzniveau" zu sein, und hier wird (wenn nicht anders angegeben) üblicherweise 95% angenommen (nur wird das nie dazugesagt)

Das ist sozusagen die Wahrscheinlichkeit für die Wahrscheinlichkeit der Wahrscheinlichkeit emoji

Aber eins ist sicher: Die spinnen, die Statistiker emoji


1
  •  Casemodder
  •   Gold-Award
29.9.2024  (#6)

zitat..
Benji schrieb: Aber eins ist sicher: Die spinnen, die Statistiker

Nicht nur die...


1
  •  PhilippG
  •   Bronze-Award
24.10.2024  (#7)
Falls es jemanden interessiert: 😀

Angenommen man befragt n Personen (in Deinem Fall 30% aller Stimmen, was i.A. bereits extrem viel ist für solche statistischen Aussagen). Unter der (komplett unverifizierbaren aber absolut essenziellen!!!!!!) Annahme, dass in der Umfrage alle n Befragten zufällig, statistisch unabhängig und ident gewählt werden, kann man folgendes zeigen ("Gesetz der grossen Zahlen"): Wenn man den Prozentsatz der Stimmen aus den n Befragungen schätzt, ist die Wahrscheinlichkeit ("Konfidenz"), dass diese Schätzung vom tatsächlichen Prozentsatz weniger als r entfernt ist mindestens 1-1/4nr². Es gibt auch bessere Abschätzungen aber die eben erwähnte kann man vielleicht noch mit fast-Mittelschulniveau herleiten. Man muss im Prinzip den Begriff der statistischen Unabhängigkeit kennen. Siehe zB diesen Blogpost, der vielleicht in dem Zusammenhang generell interessant zu lesen ist: https://terrytao.wordpress.com/2008/10/10/small-samples-and-the-margin-of-error/.

Jetzt kann man den gewünschten Fehler r ("Schwankungsbreite", zb 2%) und Konfidenz (zB 95%) fest wählen und daraus ergibt sich dann eine Mindestanzahl n an Befragten.

Was aber heisst "Konfidenz"/Wahrscheinlichkeit hier?

Es heisst, dass wenn man das Experiment, "n statistisch unabhängige und idente Personen befragen und daraus den Prozentsatz schätzen" hypothetisch sehr sehr oft wiederholt, man in ca 95% der Experimente weniger als 2% Fehler hat. 

Da man das Experiment aber in der Realität nur 1x durchführt, kann es durchaus sein, dass in diesem konkreten Experiment der Fehler am Ende grösser ist!

Das ist ein bekannter Kritikpunkt von Konfidenzintervallen (bzw deren Über-Interpretation).

Ein anderes praktisches Problem ist es, wie man die Befragung durchführen kann, sodass die einzelnen Befragungen annähernd statistisch ident und unabhängig sind ("sampling bias" vermeiden). Das ist tw eher ein "Kunst".

1


Beitrag schreiben oder Werbung ausblenden?
Einloggen

 Kostenlos registrieren [Mehr Infos]

Nächstes Thema: Zgonc Werkstattwagen Edelstahl