Zum Inhalt springen

Statistiken 2003: Warum ist diese Pruefung so gut ausgefallen?


gajUli

Empfohlene Beiträge

Also mal ganz ohne statistisches Geplänkel. Ich fand die Prüfung nicht schwer, aber dem Berufsbild angemessen, bis auf die Tatsache, da die Themen zu weit in eine Richtung gedriftet sind.

Ich möchte das Forum hier nicht schlecht machen, aber generell nehmen in allen Foren auch Leute an solchen Umfragen teil, die gar nicht dabei waren. Ihr kontrolliert ja nicht bei jedem Vote, ob derjenige wirklich bei der Prüfung war. Ich weiß, ihr seid stolz auf euer Forum, aber das ist nun wirklich keine Representative Statistik. Die guten Noten, die rausgekommen sind, liegen meiner Meinung nach eher daran, das der beruf mittlerweile doch einige Jahre existiert, und nicht mehr so viele Punkte durch blöd formulierte Fragen flöten gehen.

Link zu diesem Kommentar
Auf anderen Seiten teilen

Original geschrieben von jomama

>Also mal ganz ohne statistisches Geplänkel.

Kommen wir noch drauf zu sprechen...

>Ich fand die Prüfung nicht schwer, aber dem Berufsbild angemessen,

Subjektive Bekundung. Aber wozu eigentlich, AW oder SI oder gar IK/SK/SE?

>bis auf die Tatsache, da die Themen zu weit in eine Richtung gedriftet sind.

Eigentlich waere zu fragen in welche. Es geht in diesem Thread aber nicht um Thematisches.

>Ich weiß, ihr seid stolz auf euer Forum, aber das ist nun wirklich keine Representative Statistik.

Ziemlich hinterfotzig, so herumzusuggerieren, als ob wir die Statistik als repraesentativ ansehen wuerden aus Stolz auf das Forum. Und wer war es denn, der auf "statistisches Geplaenkel" gleich im ersten Satz verzichen wollte? Du doch wohl, und wie man sieht bei komplettem Unverstaendnis der statistischen Zusammenhaenge, obwohl sie ausfuehrlich dargelegt sind. Das macht viel mehr den Eindruck, Du moechtest lieber nicht gar zu tief in die Materie einsteigen, weil Du sie nicht begreifst. Das musst Du normalerweise auch nicht. Du musst es nur, wenn Du Kritik anbringst.

Immer noch nicht klar ist wohl folgendes: Dass eine Forumsabstimmung keinen repraesentativen Querschnitt bildet, ist allgemein bekannt, allerdings auch trivial. Nicht trivial ist aber der Vergleich mit anderen Abstimmungen am gleichen Platz. Gern auch etwas mathematisch:

Sei d eine Differenz der gleichen Groesse a zu verschiedenen Zeitpunkten:

d = a1 - a2

und a mit einem Fehler f behaftet (a' = a + f), dann folgt:

d' = a1'- a2'

d' = a1 + f - (a2 + f)

d' = a1 + f - f - a2

d' = a1 - a2

d' = d

Bedeutet, Differenzen sind invariant gegen systematische Fehler (und Streuungen verschwinden bei grossem Stichprobenumfang)

Jetzt kapiert?

Link zu diesem Kommentar
Auf anderen Seiten teilen

Original geschrieben von gajUli

Ich fuerchte, das koennte ein Trugschluss sein. Die statistische Sicherheit im Sinne der Definition betraegt selbst in dem Fall nicht 100 %.

Das ist so zwar nicht falsch, aber auch nicht die ganze Wahrheit. Sofern ausgegangen wird von einem Versuch, der nicht wiederholt wird, stimmt meine Aussage mit einer absoluten Sicherheit. (Ansonsten wären die Wahlen in Deutschland – als 100 % Vollerhebung ohne Wiederholung – eine Farse – und ich hätte Argumente zu beweisen, daß die 8000 Stimmen keine 100 % Sicherheit gegeben haben :floet: ) – genug Politik.

Sollte der Versuch unter gleichen Umständen mit den selben Voraussetzungen wiederholbar sein, dann ist sicherlich keine 100 % - Sicherheit gegeben. Diese wird (nach dem Gesetz der großen Zahlen) erst wiederhergestellt, wenn der Versuch unendlich oft wiederholt wird. Als Ergebnis werden dann berechenbare oder ermittelbare Erwartungswerte zum „wahren Wert“.

Original geschrieben von gajUli

Das ist uebrigens nicht ohne praktische Relevanz; es bedeutet naemlich, dass die gleichen Prueflinge die gleiche Pruefung ein zweites Mal nur zu einer x-prozentigen Sicherheit (0<x<1) wieder mit einem Durchschnitt innerhalb eines Vertrauensbereichs y schreiben wuerden (unter der Voraussetzung, dass die Ursprungsbedingungen wiederhergestellt werden koennten, was natuerlich unmoeglich ist, weil die Aufgaben nun bekannt sind).

Siehe oben, wenn es nunmal nur eine Charge gibt, die herausgenommene Losgröße (Stichprobenumfang) aber genau der Grundgesamtheit entspricht, ist für diese Charge eine 100 % Sicherheit gegeben.

Wird der Versuch wiederholt (also eine neue Prüfung unter gleichen Umständen mit einer Vergleichbaren Losanzahl geschrieben), so kann man über die Anzahl der Wiederholungen der Prüfungen irgendwann (nach unendlicher Wiederholung) den Erwartungswert erreichen, den man noch ermitteln würde.

Liegt jedoch eine Charge deutlich weg von den bisher ermitteltet Erwartungswerten, kann dieses einerseits durch Zufall begründet werden, oder viel besser durch eine Änderung der Umweltzustände bei diesem Versuch (und sei es nur, daß es mehr geregnet hat) – Und das scheint hier das Thema zu sein.

Original geschrieben von gajUli

Oder anders gesagt: Der Durchschnittswert ist auch bei einer Vollerhebung nicht sicher gleich dem wahren Wert. Den bekaeme man nur, wenn man die Pruefung unendlich oft oder mit unendlich vielen Prueflingen schreiben wuerde!

Nein. Nur wenn der Erwartungswert dem Durchschnittswert entspricht. Dieses wird bei Prüfungen, die IMHO einer Normalverteilung unterliegen, aber so sein, es sei denn, durch die zahmen Kontrolleure wird ein Knick der schriftlichen Korrekturen genau an der 50 % bzw. an der 30 % - Hürde signifikant erkennbar.

Original geschrieben von gajUli

d = a1 - a2

und a mit einem Fehler f behaftet (a' = a + f), dann folgt:

d' = a1'- a2'

d' = a1 + f - (a2 + f)

d' = a1 + f - f - a2

d' = a1 - a2

d' = d

Bedeutet, Differenzen sind invariant gegen systematische Fehler (und Streuungen verschwinden bei grossem Stichprobenumfang)

Jetzt kapiert?

Warum springst du jetze zur Fehlerrechnung?

Wer sagt dir, daß der Fehler, der bei jeder erneuten Abstimmung auftritt, ein absolutes Mass annimt?

Falls dieser (wie ich annehmen darf) ein relatives Mass annimmt, wird dieser sicherlich bei Wiederholung der Versuchsreihe ebenso kleiner, aber leider nicht verschwinden.

Link zu diesem Kommentar
Auf anderen Seiten teilen

Original geschrieben von Der Kleine

>Das ist so zwar nicht falsch, aber auch nicht die ganze Wahrheit. Sofern ausgegangen wird von einem Versuch, der nicht wiederholt wird, stimmt meine Aussage mit einer absoluten Sicherheit.

In der Fachliteratur sieht man das anders.

Deine These laesst sich mit einem Gedankenexperiment ueberpruefen: Angenommen, auf der Welt gaebe es nur drei Thermometer, deren Genauigkeit schwankt und die sich nach einmaligem Ablesen zerstoeren. Diese legst Du in Dein Zimmer und liest die Temperatur ab: 20° C, 21° C, 19° C, macht einen Durchschnittswert von 20,0° C. Die Thermometer sind nun kaputt (das Experiment ist nicht wiederholbar), aber Du hast eine Vollerhebung gemacht (alle verhandenen Thermometer sind getestet worden). Nun sagst Du, weil es eine Vollerhebung gewesen sei, sei das Ergebnis zu 100% sicher. Ist das Ergebnis aber sicher, dann waeren die 20,0° C exakt der Erwartungswert, also die tatsaechliche Temperatur des Zimmers.

Angenommen, Du haettest das Thermometer, das 19° C angezeigt hat, nicht besessen. Dann haettest Du eine Vollerhebung mit den zwei anderen gemacht und einen Durchschnittswert von 20,5° C erhalten.

Man sieht leicht, der Erwartungswert laesst sich auch bei einer Vollerhebung nicht sicher herausfinden.

>Warum springst du jetze zur Fehlerrechnung?

Weil die Nichtrepraesentativitaet von Stichproben ein Fehlereffekt ist.

>Wer sagt dir, daß der Fehler, der bei jeder erneuten Abstimmung auftritt, ein absolutes Mass annimt?

Niemand, aber es gibt fuer relative Fehler einen interessanten Effekt:

d' = a1 + a1*rf - (a2 + a2*rf) [rf: relativer Fehler]

d' = a1 + a1*rf - a2 - a2*rf

d' = a1 - a2 + (a1-a2)*rf

d' = d + d*rf

Die Interpretation ist, relative Fehler bewirken relative Differenzaenderungen. Problematisch wird das bei grossen Differenzen, doch gibt es dafuer keinen Anhaltspunkt. Im Zahlenbeispiel: Mittelwert a1=75 Punkte, Mittelwert a2 = 77 Punkte heisst d=2 Punkte. Jetzt rechnen wir einen systematischen, relativen Fehler von 5 % ein, was schon ziemlich viel ist, dann ist d' = 2 + 2 * 0,05 = 2,1 Punkte.

Also fuehrt ein 5%-Fehler nur zu einem Schwanken der Differenz von 0,1 Punkten. Wen das kratzt...

>Falls dieser (wie ich annehmen darf)

Annehmen kann man natuerlich alles Moegliche. Relevant wird es aber nur durch Nachweis.

>ein relatives Mass annimmt, wird dieser sicherlich bei Wiederholung der Versuchsreihe ebenso kleiner, aber leider nicht verschwinden.

Ein relativer, systematsicher Fehler tritt bei Wiederholung erneut auf.

Link zu diesem Kommentar
Auf anderen Seiten teilen

Original geschrieben von gajUli

Angenommen, auf der Welt gaebe es nur drei Thermometer, deren Genauigkeit schwankt und die sich nach einmaligem Ablesen zerstoeren. Diese legst Du in Dein Zimmer und liest die Temperatur ab: 20° C, 21° C, 19° C, macht einen Durchschnittswert von 20,0° C. Die Thermometer sind nun kaputt (das Experiment ist nicht wiederholbar), aber Du hast eine Vollerhebung gemacht (alle verhandenen Thermometer sind getestet worden). Nun sagst Du, weil es eine Vollerhebung gewesen sei, sei das Ergebnis zu 100% sicher. Ist das Ergebnis aber sicher, dann waeren die 20,0° C exakt der Erwartungswert, also die tatsaechliche Temperatur des Zimmers.

Angenommen, Du haettest das Thermometer, das 19° C angezeigt hat, nicht besessen. Dann haettest Du eine Vollerhebung mit den zwei anderen gemacht und einen Durchschnittswert von 20,5° C erhalten.

Man sieht leicht, der Erwartungswert laesst sich auch bei einer Vollerhebung nicht sicher herausfinden.

Es sind wiederum unterschiedliche Dinge.

Das messen der Temperatur mittels Thermometer basiert auf die Bestimmung der exakten Temperatur im Zimmer. Annahme dabei ist die Normalverteilung der gefundenen Messwerte um den wahren Wert, also Bestimmungsmöglichkeit der diskreten Ausprägung jeden einzelnen Messpunktes. Es ist leicht zu erkennen, daß auf einem Thermometer mit genaueren Messmethoden die angezeigte Temperatur bis hin zu einer hinreichenden Genauigkeit bestimmbar ist (also von mir aus auf das Millionstel Teil eines Grad Celsius). Folglich erfolgt die Bestimmung einer stetigen (normalverteilten) Zufallsvariable.

Die genaue Ausprägung der Punktzahl (von 100) ist jedoch diskret verteilt. Jede Bestimmung eines Durchschnittswertes hat dabei schon nichthaltbare Vorraussetzungen :

Wer sagt mir, daß das Erreichen von zwei Punkten genau die doppelte Leistung beinhaltet, wie das Erreichen von einem Punkt?

Wer sagt mir, daß das Erreichen von 60 Punkten genau das doppelte beinhaltet, wie das Erreichen von 30 Punkten?

Wer sagt mir, daß der Schritt von einem Punkt zu zwei Punkten genau den gleichen absoluten Zuwachs bedeutet, wie der Schritt von 45 zu 46 Punkten, bzw. von 90 zu 91 Punkten.

Ähnliches ist bei der Zensurenvergabe auf den Schulen zu beobachten. Die reine Berechnung des arithmetischen Mittels (als gängige Praxis) ist schlichtweg statistisch falsch, bei einer diskreten Skalierung der Messwerte.

Der statitsisch richtige Ansatz wäre einfach die Nutzung des Medians.

Original geschrieben von gajUli

Wen das kratzt...

Der exakten Genauigkeit.

PS : Mich nicht (mehr). Das war einmal.

Link zu diesem Kommentar
Auf anderen Seiten teilen

Original geschrieben von Der Kleine

>Es sind wiederum unterschiedliche Dinge.

An der Widerlegung Deines Satzes "100 % Sicherheit bei Vollerhebung" aendert das nichts mehr.

>Das messen der Temperatur mittels Thermometer basiert auf die Bestimmung der exakten Temperatur im Zimmer.

Wenn man die Temperatur exakt bestimmen koennte, braeuchte man doch keine Statistik.

>Die genaue Ausprägung der Punktzahl (von 100) ist jedoch diskret verteilt.

Das ist bei Stichproben immer so.

>Wer sagt mir, daß das Erreichen von zwei Punkten genau die doppelte Leistung beinhaltet, wie das Erreichen von einem Punkt?

Wer sagt mir, daß das Erreichen von 60 Punkten genau das doppelte beinhaltet, wie das Erreichen von 30 Punkten?

Wer sagt mir, daß der Schritt von einem Punkt zu zwei Punkten genau den gleichen absoluten Zuwachs bedeutet, wie der Schritt von 45 zu 46 Punkten, bzw. von 90 zu 91 Punkten.

Ich weiss nicht, wer Dir das sagt. Mir reicht, dass es irrelevant ist.

>Der statitsisch richtige Ansatz wäre einfach die Nutzung des Medians.

Der Median von (5; 5; 6; 90; 95) ist 6. Das mittlere Leistungsvermoegen dieser Gruppe ist aber 40,2. Oh Kleiner, so langsam reichts glaube ich.

>Der exakten Genauigkeit.

Also etwas, das sich mit Stichproben sowieso nicht erreichen laesst. BTW gibt es ausser der exakten eigentlich noch andere Genauigkeit?

Link zu diesem Kommentar
Auf anderen Seiten teilen

Original geschrieben von gajUli BTW gibt es ausser der exakten eigentlich noch andere Genauigkeit?
Mathematisch kenne ich z.B. die "beliebige Genauigkeit". ;-) ...Aber das ist hier doch irgendwie alles ziemlich am eigentlichen Thema vorbei. Möge doch jeder die Aussagen dieser Erhebung für sich selbst auf statistische Signifikanz untersuchen. Wem die Methode nicht gefällt, der möge es einfach lassen.

Ich finde diese Umfragen zumindest immer wieder sehr interessant.

gruß, timmi

Link zu diesem Kommentar
Auf anderen Seiten teilen

Original geschrieben von timmi-bonn

Ich finde diese Umfragen zumindest immer wieder sehr interessant.

Finde ich auch. Trotz aller Kritik an Statistiken werden sie von vielen sehr ernst genommen, und sei es insgeheim. Ich glaube auch eher, der Verlauf des Threads hat zu sehr den Charakter eines fachlichen Disputs angenommen, ohne dass es wirklich um die Sache ging. Wir koennen damit gern aufhoeren; aber ich verzichte nicht auf Verteidigung, wenn mir vorgeworfen wird, in irgendeiner Form unsauber vorgegangen zu sein, evt. noch aus dem Grund, weil manchen die Ergebnisse vielleicht nicht passen. Hat ja vielleicht doch auch etwas Lehrreiches.

Link zu diesem Kommentar
Auf anderen Seiten teilen

also ich hab mir nicht den kompletten topic durchgelesen wollte aber auch mal was sagen ;)

ich fand die prüfung eigentlich am anfang schwer aber fair.

dachte halt das ich mit viel glück eine 3 bekomme.

das ich dann im schriftlichen teil 85% bekam hat mich schon getroffen. und ich weiß bis heute nicht warum diese so gut ausgefallen ist!!!!

fand eigentlich die vom winder 02/03 leichter. möchte nicht wissen was ich in dieser gehabt hätte. aber die frage stellt sich für mich ja nicht.

projektteil is auch ziemlich gut ausgefallen mit 96%.

alles in allem bin ich also zufrieden.

achja. ich finde solche umfragen und statistiken ebenfalls höchst interessant. ob sie repräsentativ sind oder nicht!

Link zu diesem Kommentar
Auf anderen Seiten teilen

  • 2 Wochen später...
Original geschrieben von gajUli

Original geschrieben von jomama

Gern auch etwas mathematisch:

Sei d eine Differenz der gleichen Groesse a zu verschiedenen Zeitpunkten:

d = a1 - a2

und a mit einem Fehler f behaftet (a' = a + f), dann folgt:

d' = a1'- a2'

d' = a1 + f - (a2 + f)

d' = a1 + f - f - a2

d' = a1 - a2

d' = d

Bedeutet, Differenzen sind invariant gegen systematische Fehler (und Streuungen verschwinden bei grossem Stichprobenumfang)

Jetzt kapiert?

Danke. Irgendwie wird einem von den Mods immer wieder vollige geistige Umnachtung unterstellt, aber ist nicht schlimm.:rolleyes:

Hatte Leistungskurs Mathe, also ein bisschen versteh ich von Stochastik und Statistik auch. Meine Bedenken lagen auch nicht im mathematischen Bereich sondern im psychologischen. Ich finde es aber im allgemeinen nicht schlimm, das die Noten besser werden. Schliesslich steigt IMHO auch die Qualität der Ausbildung dadurch, das mehr Erfahrung in diesen Bereichen gesammelt wird.

PS: Hinterfotzig find ich lustig.:D

Link zu diesem Kommentar
Auf anderen Seiten teilen

Original geschrieben von jomama

>Irgendwie wird einem von den Mods immer wieder vollige geistige Umnachtung unterstellt,

Nicht voellige Umnachtung. Sagen wir besser partielle Umdaemmerung. :D

>Meine Bedenken lagen auch nicht im mathematischen Bereich sondern im psychologischen.

Wo siehst Du denn psychologische Bedenken, wenn Boardmitglieder anonym ankreuzen, wie ihr Pruefungsergebnis lautet?

Link zu diesem Kommentar
Auf anderen Seiten teilen

Von den tiefen der Statistik wieder zurück zum Thema:

Warum fallen sie generell von Jahr zu Jahr besser aus? Der Trend ist ja ziemlich eindeutig...

1.) Die Prüfung wird seit Anfang an immer mehr an einen sinnvollen Inhalt und Nieveau angepaßt

2.) Es gibt immer mehr Referenz-Prüfungen, von denen man als Azubi lernen kann

3.) Jetzt gibt es sogar die Wahlaufgabe, was die Bedeutung von Wissenslücken einschränkt

4.) Die Marktsituation ist noch immer besch### für Ausgelernte bzw. Berufseinsteiger ohne Spezialkompetenz, was die Lernmotivation erhöht

5.) Die Berufsschulen, Betriebe und Ausbilder lernen ebenfalls von Jahr zu Jahr dazu und können ihre Prüflinge zielgerichteter vorbereiten

Soweit meine Mutmaßungen zur Fragestellung.

Link zu diesem Kommentar
Auf anderen Seiten teilen

Dein Kommentar

Du kannst jetzt schreiben und Dich später registrieren. Wenn Du ein Konto hast, melde Dich jetzt an, um unter Deinem Benutzernamen zu schreiben.

Gast
Auf dieses Thema antworten...

×   Du hast formatierten Text eingefügt.   Formatierung wiederherstellen

  Nur 75 Emojis sind erlaubt.

×   Dein Link wurde automatisch eingebettet.   Einbetten rückgängig machen und als Link darstellen

×   Dein vorheriger Inhalt wurde wiederhergestellt.   Editor leeren

×   Du kannst Bilder nicht direkt einfügen. Lade Bilder hoch oder lade sie von einer URL.

Fachinformatiker.de, 2024 by SE Internet Services

fidelogo_small.png

Schicke uns eine Nachricht!

Fachinformatiker.de ist die größte IT-Community
rund um Ausbildung, Job, Weiterbildung für IT-Fachkräfte.

Fachinformatiker.de App

Download on the App Store
Get it on Google Play

Kontakt

Hier werben?
Oder sende eine E-Mail an

Social media u. feeds

Jobboard für Fachinformatiker und IT-Fachkräfte

×
×
  • Neu erstellen...