Hallo alle,
Wir habe momentan ein kleines Problem mit Handlungsschritt 5, Teilaufgabe c) aus der Abschlussprüfung Sommer 2019 GA1 (FISI).
Die Aufgabe:
gegeben:
- 75 MiB Download
- 16.000.000 Bit/s (Mindest-Bandbreite)
- 1450 Byte MTU
- 0,4 ms (0,0004 s) Latenz pro Frame
gesucht:
- wie lange dauert der Download ungefähr (Frage ist in der Prüfung falsch formuliert worden, dort steht "mindestens", müsste aber "höchstens" stehen)
- der Overhead (Header, Trailer, usw.) sind zu vernachlässigen
Also...
Wir haben hier 3 Dozenten mit 3 verschiedenen Ideen, wie diese Aufgabe gelöst wird.
Hier einmal eine Lösung:
Lösung (1) = 75 MiB in Bits umrechnen -> 629145600 Bits -> durch 16MBit teilen -> 39,3216 s -> + 0,0004 s = 39,3220 s
Aber...
Wir haben (wie gesagt) auch noch zwei andere Lösungen:
Lösung (2) = 39,321 s (siehe oben) + 0,0004 s für jeden Frame -> ca. 61 Sekunden
Lösung (3) = 0,0004 s für jeden Frame -> ca. 22 Sekunden
Also, ich schwanke zwischen Lösung (1) und Lösung (2), wobei Lösung (1) von mir ist und Lösung (2) von einem Kollegen.
Die Frage ist, was diese "Latenz" genau sein soll - ist es:
(a) der "Ping", also die Latenz vom Server bis zu dem Arbeitsplatzrechner -> dann wäre Lösung (1) richtig
(b) die "Zeit zum Einpacken und Auspacken" von Frames -> dann wäre Lösung (2) richtig
So...
Hoffentlich kann jemand von euch etwas Licht in diese Angelegenheit bringen.
Außerdem sollte man die IHK nochmal darauf hinweisen, dass sie schreiben müssen: "wie lange dauert es höchstens" statt "wie lange dauert es mindestens".
Das hat den einen Kollegen hier so richtig schön irritiert, weil er es so wörtlich wie möglich interpretiert hat.
Er braucht dann nämlich eine "Maximal-Bandbreite" und keine "Minimal-Bandbreite", um das "mindestens" statt des "höchstens" zu bestimmen.
Viele Grüße,
Dozi