Hallo zusammen, ich habe ein Lehrbuch zur Prüfungsvorbereitung und dort wurde mir diese Aufgabe gestellt:
Wie ist die minimale Übertragungsdauer für 300 MiB Daten bei 10 Mbit/s, bei der oben genannten Verbindung?
Runden Sie auf volle Sekunden.
Mein Weg:
300MiB*1024^2 = 314.572.800 Byte (MiB zu Byte)
314.572.800/1400*1500 = 337.042.285,7 (Damit sollte der Overhead nun aufgerechnet sein. 1500 Byte MTU - 100 Byte IPsec)
(337.042.285,7 / 1000^2)*8 = 2696,338286 Mbit (Byte zu Mbit)
2696,338286 / 10 = 269,6338286 = 270 Sekunden (Mbit durch Datentransferrate)
Die offizielle Lösung lautet allerdings 273 Sekunden, leider ist kein Rechenweg angegeben und ich frage mich nun wo mein Fehler liegt.
Könnte mich jemand aufklären?