Veröffentlicht 20. November 20222 j Hallo zusammen, ich habe ein Lehrbuch zur Prüfungsvorbereitung und dort wurde mir diese Aufgabe gestellt: Wie ist die minimale Übertragungsdauer für 300 MiB Daten bei 10 Mbit/s, bei der oben genannten Verbindung? Runden Sie auf volle Sekunden. Mein Weg: 300MiB*1024^2 = 314.572.800 Byte (MiB zu Byte) 314.572.800/1400*1500 = 337.042.285,7 (Damit sollte der Overhead nun aufgerechnet sein. 1500 Byte MTU - 100 Byte IPsec) (337.042.285,7 / 1000^2)*8 = 2696,338286 Mbit (Byte zu Mbit) 2696,338286 / 10 = 269,6338286 = 270 Sekunden (Mbit durch Datentransferrate) Die offizielle Lösung lautet allerdings 273 Sekunden, leider ist kein Rechenweg angegeben und ich frage mich nun wo mein Fehler liegt. Könnte mich jemand aufklären? Bearbeitet 20. November 20222 j von DieFriedhilde
20. November 20222 j Autor Ach, ich bin doof, das dürfte die Lösung sein: Anstatt "314.572.800/1400*1500" muss doch "314.572.800/1400*1518" gerechnet werden. Header u. FCS muss ich zwar bei der MTU nicht beachten, aber natürlich bei der Übertragung. Es sind ja 1400 Byte Daten + 100 Byte IPsec + 18 Byte Header u. FCS = 1518 Byte 😄
Erstelle ein Konto oder melde dich an, um einen Kommentar zu schreiben.