-ynopsi- Geschrieben 5. März 2002 Geschrieben 5. März 2002 Welche Bandbreite in MBit/s benötigt man, wenn 450 MByte in 2 Minuten übertragen werden sollen?! :confused: Systeminterne Gegebenheiten oder eine mögliche Netzwerkauslastung dürfen ausser acht gelassen werden!! Die Lösung hierfür ist: 30 MBit/s ! Gerechnet wei folgt: (450 MByte * 8) / 120 s Jetzt brauch ich nur noch ne Erklärung von Euch, warum man das so rechnen kann/darf/muss/soll !?
dubidu2 Geschrieben 5. März 2002 Geschrieben 5. März 2002 Hallo, 1 Byte = 8 Bit deswegen: 450 MB * 8 = 3600 MBit die sollen in 2 Minuten übertragen werden -> Durchsatz pro Sekunde muss 3600 MBit/ 120 Sekunden sein ->30 MBit/s Ich hoffe, dass es jetzt klar ist. Gruß dubidu2
Empfohlene Beiträge
Erstelle ein Benutzerkonto oder melde Dich an, um zu kommentieren
Du musst ein Benutzerkonto haben, um einen Kommentar verfassen zu können
Benutzerkonto erstellen
Neues Benutzerkonto für unsere Community erstellen. Es ist einfach!
Neues Benutzerkonto erstellenAnmelden
Du hast bereits ein Benutzerkonto? Melde Dich hier an.
Jetzt anmelden