Veröffentlicht 5. März 200223 j Welche Bandbreite in MBit/s benötigt man, wenn 450 MByte in 2 Minuten übertragen werden sollen?! :confused: Systeminterne Gegebenheiten oder eine mögliche Netzwerkauslastung dürfen ausser acht gelassen werden!! Die Lösung hierfür ist: 30 MBit/s ! Gerechnet wei folgt: (450 MByte * 8) / 120 s Jetzt brauch ich nur noch ne Erklärung von Euch, warum man das so rechnen kann/darf/muss/soll !?
5. März 200223 j Hallo, 1 Byte = 8 Bit deswegen: 450 MB * 8 = 3600 MBit die sollen in 2 Minuten übertragen werden -> Durchsatz pro Sekunde muss 3600 MBit/ 120 Sekunden sein ->30 MBit/s Ich hoffe, dass es jetzt klar ist. Gruß dubidu2
Archiv
Dieses Thema wurde archiviert und kann nicht mehr beantwortet werden.