Veröffentlicht 22. Mai 201015 j Hallo zusammen, ich hab von meinem Lehre eine Aufgabe bekommen, bei der ich "etwas" überfordert bin...ich hoffe, mir kann hier einer helfen oder paar tipps geben. zur Info: Übertraggunsstrecke s=150km Bitrate v=2048kbit/s Signalausbreitungsgeschwindigkeit c=0.8 Bitfehlerwarscheinlichkeit p=10^(-7) maximale länge eines datenblocks l=1280 Oktett a) es soll die signallaufzeit der übertragungsstrecke berechnet werden und wie lang die übertragung eines datenblocks maximaler länge ist. mit welcher warscheinlichkeit ist ein datenblock maximaler länge gestört? wie oft muss solch ein datenblock im mittel übertragen werden? c) kanalausnutzung berechnen d) welcher wert ist für die timeout-Zeit des timers t1 mindestens einzustellen,wenn für die vernachlässigten zeiten insgesamt einer reserve von 10% vorgesehen wird? also irgendwie raff ich nix bei der aufgabe. kann mir dabei irgendeiner helfen?
23. Mai 201015 j Und was hast Du bis jetzt selbstständig erarbeitet? Das Forum ist nicht dafür gedacht, dass andere Deine Hausaufgaben machen. Du solltest zeigen, dass Du Ansätze bei den Aufgabenteilen hin bekommst.
26. Mai 201015 j a) es soll die signallaufzeit der übertragungsstrecke berechnet werden Du kennst Geschwindigkeit und Weg. Damit sollte sich die Zeit recht einfach ausrechnen lassen. Mirko
Erstelle ein Konto oder melde dich an, um einen Kommentar zu schreiben.