Hallo zusammen,
ich hab von meinem Lehre eine Aufgabe bekommen, bei der ich "etwas" überfordert bin...ich hoffe, mir kann hier einer helfen oder paar tipps geben.
zur Info:
Übertraggunsstrecke s=150km
Bitrate v=2048kbit/s
Signalausbreitungsgeschwindigkeit c=0.8
Bitfehlerwarscheinlichkeit p=10^(-7)
maximale länge eines datenblocks l=1280 Oktett
a) es soll die signallaufzeit der übertragungsstrecke berechnet werden und
wie lang die übertragung eines datenblocks maximaler länge ist.
mit welcher warscheinlichkeit ist ein datenblock maximaler länge gestört?
wie oft muss solch ein datenblock im mittel übertragen werden?
c) kanalausnutzung berechnen
d) welcher wert ist für die timeout-Zeit des timers t1 mindestens
einzustellen,wenn für die vernachlässigten zeiten insgesamt einer reserve
von 10% vorgesehen wird?
also irgendwie raff ich nix bei der aufgabe. kann mir dabei irgendeiner helfen?