Media
-
Gesamte Inhalte
1 -
Benutzer seit
-
Letzter Besuch
Schicke uns eine Nachricht!
Fachinformatiker.de ist die größte IT-Community
rund um Ausbildung, Job, Weiterbildung für IT-Fachkräfte.
Medieninformatik
in Prüfungsaufgaben und -lösungen
Geschrieben
Hallo,
Eigentlich studiere ich keine IT, muss es aber dieses Semester belegen und verstehe es leider nicht. Ich bin über Erklärungen dankbar, wie man die folgende Aufgabe angehen muss:
Info: USB 2 überträgt xGbits/sekunde, Laptop hat y*z pixel welcher t bit/pixel unterstützt.
Daraus soll ich erechnen, wie viele Bilder/sekunde übertragen werden können.
Also erstmal die Gesamtzahl der Pixel ausrechnen, also y*z=Gesamtzahl Pixel. Und dann? Hatte gedacht die Gesamtzahl Pixel durch t (bit/pixel) zu teilen, aber irgendwie komme ich mit der Zahl nicht weiter. Denn wenn ich das irgendwie in Gbit umrechnen möchte kommt da Unsinn raus.
Ich stecke da irgendwie mit meinen überlegungen fest.
Danke und liebe Grüße!