Veröffentlicht 11. November 20213 j Hallo, Eigentlich studiere ich keine IT, muss es aber dieses Semester belegen und verstehe es leider nicht. Ich bin über Erklärungen dankbar, wie man die folgende Aufgabe angehen muss: Info: USB 2 überträgt xGbits/sekunde, Laptop hat y*z pixel welcher t bit/pixel unterstützt. Daraus soll ich erechnen, wie viele Bilder/sekunde übertragen werden können. Also erstmal die Gesamtzahl der Pixel ausrechnen, also y*z=Gesamtzahl Pixel. Und dann? Hatte gedacht die Gesamtzahl Pixel durch t (bit/pixel) zu teilen, aber irgendwie komme ich mit der Zahl nicht weiter. Denn wenn ich das irgendwie in Gbit umrechnen möchte kommt da Unsinn raus. Ich stecke da irgendwie mit meinen überlegungen fest. Danke und liebe Grüße!
11. November 20213 j Entweder ist es angegeben oder du musst recherchieren (read: googeln) mit wievielen Bits ein Pixel dargestellt wird. Jeder Pixel hat t Bits, d.h. deine Gesamtzahl Pixel am Bildschirm mit der Anzahl Bits pro Pixel verrechnet sind ein Frame. Tipp: Du teilst nicht Bit durch Pixel Edith: Es ist angegeben mit t. Bearbeitet 11. November 20213 j von Bitschnipser
11. November 20213 j Wenn du pixel durch bit/pixel teilst, was kommt dann raus? Spoiler: Nicht bit Wenn man Einheiten beachtet ist vieles einfacher Bearbeitet 11. November 20213 j von 0x00
11. November 20213 j Du weißt wie viele Pixel ein Bild hat und du weißt auch, wie viele Bits ein Pixel benötigt. Also kannst du doch ausrechnen, wie viele Bits ein Bild benötigt. Du weißt du auch, wie viele Bits pro Sekunde übertragen werden. Also kannst du doch nun ausrechnen, wie viele Bilder pro Sekunde übertragen werden. Bearbeitet 11. November 20213 j von Whiz-zarD
Erstelle ein Konto oder melde dich an, um einen Kommentar zu schreiben.