Zum Inhalt springen

Sailor Moon

Mitglieder
  • Gesamte Inhalte

    148
  • Benutzer seit

  • Letzter Besuch

  1. Oh großes Sorry, hab grad gesehen, dass Myrddraal das doch völlig korrekt dargelegt hat, hab das Posting doch zu obeflächlich gelesen und mir sprang nur die "2" ins Auge; von daher: Völlig korrekt geschrieben! Gruss Denis
  2. Nein, dass mit den Pixelfehlern ist nicht ganz richtig. Fehlerklasse 2 regelt, entegen der landläufigen Meinung, die Fehler *pro* 1 Million Pixel. Ist also je nach nativer Auflösung verschieden. Pixelfehler sind heute relativ selten geworden, mein erster TFT (mit immerhin 2,3 Millionen Pixeln, entsprechend müssen hier die Werte auch x 2.3 genommen werden) hatte auch zwei Fehler, ist aber aufgrund anderer Fehler wieder zurückgegangen, der jetzige hat gar keinen. Mein Zweit TFT hat einen Subpixelfehler. Sie können mit der Zeit auch noch dazukommen, aber das ist eher selten, wenn dann fällt meistens im ersten Monat noch ein Pixel bzw. Subpixel aus, das schon von Anfang an einen kleinen Schaden hatte. Fehlerklasse 2: ständig leuchtend: 2 ständig schwarz: 2 Subpixel: 5 wie gesagt, pro 1 Million gerechnet. Hab selbst meinen großen TFT per Versand bestellt (war vor Ort auch gar nicht zu bekommen), hier hat man noch den Vorteil des FernAbsG, ausnutzen sollte man das jedoch nicht (da kommt es eben auf den subjektiven Eindruck an, wie es einen stört, bei einem TFT gibt es da ja noch diverse andere Dinge zu beachten). Gruss Denis
  3. Nochmal zum Thema RAID 0: Beim Videoschnitt bringt es eher was, mehrer Einzelplatten einzusetzen, zumindest System-/ Videodaten sollten getrennt liegen. Beste Performance mit Platten an getrennten Kanälen, IDE kann ja leider kein Connect/Disconnect, was aber eigentlich nur bei Kopiervorgängen innerhalb eines Kanals auffällt. Deshalb haben die ausgewachsenen IDE RAID Controller (Promise Supertrak) ja auch getrennte Kanäle für jeweils *eine* Platte und finde ich es immer wieder lustig von IDE RAID 0 mit vier Platten an zwei Kanälen zu hören *g* - wo ein RAID 0 doch gerade vom blockweise, *gleichzeitigem* auslesen von Daten lebt. Wenn in diesem Falle ein RAID 0 unbedingt sein muß, doch lieber zwei Verbünde realisieren: Master-Master und Slave-Slave. Aber in der Realität ist das eh eher ein Hype mit dem RAID 0, schnelle Einzeplatten gibts genug...kein Wunder, die Platter der HD´s werden ja immer dichter gepackt. Man stößt doch eh an die Grenzen der PCI Busses, leider ist ja gerade VIA dort nicht unbedingt bekannt für tolle raw Power ;-) - bei etwa 70 MB/sec wird da schon gekachelt und es gibt eher mehr Probleme und Risiken, gerade beim Videoschnitt. Wenn es dann doch unbedingt sein muß schon eher richtig, also Supertrak oder vergleichbar und einen RAID 5 Verbund , in einem extra Rechner, über Gigabit-Ethernet ans Home LAN angebunden, realisieren. Dann gibts auch Datensicherheit inklusive. Gruss Denis
  4. Videoschnitt und (IDE) RAID sind nicht sonderlich emfehlenswert. Zunächst sollte man sich mal um den notwendigen Datendurchsatz Gedanken machen. Bei alten analogen Karten ging es, wenn es um Beta Qualität ging, bis 7 Mbyte/sec hoch, der heute einzig sinnvolle DV-Standard (man kann über eine freigeschaltete D8 und auch einigen DV Cams auch analoges Material in Echtzeit A/D wandeln, in guter Qualität und nutzt dann noch den guten TBC einer Cam, also viel sinvoller als mit einer analogen Capture Karte), sieht 3,6 Mbyte/sec vor. *Jede* aktuelle IDE Platte hat hierfür genügend Datendurchsatz, zumal die CPU Last erfreulicherweise fast gleich null liegt, der Encodierungsvorgang hat schließlich schon in der Kamera stattgefunden, über Firewire werden die Daten deshalb auch nicht mehr gecaptured, sondern nur überspielt. Ein RAID 0 System sorgt für hohe PCI Buslast und bringt außer im linearen Schnitt keinerlei Geschwindigeitsvorteil. Auch bei einer eventuell später anfallenden Encodierung nach MPEG2 (=>DVD als Zielmedium) ist jede normale Festplatte total unterfordert, hier sitzt der Flaschenhals an einer ganz anderen Stelle, selbst meine Vidac (Hardware MPEG2 Encodier-/ Transcodierlösung) schafft von DV nach Half D1 "gerade einmal" 55 FPS, also zweifache Echtzeit. MPEG2 hat max. 9,8 Mbit/sec (es ginge auch mehr, aber dass ist nicht mehr in der DVD Norm) x 2 wären das also 18 Mbit/sec, das kostet die heutigen Consumer Platten ein müdes lächeln ;-) Gute Soft Encoder (CCE, TMPEG) sind noch um einiges langsamer. Die Probleme die ein RAID 0 beim Videoschnitt/ encodieren mit sich bringt, sind eher höher als irgendein nutzen. Um zur Frage zu kommen: 1 GB RAM können bei umfangreichen Projekten sinvoll sein, gerade Adobe Premiere ist ein speicherfresser. Ein gut konfiguriertes System sollte aber auch mit 512MB flüssiges arbeiten erlauben. Auf Encodierungsvorgänge nach MPEG2 wirken sich 1024MB RAM gar nicht aus, wobei ich gar nicht weiß ob dein Freund das will. In dem Falle würde ich eher zu den Karten der Firma Vidac raten http://www.vidac.de die in einigen Versionen hardwareunterstützes Transcoding bieten, wobei diese Karten wirklich nur sinnvoll sind, wenn man auf DVD ausgeben möchte, bei niedrigen VCD/SVCD Bitraten, liefern sie keine guten Ergebnisse, hier ist ein guter Soft Encoder deutlich überlegen. Wobei solche Lösungen immer sehr ins Eingemachte gehen, da kann es schon sein, dass man seinen Rechner darum herumbauen muß. Hab deshalb einen extra Rechner mit DVB-S, Vidac Movie und DVD Brenner als digitalen Videorekorder abgestellt. Dies wäre auch ein weiterer Tip: Der Videorechner sollte möglichst auch ein reiner Videorechner bleiben, egal ob zum Videoschnitt oder Aufnahme gedacht. Um aber besser helfen zu können, müßte ich wissen: 1. Was wird eingespielt (DV-AVI über DV-Cam?) 2. Mit welchem Programm wird geschnitten? 3. Was ist das Zielformat (wieder DV-AVI, oder encoding nach MPEG2?) 4. Bei welchen Aktionen "fehlt die Power"? => Schau auch mal im http://www.dvd-svcd-forum.de nach, oder im Usenet: de.comp.hardware.tv+video Viele Grüsse Denis
  5. Die Negativmeldungen in den Newsgroups (z.B. de.comp.hardware.brenner) sind ja auch nicht weniger geworden ;-)
  6. Sailor Moon

    Fps

    Hi! Naja, so Schlecht ist ein TFT nicht, hab an meinem Laptop ja auch eins dran. Hat eine typische Reaktionszeit von 50ms, 3D Shooter sind absolut kein Problem, egal ob UT, Serious Sam, Q3A usw (und der GF2 Go ist schon in der Lage hier eine sehr flüssige Beschleunigung zu bieten, so das man Probleme bei der Trägheit des Displays sofort erkennen würde). Richtige Nachteile haben TFT´s bei kontrastarmen Sequenzen, gutes Beispiel wäre Serious Sam unter Wasser... Trotzdem möchte ich meinen guten CRT am Desktop Rechner natürlich nicht missen, keine Frage :-) - Hier geht meine Empfehlung Eindeutig in Richtung Trinitron NF (bzw. Schlitzmasken allgemein, gibt ja auch noch die Diamandtron NF). Denis
  7. Sailor Moon

    Fps

    Das Problem mit dem FPS ist ganz klar, man kann das nicht mit dem Kino (24 FPS) oder TV (25 Vollbilder/sec, beim TV kommt dem ganzen noch zu Gute, das hier ganz bewußt der Nachleuchteffekt genutzt wird, deshalb sieht man beim Vollbild Capturing am PC auch die Interlace Streifen) vergleichen. Wenn menschliche Auge keinen Unterschied mehr zwischen 30 oder 60 FPS sehen würde, würden wir es auch nicht so empfindlich merken, wenn die Refreshrate zu niedrig ist. Die Ansicht, das ~25 FPS reichen, hat sich eingebürgert, ist aber falsch. Ab ca. 50 FPS wird es aber angenehm :-) Zu dem Detonator Problem: Du hast uns leider nicht verraten, welche Treiber du eigentlich meinst. Benutze doch bitte die Universal nVidia Treiber. Bei den zertifizierten Versionen von nVidia sind die Overclocking und sonstige Tweak Einstellungen meist nicht mehr freizugeben, genauso wie bei den Hersteller Treibern. Mit Tools wie nvtweak kannst du aber sehr genaue Einstellungen vornehmen und auf jeden Fall Vsynch deaktivieren. Wichtig bei der Installation eines neuen Treibers. Erst den Standard VGA Treiber installieren, dann möglichst die Reste des alten Treibers aus der Registry entfernen, dafür gibts auch entsprechende Tools, und dann den gewünschten Detonator installieren. Nimm am besten mal den 22.80er, aber bitte von nVidia und keinen Hersteller Murks :-) Denis
  8. Sailor Moon

    Fps

    Nimm die Standard Detonator Treiber von nVidia, ich fahre hier sehr gut mit dem 22.80er, da mußt du einfach mal schauen, was für dich am besten ist, der 23.11er ist auch noch in Ordnung. Mit den Coolbits, bzw. einem entsprechendem Tweak Programm kannst du dann die Tweak Optionen freischalten, damit du Vsynch sowohl unter D3D und OpenGl deaktivieren kannst. Außerdem ist dann das Übertakten recht einfach :-) Wichtig: Die VIA Treiber (4in1) sollten unbedingt installiert sein, hier kommt es vor allem auf den AGP Treiber an, den Busmaster Treiber mußt du nicht unbedingt nehmen, der Microsoft eigene ist schon ganz gut. Folgende Installationsreihenfolge hat sich bewährt: Betriebssystem VIA Treiber DirectX 8.1 Detonator Treiber Zu den Frameraten: Auch eine GF3 garantiert nicht immer extrem hohe FPS. In 1600x1200@32bit und vollen Details oder noch höheren Auflösungen wird auch hier die Luft, aufgrund von Bandbreitenengpäßen beim Grafikspeicher dünner...auch nVidias kommendes GF4 Spitzenmodell mit 700 Mhz Speicher wird, wenn auch weniger :-), hier seinen "Flaschenhals" haben. Besserung versprechen Techniken wie HSR, QDR und 256bit Speicher. Um an höhere Refreshraten zu kommen, wäre es für uns wichtig, wenn du uns deinen Monitor nennst, bzw. wie du ihn angeschlossen hast. Wenn er per BNC Kabel angeschlossen ist, gibt es nämlich kein DDC Signal und dementsprechend auch keine korrekte Erkennung des Monitors, hier sollte man vom Hersteller den enstprechenden Treiber installieren oder den von einem anderen Monitor, der dem Eigenen ähnlich ist (=> bezüglich auf die Horizontalfrequenz). Prinzipiell kann man eigentlich immer den Treiber vom Hersteller nehmen, auch wenn man den Monitor per D-Sub anschließt. Denis
  9. Hi! Noch ein Nachtrag ;-) zum Thema Geschwindigkeit der CPU: Ich habe den Eindruck das die Wirkung einer schnelleren CPU etwas überschätzt wird. Zumindest bei Spielen :-) ist es so, das in hohen Aufösungen die Grafikkarte bzw. der Speicher, der auf dieser verbaut ist, limitiert, auch die 10 GB/sec einer GF4 mit 700 Mhz 128bit Speicher (so sie denn in dieser Version erscheint) ändern daran nichts. In 1600x1200@32bit ist es ziemlich egal, ob ein Athlon 800 oder XP2000+ im Rechner steckt. Bei Anwendungen ist das natürlich etwas anders gelagert, aber darüber habe ich mich ja schon ausgelassen ;-)
  10. Hi! Ich weiß, aber nicht korrekte Aussagen sollten doch korrigiert werden? => Und das mit dem Cache und der Abwärme war ja auf jeden Fall nicht korrekt. Denis
  11. Hi! Eigentlich wollte ich zu dem Thema nix posten, aber nachdem ich mir so einige Postings durchgelesen habe, juckt es mir ganz gewaltig in den Fingern :-) : Gut das einer der Poster seine Vermutungen nummeriert hat, dann kann ich das zur Verdeutlichung auch benutzen, bezieht sich jetzt also alles mehr oder weniger also auf das Posting von DocNeo: 1. Ich weiß das THG Video hat viel Eindruck gemacht, doch sollte man das ganze mit etwas Abstand betrachten, dann wirds meist doch besser :-) => Klar, kann sich der P4 dynamisch runtertakten, was aber im Betrieb sehr oft dazu führt, das er langsamer läuft als er sollte, da die Temp. Grenze für die Regelung sehr niedrig gewählt ist. Jede Medaille hat zwei Seiten, das sollte man sicherlich nicht vergessen. Im übrigen hat der P4 eine höhere Verlustleistung als ein T-Bird oder XP, bitte nicht vergessen, der Northwood in 0,13µm ändert daran nichts großartiges, ich kann die Wärmeabgabe in Watt gerne posten! 2. Die Stabilität hat nichts mit der CPU (ob Intel Pentium 4 oder AMD Athlon (XP))zu tun, das liegt zu 90% an den verwendeten Komponenten und Board. Pauschalisierungen sind da grundsätzlich falsch, da muß man der Wahrheit ins Auge blicken. Bei mir läuft sowohl mein vollgepackter AMD Rechner, als auch mein Intel Notebook problemlos 3. Bis die Software erstmal optimiert ist vergeht Zeit, auch AMD baut 64bit Prozessoren; Kennst du den "Hammer"?, wenn nicht, weißt du es jetzt :-)...ich verstehe auch nicht ganz was du damit sagen willst... ohne AMD keine Konkurrenz und dann wird auch dein Intel Prozessor wieder teuerer... 4. Da sag ich jetzt nix zu (spielst du auf ISSE an, muß ich dich enttäuschen, den Befehlssatz gibts seit dem Palomino Core auch für AMD´s - ISSE2 zwar nicht, wäre aber toll wenn du mir darauf optimierte Software (ISSE 2!) nennen könntest; ISSE1 lohnt sich schon kaum, für die zwei Filter in Photoshop brauch ich es nicht, und wenn ich das ernsthaft betreiben würde, würde ich das eh mit dem Mac machen), könnte jetzt auch als alter DTP Hase :-) sagen, vernüftige Software läuft sowieso nur auf einem Mac, zumindest im grafischen Gewerbe. 5. Wie gesagt hab ein Notebook mit Intel Mobile CPU, da sind sie ja auch ganz gut, wobei es ja auch das geniale Beispiel vom P4 Notebook gibt :-) - Verlustleistung ohne Ende durch Einsatz eines Desktop Prozessors, stufenloses Speed Step beherrschen Intel CPU´s übrigens nicht. 6. ????? P3 heißt für mich Coppermine, also 32 KB First und 256 KB SecondLevel Cache... was ist denn da mehr?? Zum Vergleich: AMD Athlon XP: 128 KB First und 256 KB SecondLevel Cache und ein intelligenteres Prozessordesign. Der P4 hat noch weniger: Willamette: 8KB First, 256 KB SL Cache; Northwood: 8KB First, 512 KB SL Cache => das rettet ihn aber performancemäßg überhaupt nicht, der P4 hat eine wesentlich niedrigere Pro MHz Leistung als ein P3! Einzig der P3 Tualatin bietet ein gutes Pro MHz Verhältnis und liefert die Leistung eines entsprechenden AMD Prozessors, d.h. bringt in seiner derzeitigen Top Variante als 1,4 GHz Serverversion (32 KB FL, 512 KB SL Cache) den P4 2 Ghz mächtig unter Druck - was glaubst du warum Intel den künstlich so hochpreisig hält, peinlich wenn das Flaggschiff von der P3 Architektur mit weniger MHz geschlagen wird und dann auch noch günstiger wäre. Bitte liste mir weitere Punkte auf :-) => Das geht jetzt nicht persönlich gegen dich, aber deine Punkte klingen so wie "aus dem Bauch heraus" gesagt. Irgendwie doch zu schwammig und bezogen auf die Ausbaustufen des Caches auf jeden Fall falsch, hoffe durch meine Auflistung da etwas Klahrheit hineingebracht zu haben. Subjektive Sachen bringen uns doch da nicht weiter, wichtig ist was hinten rauskommt, und da liegt AMD eindeutig besser. Der Architektur der P4 bringt nur eins, MHz, um die MM Käufer zu beeindrucken. Dies alles gilt wohlgemerkt für den P4 mit Rambus Speicher, denn mit SDRAM verpufft ja das ganze Konzept der QDR Technik da Speicherseitig nicht genügend Bandbreite zur Verfügung steht, selbst wenn man den SDRAM asynchron mit 133 Mhz taktet, und die Leistung wird noch um ein vielfaches schlechter. QDR ist natürlich eine schöne Sache um Speicherbandbreite zu gewinnen, das werden auch die Grafikkartenherstellen wohl auch einsetzen, oder sie bauen auf 256bit Speicher - aber dieses Konzept alleine macht den P4 eben nicht schnell. Daneben sind Thunderbirds und XP´s noch Dual fähig und verhalten sich im Dual Betrieb wesentlich besser als ein P3 Dual System, vom erzielten Performancegewinn aus gesehen (bei SMP Anwendungen gewinnt man mit dem P3 bzw. P3/4 Xeon ~60% im Dual Betrieb mit zwei AMD´s erreicht man nahezu die doppelte Performance eines Single Prozessors, bei SMP Anwendungen wohlgemerkt). Wenn jetzt jemand mit Videobearbeitung kontert, da Intel hier ja bei bestimmten Anwendungen relativ fix ist...unter vernünftigen Komprimierungsprogrammen wie TMPEG oder im Media Studio und unter Premiere hat Intel keinen großen Vorteil, vor allem da AMD ja auch endlich Dual Support bietet, und für MPEG2 Encoding rate ich sowieso zu einer Hardware Encoding Karte wie der VMagicMovie von http://www.vidac.de => die Echzeitumwandlung bekommt kein derzeitiger Prozessor hin. q.e.d. Denis
  12. Ich selbst hab einen Server Tower von EYE, heute heißt das vergleichbare Modell EYE-2020. Hat 10 (!) 5 1/4 Zoll Einschübe :-) Allerdings keine Festplattenkäfige. Platz für Lüfter und Komponenten ohne Ende, allerdings sehr schwer :-) Denis
  13. Nochmal zu den BNC Anschlüssen: Bei großer Diagonale und hohen Auflösungen auf alle Fälle zu empfehlen, heute muß man auch nicht mehr so vorsichtig sein wie früher, wo einem bei falschem Aufstecken der beiden Synchronisationssignale der Monitor kaputt gehen konnte. Ab 1600x1200 würde ich keinesfalls mehr ohne BNC Kabel arbeiten wollen. Denis
  14. Hi! Nein, PIO schließt DMA nicht aus, das wird oft verwechselt, es gibt verschiedene PIO (bis max. 16,6 MB/sec) und UDMA Modi (bis max. 133 MB/sec), beide können mit DMA Zugriff laufen! Du kannst im PIO Modus ohne Probleme den DMA Modus aktivieren (im Gerätemanager checken). Bis vor nicht allzu langer Zeit unterstützten viele Brenner gar keinen UDMA Modus, sondern liefen generell im PIO Modus, zum Beispiel war beim 16x Plextor der UDMA 33 Modus gar nicht offiziell freigegeben (nur über undokumentierten Jumper), UDMA kannst du auch noch aktivieren, dazu darf der Jumper nicht gesteckt sein und unter W2K brauchst du mind. das erste SP. Zu den Brennproblemen: Ob 24x auf den Rohlíngen draufsteht ist relativ egal, mir ist bislang noch kein Rohling untergekommen, der im ATIP die Geschwindigkeit eingetragen hatte. Also als erstes mal überprüfen ob DMA aktiviert ist, würd ihn auchmal alleine an einen IDE Port stecken, oder mal an einen PCI UDMA Controller (aber keinen RAID Controller, die mögen keine ATAPI Geräte), dann hast du keine Probleme mit den Busmaster Treibern. Wenn du ihn am onboard Controller hast, reichen in der Regel die MS Busmaster Treiber, die VIA Busmaster mußt du nicht unbedingt nehmen. Bringt mich grundsätzlich auf den Hinweis, das man gute Rohlinge benutzen sollte :-) . Hab mal einen Testkauf von verschiedenen Herstellern bzw. eher Vetreibern gemacht: Gut sind in jedem Fall: - TDK 24x (die sind von Taiyo Yuden, bei den 16x sind es leider Noname :-( ) - Philips Silverspeed 24x (Mitsui, auch hier sind die 16x wieder Mist) - Maxell CD-R 80XL (Taiyo Yuden) - Sony 16x (Taiyo Yuden), - Verbatim Data Life Plus (Plus ist wichtig!!, wobei auch diese wohl schlechter geworden sind, glaubt man den einschlägigen Newsgroups, der Plex regelt sich auf jeden Fall öfter auf 16x runter, auch wenn das sicher kein alleiniges Kriterium ist), - Mitsui (die vertreiben auch selbst, am besten ist hier der legendäre Mitsui Gold Ultra, der Stückpreis von 1.59 EUR (für den 74min) ist aber nicht ganz ohne :-) ) Abzuraten ist von: Intenso, BestMedia, Platinum, Aldi Rohlingen usw usw, diese Hersteller labeln Billigmarken, man weiß nie was man bekommt, es können in einem Zehnerpack verschiedene Hersteller vertreten sein (deshalb sind die ganzen Tests in der CT, Chip usw auch völlig sinnlos), wichtig sei hier noch: Eine problemlos gebrannte CD ist kein Hinweis auf einen guten Rohling :-) , hab knapp zwei Jahre alte Platinums, hier häufen sich schon die C2 Fehler, habe sie grad noch retten können, außerdem haben die Billigrohlinge oft direkt nach dem Brennen schon einige C2 Fehler, die oftmals zu sogenannten Spin Downs führen. Weiß zwar selber nicht so ganz wie ich jetzt auf Rohlinge gekommen bin, irgendwie paßt es aber, und ich wollte meine Testergebnisse doch mal loswerden (wozu hab ich die ganzen Rohlinge sonst gekauft :-) ?). Generell sind Taiyo Yuden (die werden von verschiedenen Marken gelabelt), Mitsui (die werden gelabelt und vertreiben aber auch selbst) und Mitsubishi Chemicals zu empfehlen. Denis P.S. Das mit der niedrigen Geschwindigkeit ist so eine Sache, bei den schnellen Brennern ist der Laser entsprechend "stark", bei niedrigen Geschwindigkeiten kann man sich da ganz schnell einige C2 Fehler einhandeln, mit 1x oder 2x sollte man deshalb mit den schnellen Brennern nicht brennen!
  15. Hm, da steht dann Meinung gegen Meinung, ich hoffe das heute abend untermauern zu können :-)' Gehäuse ist bei mir ein Servertower mit nicht weniger als 11 Lüftern, die beiden Lüfter für die zwei HD 5 1/4 Zoll Rahmen eingerechnet (Grafikkarte hat zusätzlich Rückseitenkühlung). Gehäuse Temperatur liegt nicht höher als die Zimmertemperatur :-) - doch im MOment etwas höher: 26 Grad ;-). Die Temp ist auch nicht entscheidend, eine Karte würde erst bei extremer Übertaktung wieder langsamer werden (wobei normalerweise bis dahin Pixelfehler auftreten würden). Aber der durch das Übertakten zu gewinnende Geschwidigkeitsunterschied macht auf gar keinen Fall den Unterschied zwischen "ruckelt ziemlich stark" und "ist ruckelfrei" aus. Die Steigerung der Bandbreite ist nicht so hoch, 700 MHz Speicher würde wie gesagt 10,4 GB/sec bringen, eine GF3 -standard- bietet 7,8 GB/sec. Bis heute abend kann ich erstmal nur damit belassen, festzustellen, das wir beide unterschiedliche "Ruckelempfindungsgrenzen haben", komme leider erst dann dazu die Tests unter Q3A herauszukramen. RTCW ist im Durchschnitt ~40% Ressourcenfressender (so man das überhaupt in % ausdrücken) kann, das kann ich an meinem Laptop gut festmachen, während Q3A in 1024x768x32bit bei max Details absolut flüssig läuft, wird RTCW schon langsamer, zwar nicht ruckelig, aber man merkt es schon ziemlich gut, daran mache ich jetzt mal die 40% fest :-) (Dinge wie Gegnerzahl, KI, etc. machen ja auch noch eine Menge aus)- Denis Aquanox läuft bei mir in 1920x1200@32bit (die bietet die Q3A Engine ja nicht an) bei max. Details ruckelfrei, allerdings auch hier (natürlich ;-) *stichel*) ohne AA

Fachinformatiker.de, 2024 by SE Internet Services

fidelogo_small.png

Schicke uns eine Nachricht!

Fachinformatiker.de ist die größte IT-Community
rund um Ausbildung, Job, Weiterbildung für IT-Fachkräfte.

Fachinformatiker.de App

Download on the App Store
Get it on Google Play

Kontakt

Hier werben?
Oder sende eine E-Mail an

Social media u. feeds

Jobboard für Fachinformatiker und IT-Fachkräfte

×
×
  • Neu erstellen...