Zum Inhalt springen

Sailor Moon

Mitglieder
  • Gesamte Inhalte

    148
  • Benutzer seit

  • Letzter Besuch

Alle Inhalte von Sailor Moon

  1. Oh großes Sorry, hab grad gesehen, dass Myrddraal das doch völlig korrekt dargelegt hat, hab das Posting doch zu obeflächlich gelesen und mir sprang nur die "2" ins Auge; von daher: Völlig korrekt geschrieben! Gruss Denis
  2. Nein, dass mit den Pixelfehlern ist nicht ganz richtig. Fehlerklasse 2 regelt, entegen der landläufigen Meinung, die Fehler *pro* 1 Million Pixel. Ist also je nach nativer Auflösung verschieden. Pixelfehler sind heute relativ selten geworden, mein erster TFT (mit immerhin 2,3 Millionen Pixeln, entsprechend müssen hier die Werte auch x 2.3 genommen werden) hatte auch zwei Fehler, ist aber aufgrund anderer Fehler wieder zurückgegangen, der jetzige hat gar keinen. Mein Zweit TFT hat einen Subpixelfehler. Sie können mit der Zeit auch noch dazukommen, aber das ist eher selten, wenn dann fällt meistens im ersten Monat noch ein Pixel bzw. Subpixel aus, das schon von Anfang an einen kleinen Schaden hatte. Fehlerklasse 2: ständig leuchtend: 2 ständig schwarz: 2 Subpixel: 5 wie gesagt, pro 1 Million gerechnet. Hab selbst meinen großen TFT per Versand bestellt (war vor Ort auch gar nicht zu bekommen), hier hat man noch den Vorteil des FernAbsG, ausnutzen sollte man das jedoch nicht (da kommt es eben auf den subjektiven Eindruck an, wie es einen stört, bei einem TFT gibt es da ja noch diverse andere Dinge zu beachten). Gruss Denis
  3. Nochmal zum Thema RAID 0: Beim Videoschnitt bringt es eher was, mehrer Einzelplatten einzusetzen, zumindest System-/ Videodaten sollten getrennt liegen. Beste Performance mit Platten an getrennten Kanälen, IDE kann ja leider kein Connect/Disconnect, was aber eigentlich nur bei Kopiervorgängen innerhalb eines Kanals auffällt. Deshalb haben die ausgewachsenen IDE RAID Controller (Promise Supertrak) ja auch getrennte Kanäle für jeweils *eine* Platte und finde ich es immer wieder lustig von IDE RAID 0 mit vier Platten an zwei Kanälen zu hören *g* - wo ein RAID 0 doch gerade vom blockweise, *gleichzeitigem* auslesen von Daten lebt. Wenn in diesem Falle ein RAID 0 unbedingt sein muß, doch lieber zwei Verbünde realisieren: Master-Master und Slave-Slave. Aber in der Realität ist das eh eher ein Hype mit dem RAID 0, schnelle Einzeplatten gibts genug...kein Wunder, die Platter der HD´s werden ja immer dichter gepackt. Man stößt doch eh an die Grenzen der PCI Busses, leider ist ja gerade VIA dort nicht unbedingt bekannt für tolle raw Power ;-) - bei etwa 70 MB/sec wird da schon gekachelt und es gibt eher mehr Probleme und Risiken, gerade beim Videoschnitt. Wenn es dann doch unbedingt sein muß schon eher richtig, also Supertrak oder vergleichbar und einen RAID 5 Verbund , in einem extra Rechner, über Gigabit-Ethernet ans Home LAN angebunden, realisieren. Dann gibts auch Datensicherheit inklusive. Gruss Denis
  4. Videoschnitt und (IDE) RAID sind nicht sonderlich emfehlenswert. Zunächst sollte man sich mal um den notwendigen Datendurchsatz Gedanken machen. Bei alten analogen Karten ging es, wenn es um Beta Qualität ging, bis 7 Mbyte/sec hoch, der heute einzig sinnvolle DV-Standard (man kann über eine freigeschaltete D8 und auch einigen DV Cams auch analoges Material in Echtzeit A/D wandeln, in guter Qualität und nutzt dann noch den guten TBC einer Cam, also viel sinvoller als mit einer analogen Capture Karte), sieht 3,6 Mbyte/sec vor. *Jede* aktuelle IDE Platte hat hierfür genügend Datendurchsatz, zumal die CPU Last erfreulicherweise fast gleich null liegt, der Encodierungsvorgang hat schließlich schon in der Kamera stattgefunden, über Firewire werden die Daten deshalb auch nicht mehr gecaptured, sondern nur überspielt. Ein RAID 0 System sorgt für hohe PCI Buslast und bringt außer im linearen Schnitt keinerlei Geschwindigeitsvorteil. Auch bei einer eventuell später anfallenden Encodierung nach MPEG2 (=>DVD als Zielmedium) ist jede normale Festplatte total unterfordert, hier sitzt der Flaschenhals an einer ganz anderen Stelle, selbst meine Vidac (Hardware MPEG2 Encodier-/ Transcodierlösung) schafft von DV nach Half D1 "gerade einmal" 55 FPS, also zweifache Echtzeit. MPEG2 hat max. 9,8 Mbit/sec (es ginge auch mehr, aber dass ist nicht mehr in der DVD Norm) x 2 wären das also 18 Mbit/sec, das kostet die heutigen Consumer Platten ein müdes lächeln ;-) Gute Soft Encoder (CCE, TMPEG) sind noch um einiges langsamer. Die Probleme die ein RAID 0 beim Videoschnitt/ encodieren mit sich bringt, sind eher höher als irgendein nutzen. Um zur Frage zu kommen: 1 GB RAM können bei umfangreichen Projekten sinvoll sein, gerade Adobe Premiere ist ein speicherfresser. Ein gut konfiguriertes System sollte aber auch mit 512MB flüssiges arbeiten erlauben. Auf Encodierungsvorgänge nach MPEG2 wirken sich 1024MB RAM gar nicht aus, wobei ich gar nicht weiß ob dein Freund das will. In dem Falle würde ich eher zu den Karten der Firma Vidac raten http://www.vidac.de die in einigen Versionen hardwareunterstützes Transcoding bieten, wobei diese Karten wirklich nur sinnvoll sind, wenn man auf DVD ausgeben möchte, bei niedrigen VCD/SVCD Bitraten, liefern sie keine guten Ergebnisse, hier ist ein guter Soft Encoder deutlich überlegen. Wobei solche Lösungen immer sehr ins Eingemachte gehen, da kann es schon sein, dass man seinen Rechner darum herumbauen muß. Hab deshalb einen extra Rechner mit DVB-S, Vidac Movie und DVD Brenner als digitalen Videorekorder abgestellt. Dies wäre auch ein weiterer Tip: Der Videorechner sollte möglichst auch ein reiner Videorechner bleiben, egal ob zum Videoschnitt oder Aufnahme gedacht. Um aber besser helfen zu können, müßte ich wissen: 1. Was wird eingespielt (DV-AVI über DV-Cam?) 2. Mit welchem Programm wird geschnitten? 3. Was ist das Zielformat (wieder DV-AVI, oder encoding nach MPEG2?) 4. Bei welchen Aktionen "fehlt die Power"? => Schau auch mal im http://www.dvd-svcd-forum.de nach, oder im Usenet: de.comp.hardware.tv+video Viele Grüsse Denis
  5. Die Negativmeldungen in den Newsgroups (z.B. de.comp.hardware.brenner) sind ja auch nicht weniger geworden ;-)
  6. Sailor Moon

    Fps

    Hi! Naja, so Schlecht ist ein TFT nicht, hab an meinem Laptop ja auch eins dran. Hat eine typische Reaktionszeit von 50ms, 3D Shooter sind absolut kein Problem, egal ob UT, Serious Sam, Q3A usw (und der GF2 Go ist schon in der Lage hier eine sehr flüssige Beschleunigung zu bieten, so das man Probleme bei der Trägheit des Displays sofort erkennen würde). Richtige Nachteile haben TFT´s bei kontrastarmen Sequenzen, gutes Beispiel wäre Serious Sam unter Wasser... Trotzdem möchte ich meinen guten CRT am Desktop Rechner natürlich nicht missen, keine Frage :-) - Hier geht meine Empfehlung Eindeutig in Richtung Trinitron NF (bzw. Schlitzmasken allgemein, gibt ja auch noch die Diamandtron NF). Denis
  7. Sailor Moon

    Fps

    Das Problem mit dem FPS ist ganz klar, man kann das nicht mit dem Kino (24 FPS) oder TV (25 Vollbilder/sec, beim TV kommt dem ganzen noch zu Gute, das hier ganz bewußt der Nachleuchteffekt genutzt wird, deshalb sieht man beim Vollbild Capturing am PC auch die Interlace Streifen) vergleichen. Wenn menschliche Auge keinen Unterschied mehr zwischen 30 oder 60 FPS sehen würde, würden wir es auch nicht so empfindlich merken, wenn die Refreshrate zu niedrig ist. Die Ansicht, das ~25 FPS reichen, hat sich eingebürgert, ist aber falsch. Ab ca. 50 FPS wird es aber angenehm :-) Zu dem Detonator Problem: Du hast uns leider nicht verraten, welche Treiber du eigentlich meinst. Benutze doch bitte die Universal nVidia Treiber. Bei den zertifizierten Versionen von nVidia sind die Overclocking und sonstige Tweak Einstellungen meist nicht mehr freizugeben, genauso wie bei den Hersteller Treibern. Mit Tools wie nvtweak kannst du aber sehr genaue Einstellungen vornehmen und auf jeden Fall Vsynch deaktivieren. Wichtig bei der Installation eines neuen Treibers. Erst den Standard VGA Treiber installieren, dann möglichst die Reste des alten Treibers aus der Registry entfernen, dafür gibts auch entsprechende Tools, und dann den gewünschten Detonator installieren. Nimm am besten mal den 22.80er, aber bitte von nVidia und keinen Hersteller Murks :-) Denis
  8. Sailor Moon

    Fps

    Nimm die Standard Detonator Treiber von nVidia, ich fahre hier sehr gut mit dem 22.80er, da mußt du einfach mal schauen, was für dich am besten ist, der 23.11er ist auch noch in Ordnung. Mit den Coolbits, bzw. einem entsprechendem Tweak Programm kannst du dann die Tweak Optionen freischalten, damit du Vsynch sowohl unter D3D und OpenGl deaktivieren kannst. Außerdem ist dann das Übertakten recht einfach :-) Wichtig: Die VIA Treiber (4in1) sollten unbedingt installiert sein, hier kommt es vor allem auf den AGP Treiber an, den Busmaster Treiber mußt du nicht unbedingt nehmen, der Microsoft eigene ist schon ganz gut. Folgende Installationsreihenfolge hat sich bewährt: Betriebssystem VIA Treiber DirectX 8.1 Detonator Treiber Zu den Frameraten: Auch eine GF3 garantiert nicht immer extrem hohe FPS. In 1600x1200@32bit und vollen Details oder noch höheren Auflösungen wird auch hier die Luft, aufgrund von Bandbreitenengpäßen beim Grafikspeicher dünner...auch nVidias kommendes GF4 Spitzenmodell mit 700 Mhz Speicher wird, wenn auch weniger :-), hier seinen "Flaschenhals" haben. Besserung versprechen Techniken wie HSR, QDR und 256bit Speicher. Um an höhere Refreshraten zu kommen, wäre es für uns wichtig, wenn du uns deinen Monitor nennst, bzw. wie du ihn angeschlossen hast. Wenn er per BNC Kabel angeschlossen ist, gibt es nämlich kein DDC Signal und dementsprechend auch keine korrekte Erkennung des Monitors, hier sollte man vom Hersteller den enstprechenden Treiber installieren oder den von einem anderen Monitor, der dem Eigenen ähnlich ist (=> bezüglich auf die Horizontalfrequenz). Prinzipiell kann man eigentlich immer den Treiber vom Hersteller nehmen, auch wenn man den Monitor per D-Sub anschließt. Denis
  9. Hi! Noch ein Nachtrag ;-) zum Thema Geschwindigkeit der CPU: Ich habe den Eindruck das die Wirkung einer schnelleren CPU etwas überschätzt wird. Zumindest bei Spielen :-) ist es so, das in hohen Aufösungen die Grafikkarte bzw. der Speicher, der auf dieser verbaut ist, limitiert, auch die 10 GB/sec einer GF4 mit 700 Mhz 128bit Speicher (so sie denn in dieser Version erscheint) ändern daran nichts. In 1600x1200@32bit ist es ziemlich egal, ob ein Athlon 800 oder XP2000+ im Rechner steckt. Bei Anwendungen ist das natürlich etwas anders gelagert, aber darüber habe ich mich ja schon ausgelassen ;-)
  10. Hi! Ich weiß, aber nicht korrekte Aussagen sollten doch korrigiert werden? => Und das mit dem Cache und der Abwärme war ja auf jeden Fall nicht korrekt. Denis
  11. Hi! Eigentlich wollte ich zu dem Thema nix posten, aber nachdem ich mir so einige Postings durchgelesen habe, juckt es mir ganz gewaltig in den Fingern :-) : Gut das einer der Poster seine Vermutungen nummeriert hat, dann kann ich das zur Verdeutlichung auch benutzen, bezieht sich jetzt also alles mehr oder weniger also auf das Posting von DocNeo: 1. Ich weiß das THG Video hat viel Eindruck gemacht, doch sollte man das ganze mit etwas Abstand betrachten, dann wirds meist doch besser :-) => Klar, kann sich der P4 dynamisch runtertakten, was aber im Betrieb sehr oft dazu führt, das er langsamer läuft als er sollte, da die Temp. Grenze für die Regelung sehr niedrig gewählt ist. Jede Medaille hat zwei Seiten, das sollte man sicherlich nicht vergessen. Im übrigen hat der P4 eine höhere Verlustleistung als ein T-Bird oder XP, bitte nicht vergessen, der Northwood in 0,13µm ändert daran nichts großartiges, ich kann die Wärmeabgabe in Watt gerne posten! 2. Die Stabilität hat nichts mit der CPU (ob Intel Pentium 4 oder AMD Athlon (XP))zu tun, das liegt zu 90% an den verwendeten Komponenten und Board. Pauschalisierungen sind da grundsätzlich falsch, da muß man der Wahrheit ins Auge blicken. Bei mir läuft sowohl mein vollgepackter AMD Rechner, als auch mein Intel Notebook problemlos 3. Bis die Software erstmal optimiert ist vergeht Zeit, auch AMD baut 64bit Prozessoren; Kennst du den "Hammer"?, wenn nicht, weißt du es jetzt :-)...ich verstehe auch nicht ganz was du damit sagen willst... ohne AMD keine Konkurrenz und dann wird auch dein Intel Prozessor wieder teuerer... 4. Da sag ich jetzt nix zu (spielst du auf ISSE an, muß ich dich enttäuschen, den Befehlssatz gibts seit dem Palomino Core auch für AMD´s - ISSE2 zwar nicht, wäre aber toll wenn du mir darauf optimierte Software (ISSE 2!) nennen könntest; ISSE1 lohnt sich schon kaum, für die zwei Filter in Photoshop brauch ich es nicht, und wenn ich das ernsthaft betreiben würde, würde ich das eh mit dem Mac machen), könnte jetzt auch als alter DTP Hase :-) sagen, vernüftige Software läuft sowieso nur auf einem Mac, zumindest im grafischen Gewerbe. 5. Wie gesagt hab ein Notebook mit Intel Mobile CPU, da sind sie ja auch ganz gut, wobei es ja auch das geniale Beispiel vom P4 Notebook gibt :-) - Verlustleistung ohne Ende durch Einsatz eines Desktop Prozessors, stufenloses Speed Step beherrschen Intel CPU´s übrigens nicht. 6. ????? P3 heißt für mich Coppermine, also 32 KB First und 256 KB SecondLevel Cache... was ist denn da mehr?? Zum Vergleich: AMD Athlon XP: 128 KB First und 256 KB SecondLevel Cache und ein intelligenteres Prozessordesign. Der P4 hat noch weniger: Willamette: 8KB First, 256 KB SL Cache; Northwood: 8KB First, 512 KB SL Cache => das rettet ihn aber performancemäßg überhaupt nicht, der P4 hat eine wesentlich niedrigere Pro MHz Leistung als ein P3! Einzig der P3 Tualatin bietet ein gutes Pro MHz Verhältnis und liefert die Leistung eines entsprechenden AMD Prozessors, d.h. bringt in seiner derzeitigen Top Variante als 1,4 GHz Serverversion (32 KB FL, 512 KB SL Cache) den P4 2 Ghz mächtig unter Druck - was glaubst du warum Intel den künstlich so hochpreisig hält, peinlich wenn das Flaggschiff von der P3 Architektur mit weniger MHz geschlagen wird und dann auch noch günstiger wäre. Bitte liste mir weitere Punkte auf :-) => Das geht jetzt nicht persönlich gegen dich, aber deine Punkte klingen so wie "aus dem Bauch heraus" gesagt. Irgendwie doch zu schwammig und bezogen auf die Ausbaustufen des Caches auf jeden Fall falsch, hoffe durch meine Auflistung da etwas Klahrheit hineingebracht zu haben. Subjektive Sachen bringen uns doch da nicht weiter, wichtig ist was hinten rauskommt, und da liegt AMD eindeutig besser. Der Architektur der P4 bringt nur eins, MHz, um die MM Käufer zu beeindrucken. Dies alles gilt wohlgemerkt für den P4 mit Rambus Speicher, denn mit SDRAM verpufft ja das ganze Konzept der QDR Technik da Speicherseitig nicht genügend Bandbreite zur Verfügung steht, selbst wenn man den SDRAM asynchron mit 133 Mhz taktet, und die Leistung wird noch um ein vielfaches schlechter. QDR ist natürlich eine schöne Sache um Speicherbandbreite zu gewinnen, das werden auch die Grafikkartenherstellen wohl auch einsetzen, oder sie bauen auf 256bit Speicher - aber dieses Konzept alleine macht den P4 eben nicht schnell. Daneben sind Thunderbirds und XP´s noch Dual fähig und verhalten sich im Dual Betrieb wesentlich besser als ein P3 Dual System, vom erzielten Performancegewinn aus gesehen (bei SMP Anwendungen gewinnt man mit dem P3 bzw. P3/4 Xeon ~60% im Dual Betrieb mit zwei AMD´s erreicht man nahezu die doppelte Performance eines Single Prozessors, bei SMP Anwendungen wohlgemerkt). Wenn jetzt jemand mit Videobearbeitung kontert, da Intel hier ja bei bestimmten Anwendungen relativ fix ist...unter vernünftigen Komprimierungsprogrammen wie TMPEG oder im Media Studio und unter Premiere hat Intel keinen großen Vorteil, vor allem da AMD ja auch endlich Dual Support bietet, und für MPEG2 Encoding rate ich sowieso zu einer Hardware Encoding Karte wie der VMagicMovie von http://www.vidac.de => die Echzeitumwandlung bekommt kein derzeitiger Prozessor hin. q.e.d. Denis
  12. Ich selbst hab einen Server Tower von EYE, heute heißt das vergleichbare Modell EYE-2020. Hat 10 (!) 5 1/4 Zoll Einschübe :-) Allerdings keine Festplattenkäfige. Platz für Lüfter und Komponenten ohne Ende, allerdings sehr schwer :-) Denis
  13. Nochmal zu den BNC Anschlüssen: Bei großer Diagonale und hohen Auflösungen auf alle Fälle zu empfehlen, heute muß man auch nicht mehr so vorsichtig sein wie früher, wo einem bei falschem Aufstecken der beiden Synchronisationssignale der Monitor kaputt gehen konnte. Ab 1600x1200 würde ich keinesfalls mehr ohne BNC Kabel arbeiten wollen. Denis
  14. Hi! Nein, PIO schließt DMA nicht aus, das wird oft verwechselt, es gibt verschiedene PIO (bis max. 16,6 MB/sec) und UDMA Modi (bis max. 133 MB/sec), beide können mit DMA Zugriff laufen! Du kannst im PIO Modus ohne Probleme den DMA Modus aktivieren (im Gerätemanager checken). Bis vor nicht allzu langer Zeit unterstützten viele Brenner gar keinen UDMA Modus, sondern liefen generell im PIO Modus, zum Beispiel war beim 16x Plextor der UDMA 33 Modus gar nicht offiziell freigegeben (nur über undokumentierten Jumper), UDMA kannst du auch noch aktivieren, dazu darf der Jumper nicht gesteckt sein und unter W2K brauchst du mind. das erste SP. Zu den Brennproblemen: Ob 24x auf den Rohlíngen draufsteht ist relativ egal, mir ist bislang noch kein Rohling untergekommen, der im ATIP die Geschwindigkeit eingetragen hatte. Also als erstes mal überprüfen ob DMA aktiviert ist, würd ihn auchmal alleine an einen IDE Port stecken, oder mal an einen PCI UDMA Controller (aber keinen RAID Controller, die mögen keine ATAPI Geräte), dann hast du keine Probleme mit den Busmaster Treibern. Wenn du ihn am onboard Controller hast, reichen in der Regel die MS Busmaster Treiber, die VIA Busmaster mußt du nicht unbedingt nehmen. Bringt mich grundsätzlich auf den Hinweis, das man gute Rohlinge benutzen sollte :-) . Hab mal einen Testkauf von verschiedenen Herstellern bzw. eher Vetreibern gemacht: Gut sind in jedem Fall: - TDK 24x (die sind von Taiyo Yuden, bei den 16x sind es leider Noname :-( ) - Philips Silverspeed 24x (Mitsui, auch hier sind die 16x wieder Mist) - Maxell CD-R 80XL (Taiyo Yuden) - Sony 16x (Taiyo Yuden), - Verbatim Data Life Plus (Plus ist wichtig!!, wobei auch diese wohl schlechter geworden sind, glaubt man den einschlägigen Newsgroups, der Plex regelt sich auf jeden Fall öfter auf 16x runter, auch wenn das sicher kein alleiniges Kriterium ist), - Mitsui (die vertreiben auch selbst, am besten ist hier der legendäre Mitsui Gold Ultra, der Stückpreis von 1.59 EUR (für den 74min) ist aber nicht ganz ohne :-) ) Abzuraten ist von: Intenso, BestMedia, Platinum, Aldi Rohlingen usw usw, diese Hersteller labeln Billigmarken, man weiß nie was man bekommt, es können in einem Zehnerpack verschiedene Hersteller vertreten sein (deshalb sind die ganzen Tests in der CT, Chip usw auch völlig sinnlos), wichtig sei hier noch: Eine problemlos gebrannte CD ist kein Hinweis auf einen guten Rohling :-) , hab knapp zwei Jahre alte Platinums, hier häufen sich schon die C2 Fehler, habe sie grad noch retten können, außerdem haben die Billigrohlinge oft direkt nach dem Brennen schon einige C2 Fehler, die oftmals zu sogenannten Spin Downs führen. Weiß zwar selber nicht so ganz wie ich jetzt auf Rohlinge gekommen bin, irgendwie paßt es aber, und ich wollte meine Testergebnisse doch mal loswerden (wozu hab ich die ganzen Rohlinge sonst gekauft :-) ?). Generell sind Taiyo Yuden (die werden von verschiedenen Marken gelabelt), Mitsui (die werden gelabelt und vertreiben aber auch selbst) und Mitsubishi Chemicals zu empfehlen. Denis P.S. Das mit der niedrigen Geschwindigkeit ist so eine Sache, bei den schnellen Brennern ist der Laser entsprechend "stark", bei niedrigen Geschwindigkeiten kann man sich da ganz schnell einige C2 Fehler einhandeln, mit 1x oder 2x sollte man deshalb mit den schnellen Brennern nicht brennen!
  15. Hm, da steht dann Meinung gegen Meinung, ich hoffe das heute abend untermauern zu können :-)' Gehäuse ist bei mir ein Servertower mit nicht weniger als 11 Lüftern, die beiden Lüfter für die zwei HD 5 1/4 Zoll Rahmen eingerechnet (Grafikkarte hat zusätzlich Rückseitenkühlung). Gehäuse Temperatur liegt nicht höher als die Zimmertemperatur :-) - doch im MOment etwas höher: 26 Grad ;-). Die Temp ist auch nicht entscheidend, eine Karte würde erst bei extremer Übertaktung wieder langsamer werden (wobei normalerweise bis dahin Pixelfehler auftreten würden). Aber der durch das Übertakten zu gewinnende Geschwidigkeitsunterschied macht auf gar keinen Fall den Unterschied zwischen "ruckelt ziemlich stark" und "ist ruckelfrei" aus. Die Steigerung der Bandbreite ist nicht so hoch, 700 MHz Speicher würde wie gesagt 10,4 GB/sec bringen, eine GF3 -standard- bietet 7,8 GB/sec. Bis heute abend kann ich erstmal nur damit belassen, festzustellen, das wir beide unterschiedliche "Ruckelempfindungsgrenzen haben", komme leider erst dann dazu die Tests unter Q3A herauszukramen. RTCW ist im Durchschnitt ~40% Ressourcenfressender (so man das überhaupt in % ausdrücken) kann, das kann ich an meinem Laptop gut festmachen, während Q3A in 1024x768x32bit bei max Details absolut flüssig läuft, wird RTCW schon langsamer, zwar nicht ruckelig, aber man merkt es schon ziemlich gut, daran mache ich jetzt mal die 40% fest :-) (Dinge wie Gegnerzahl, KI, etc. machen ja auch noch eine Menge aus)- Denis Aquanox läuft bei mir in 1920x1200@32bit (die bietet die Q3A Engine ja nicht an) bei max. Details ruckelfrei, allerdings auch hier (natürlich ;-) *stichel*) ohne AA
  16. Hi! Meine GF3 läuft wegen des großen 16:10 Screens auch am "Anschlag", also übertaktet, mehr als 220/510 sind leider nicht drin, ist aber nicht so schlimm.. CPU ist ein T-Bird 1200, ist aber völlig unwichtig, mit einem 800er würds in der Auflösung nicht langsamer laufen, 1600x1200x32bit sind, auch bei einer "alten" Engine wie Q3A immer Grafikkartenlimitiert (und hier bei modernen Grafikkarten insbesondere der Speicher). Ich hab es weiter getestet und es läuft für mich an keiner Stelle zufriedenstellend, was allerdings normal ist. Wolfenstein holt aus der Q3A Engine wesentlich mehr Polygone heraus aus Q3A selbst und selbst hier kommen GF3 Karten mit 4X AA und 1600x1200x32 an ihre Grenzen. Schau mal im Netz nach entsprechenden Tests, ich werd heute abend mal einen passenden heraussuchen. Es kann ja nicht sein, das die GF3 unter RTCW schneller läuft als unter Q3A :-) Tests kann ich wie gesagt leider erst heute Nacht liefern... Denis
  17. Hi! Das mit dem UDMA könnte in die richtige Richtung weisen, allerdings belasten Drives die im PIO Mode laufen, den Prozessor nicht zwangsweise so stark. Denn DMA Zugriff geht auch ohne UDMA Mode. Würde aber auf jeden Fall mal schauen, ob zumindest der DMA Zugriff aktiviert ist (wenn du die Platten nicht an einem "externen" Controller hängen hast, geht das in der Systemsteuerung. Denis
  18. Ja, in einen entsprechenden Beutel rein, abwarten, rausnehmen und dann den Kühler runterhebeln, anders kanns sehr schwierig werden. Hört sich komisch an, hat sich aber als wirksam erwiesen. Damit du dich nicht nur auf mich verlassen mußt (kannst du aber ;-) ), such doch mal im Web nach dem "einfrieren". Das ist allgemein als probates Mittel anerkannt. Denis
  19. Ohne jetzt hier auf die Euphorie Bremse zu treten, das du RTCW bei vollen Details (Textur, Trinlinar Filtering etc.) und 1600x1200@32bir ruckelfrei in allen Level zocken kannst, kann ich nicht verifizieren. Hab selbst eine GF3 und einen großen Monitor, 1600x1200 oder 1920x1200 gehen in 32bit und vollen Details auch in aktuellen Spielen, aber mit 4x AA wird es einigermaßen schwammig, da braucht man gar keine GF3 um das nachzuvollziehen, da reicht ein einfacher Blick auf die Bandbreite. 7.36GB/Sekunde => das ist da doch etwas zu wenig. Die GF4 wird zwar nicht schlecht, 10.5GByte/Sek, wenn es denn eine Version mit 700 Mhz Speicher geben wird. Aber auch hier wird es sehr schnell wieder knapp werden. Auf längere Sicht muss nVidia dringend HSR in Verbindung mit QDR oder 256bit RAM Interface einsetzen. Nachtrag: RTCW 1600x1200x32bit, max Details, 4x AA: Es ruckelt, hab jetzt nur mal den Waldlevel gestartet, aber das reicht mit ;-) Das System ist im übrigen optimal konfguriert und die Q3 Engine ja eine Domäne der GF Reihe. Also entweder ist bei dir AA nicht wirklich aktiviert (ohne gehts ja vorzüglich), oder wir haben doch sehr verschiedene Ansichten von ruckelfrei ;-) - aber ich habs ja schon durch die Banbreite ersichtlich gemacht, das reicht einfach nicht... Denis
  20. Also der Plextor ist wirklich zu empfehlen, was einigen nicht gefällt, ist das Burn Proof bei 24x zwangsläufig zweimal anspringt, beim Wechsel und 16x auf 20x und von 20x auf 24x. Eine 700 MB CD ist inkl. Lead in und Lead out (das nicht beliebig verkürzt werden kann, deshalb und da die >16x Brenner die CD nicht durchgängig mit dem hohen Speed brennen, wird der Geschwindigkeitsvorteil auch immer geringer, die neuen 32x Brenner brauchen 3 1/2 Minuten für eine CD) ist in ~ 4 Minuten gebrannt und, sofern man vernünftige Rohlinge nimmt, natürlich frei von C2 Fehlern, so schlimm ist das mit dem Einsetzen des Burn Proof also nicht :-) - Wer es verneiden will, kann ja mit 16x brennen. (Negativ in Sachen C2 Fehlern sind übrigens die normalen Verbatims, ohne "Plus", die kann ich überhaupt nicht emfehlen - das mit den Rohlingen ist aber ein anderes Thema, darüber möchte ich mich jetzt hier nichts auslassen ;-) - nur soviel: Taiyo Yuden und Mitsui sind auf jeden Fall eine Empfehlung Wert, wobei beide von verschiedenen Firmen gelabelt werden, Mitsui verkauft aber auch selbst). Ist wie hier schon gesagt wurde, natürlich voll CCD kompatibel und extrem stabil (auch um einiges schwerer als die üblichen CD Brenner, zu vergleichen mit meinem alten CDR400t, der schon vor einer Weile das zeitliche gesegnet hat) - und mit Lüfter :-) UDMA Modus wird jetzt auch endlich offiziell unterstützt, und zu den jetzigen Preisen erst Recht eine Empfehlung Wert. Denis
  21. Entweder jetzt schon versuchen abzuhebeln, oder verpacken und für ein paar Stunden in das Gefrierfach, danach gehts ziemlich leicht ab. Denis
  22. Hi! Diese Definition von Stepping trifft in diesem Fall nicht zu. Die Stepping-Version ist eine Angabe der Produktions- Revision; Prozessoren mit unterschiedlichen Steppings können Probleme im Multiprozessorbetrieb verursachen => Müssen aber nicht! Das Stepping hat allerlei Einfluß z.B. auf die Übertaktbarkeit von CPU´s, so haben sich z.B. Thunderbirds mit dem AXIA und AYHJA Stepping als besonders übertaktungsfreundlich erwiesen. Bei den GF3 GPU´s war zum Beispiel das A03 Stepping auf den alleresten Karten und Vorserienmodellen zu finden, wobei es noch einige Fehler hatte. Danach folgte das A05 Stepping. Teilweise unterscheidet sich auch die benötigte Spannung und die Verlustleistung von Stepping zu Stepping, wie zum Beispiel beim guten alten Pentium II. Denis
  23. Hi! Bestimmte Slots teilen sich aber zwangsweise einen IRQ, d.h. änderst du den IRQ für den einen Slot, ändert sich der andere auch. Dies kann man den Int Tabelle (erster Wert ist immer entscheidend) entnehmen. Der AGP Slot und der erste PCI Slot teilen sich eigentlich immer einen IRQ und sollten auf keinen Fall gleichzeitig genutzt werden, da Grafikkarten -im Gegensatz zu den meisten anderen Karten- sehr empfindlich gegenüber dem IRQ Sharing sind. Der zweite PCI Slot ist im übrigen meist der einzige, der einen exklusiven IRQ hat. Das mit W2K ist richtig, allerdings ist das eher eine "interne Verwaltung" und die Folgen sind nicht ganz so schlimm als wenn zwei Geräte schon von ihrer Anordnung her denselben IRQ haben. Denis
  24. Hi! Zur Erheiterung, hier mal ein Posting aus de.comp.hardware.laufwerke.festplatten welches die Problematik mit IBM ziemlich deutlich macht: --------------------------------------- > auch sein das IBM einfach nur einen neuen Aufkleber drauf geklebt hat. Es scheint so, daß IBM bei den eingesandten defekten HDDs ein LowLevel-Format macht, um die defekten Sektoren vorübergehend zu verstecken und dann die angeschlagenen HDDs wieder ausliefert. Der DTLA kannst Du nicht mehr trauen, das ist richtig. Meine DTLA-Lebensdauern waren: 1) Original-Platte: 6 Monate 2) Austausch-Platte: 24 Stunden 3) Austausch-Platte: 3 Monate 4) Austausch-Platte: ..habe ich gar nicht mehr angeschlossen. ..wobei mein Ex-Händler Birg mir immer wieder billige OEM-DTLAs statt normaler mit 3 Jahren IBM-Garantie gesandt hat, sodaß ich die nicht bei IBM direkt umtauschen konnte. Als mir Birg nach den o.a. Platten noch eine vierte OEM-DTLA geschickt hat, habe ich denen ein heftiges Gefecht geliefert, das mir wirklich viel Zeit und Aufwand beschert hat, aber schließlich hab ich Birg klein- gekriegt und jetzt wirds interessant (festhalten..) Im folgenden Satz (aus der Antwort-Email des Händlers Birg) ist von der noch originalverpackten OEM-DTLA die Rede, die ich als Austausch erhalten habe: > Die Oem Platte was jetzt bei Ihnen ist, sie können entsorgen, und ich > bitte Sie geben Sie mir Ihre Kundennummer damit ich Ihnen die > Austauschplatte noch heute wegschicken kann. ENTSORGEN!!!! Es war dem Händler also nicht einmal den Auf- wand wert, die OEM-DTLA abzuholen, sondern ich soll sie statt- dessen entsorgen. (als Austausch habe ich eine Maxtor 6L040J2 erhalten) ------------------------------------------- Nicht schlecht *g* Denis
  25. Hi! Dieses Zusatztool wäre ein entsprechener Scart Adapter mit Chinch und S-Video Anschlüssen. Einfach mal im Fachgeschäft fragen und darauf hinweisen, das das S-Video Signal in jedem Fall gewandelt werden muß, so das du mit einem nicht S-Video tauglichen Gerät das ganze in Farbe sehen kannst. Denis

Fachinformatiker.de, 2024 by SE Internet Services

fidelogo_small.png

Schicke uns eine Nachricht!

Fachinformatiker.de ist die größte IT-Community
rund um Ausbildung, Job, Weiterbildung für IT-Fachkräfte.

Fachinformatiker.de App

Download on the App Store
Get it on Google Play

Kontakt

Hier werben?
Oder sende eine E-Mail an

Social media u. feeds

Jobboard für Fachinformatiker und IT-Fachkräfte

×
×
  • Neu erstellen...