-
Gesamte Inhalte
4102 -
Benutzer seit
-
Letzter Besuch
-
Tagessiege
9
Inhaltstyp
Profile
Forum
Downloads
Kalender
Blogs
Shop
Alle Inhalte von Eye-Q
-
XP kann man, wenn man lustig ist, auch auf Z: installieren, das macht dem gar nix aus. Es ist allerdings so dass das XP-Setup eine vorhandene Vista-Installation nicht erkennt, das Vista-Setup aber die vorhandene XP-Installation, und zwar normalerweise unabhängig vom Laufwerksbuchstaben. Woher hast Du die Erkenntnis? Wenn man zuerst XP und dann Vista installiert (oder ein installiertes XP hat und einfach nur Vista zusätzlich installiert) sollte Vista die XP-Installation erkennen und in die Startauswahl einbinden. Danach laufen beide Betriebssysteme unabhängig voneinander. Man sollte nur nicht einen gemeinsamen Programm- und Dokumente und Einstellungen-Ordner haben, sonst schreiben sich die Betriebssysteme eventuell gegenseitig Zeug in die Ordner was das andere Betriebssystem nicht mag.
-
Die boot.ini wird von Vista nicht mehr benutzt, jetzt geht das nur mit dem Tool bcdedit. Normalerweise hätte Vista die XP-Installation erkennen und in sein eigenes Bootmenü integrieren müssen, da ist anscheinend etwas schiefgelaufen. Eine entsprechende FAQ zu bcdedit gibt es bei Microsoft.
-
Deswegen verkaufen sich Netzteile mit mehr als 500 Watt auch so gut...
-
Um ein 600-W-Netzteil auszulasten bräuchtest Du schon ein SLI-Grafiksystem... Festplatten ziehen um die 10 Watt unter Last (d.h. maximal 60 Watt für die sechs Platten), die Lüfter laufen eigentlich unter ferner liefen (7 Lüfter ziehen vielleicht wenn's hochkommt 20 Watt), der Prozessor zieht um die 60 Watt unter Volllast, 1 GB RAM vielleicht 10 Watt, dann das Mainboard mit wenn's hochkommt 30 Watt. Der Kleinkram drumherum ist auch vernachlässigbar. Mit den aufgezählten Komponenten bist Du also bei ca. 180 Watt, hast also bis Du dein 600-W-Netzteil ausgelastet hast noch einiges frei, selbst wenn Du eine High-End-Grafikkarte vom Schlage einer GF 8800 GTX haben solltest, die unter Volllast um die 130 Watt zieht, allerdings ist es meistens so dass wenn eine Komponente unter Volllast steht die anderen Komponenten nicht so eine hohe Belastung haben.
-
Nein, bei den Daten sollte es keine Probleme geben, wie denn auch? Die unter XP installierten Programme wirst Du ohne separate Installation unter Vista schlecht zum Rennen bringen (außer das Programm gräbt sich nicht in die Registry ein, Winamp läuft zum Beispiel auch so ohne Installation, wenn man den Installationsordner mit allen dazugehörigen Dateien hat).
-
Es kommt nicht auf die Größe des Speichers an sondern auch bzw. vor allen Dingen auf den Grafikchip, und der ist nun mal nicht der Schnellste. Die 512 MB werden nie und nimmer ausgenutzt, weil der Grafikchip einfach zu langsam ist um die Texturen und Codeschnipsel die in 512 MB reinpassen zu verarbeiten. Wenn das wirklich eine "X1650 Series" und nicht explizit eine X1650 Pro oder X1650 XT ist, dann kann es sogar sein dass das nur eine umbenannte X1300 ist, die nur für Office-Aufgaben und ältere Spiele zu gebrauchen ist. Die Source-Engine und die aktuelleren Call of Duty-Teile sind für diesen Grafikchip eine zu hohe Hürde. Das ist genau das womit die Komplett-PC-Verkäufer ihre Marge machen: eine aktuelle CPU, viel RAM für das psychologische Moment "der Rechner muss gut sein", es wird aber an der Grafikkarte gespart, weil da jemand, der sich nicht eingehender damit beschäftigt, davon keine Ahnung hat welche Grafikkarte bzw. welcher Chip schnell ist und welcher nicht.
-
Was heißt "alles ruckelt"? Was willst Du denn spielen? Wenn es z.B. Medal of Honor Airborne ist dann ist es klar dass es ruckelt, da die X1650 nicht wirklich die Wurst vom Teller reißt, da wird eine Karte ab X1950 Pro aufwärts benötigt um wirklich spielbare Frameraten zu erzielen. Wenn das ein Komplettsystem war, dann ist das meistens so: gute CPU und viel RAM, aber eine mickrige Grafikkarte - so macht Spielen natürlich keinen Spaß, hält aber den Preis niedrig.
-
Der PCI-Bus kann maximal 133 MB/s übertragen. Der PCI-Bus ist eindeutig der Flaschenhals, da die Spitzenübertragungsrate bei einem RAID 0 noch höher ist als bei einer einzelnen Platte, wo ja teilweise bzw. bei den aktuellen Platten eigentlich immer eine einzelne Platte im Burst-Modus schon über die 133 MB/s kommt. Die Dauerübertragungsrate wird aber bei drei Platten im RAID 0 ungefähr die 170 MB/s (maximal) haben, allerdings kommt das natürlich auf die Fragmentierung und die gleichzeitigen Zugriffe an. Bei mehreren gleichzeitigen Zugriffen wird die Gesamtübertragungsrate niedriger sein, da die Daten auf die zugegriffen wird ja nicht direkt beieinander liegen müssen. Mit einem Onboard-Controller, der nicht am PCI- oder PCIe-Bus angebunden sondern im Chipsatz integriert ist sind Dauerübertragungsraten von 200 MB/s möglich, evtl. auch mehr, wobei dann die CPU natürlich mit belastet wird.
-
Bei unseren Distributoren gibt's die ab Lager, laut geizhals bei einigen Onlineshops auch.
-
Diese Taktfrequenzen sind die physikalischen Taktfrequenzen. Die logischen oder effektiven Taktfrequenzen sind doppelt so hoch, da die Daten zwei mal pro Takt (mit der steigenden und mit der fallenden Flanke des Signals) übertragen werden. Somit ist RAM, der auf 200 MHz physikalisch läuft, DDR400- bzw. PC3200-RAM. Diese Abstufungen können nur damit erklärt werden dass die physikalischen Taktfrequenzen genommen werden, da mir kein DDR-RAM für Desktop-Boards bekannt ist der mit 50 MHz physikalisch (100 MHz effektiv) läuft.
-
Wie sieht es aus wenn der TFT an einem anderen Rechner bzw. ein anderer Monitor am betreffenden Rechner hängt? Je nachdem wo es dann flimmert ist die Ursache zu suchen.
-
Grundsätzlich sollte DDR-RAM in diesem Fall abwärtskompatibel sein, Ausnahmen kann es aber natürlich immer geben. Zu 95% wird ein DDR400-Riegel auch mit 200 MHz (100 MHz DDR) laufen.
-
Vom Prinzip her ist ein RAID 0 mit zwei IDE-Platten schneller, aber nicht wenn dieses RAID am PCI-Bus hängt, da dieser die maximale Übertragungsrate auf 133 MB/s Halb-Duplex begrenzt. Auch wenn dann die Dauerübertragungsrate besser sein sollte - allgemein wird das System nicht schneller als mit einer SATA-Platte sein, außerdem wie schon gesagt das Risiko wenn eine Platte ausfällt dass dann alle Daten weg sind.
-
Es gibt zwei Möglichkeiten: entweder das Display klinkt sich in die Eigenschaften der Anzeige mit ein oder Du benötigst ein separates Programm um das anzusteuern. Da Du nicht sagen kannst um was für ein Display es sich handelt können wir natürlich auch nicht sagen wie das bei deinem Display gelöst ist.
-
Was ist das denn für ein Rechner (Mainboard)? Sind alle Treiber (vor allen Dingen die Chipsatztreiber) installiert?
-
Was ich auch noch herausgefunden habe: die Version die in der Konfigurationsdatei angegeben wird muss auch als Source im Netzwerk liegen, also man kann nicht in der Konfigurationsdatei angeben dass man einen Windows Server 2003 aufsetzen will, wenn man nur Dateien von der Windows Server 2003 R2-CD hat (auch wenn die erste CD der R2 eigentlich nix anderes sein sollte als die vom ursprünglichen Server 2003).
-
Vielleicht ist der SATA-Anschluss deaktiviert (also auf "none" gestellt), dann wird die Platte natürlich nicht erkannt. Es kann auch sein dass der SATA-Controller selbst deaktiviert ist, somit kann auch eine daran angeschlossene Platte nicht erkannt werden. Schau' mal im Handbuch in welchem Menü der Controller aktiviert werden kann und überprüfe ob der aktiviert ist.
-
Wie sieht die restliche Hardware aus (auch wenn Du es im Moment nicht weißt - bitte erkundigen, sonst stochern wir im Nebel)? Ich weiß zum Beispiel dass viele Mainboardhersteller sagen dass ein Athlon 64-System mit drei Riegeln nicht startet, nur mit einem, zwei oder vier.
-
Ich würde mich nicht auf Angaben in Shops verlassen sondern auf die Herstellerseite. MSI hat Kompatibilitätslisten für ihre Mainboards auf ihrer Website, da steht auch ob man evtl. ein BIOS-Update benötigt (auf einem Mainboard was Du jetzt kaufst muss nicht zwangsweise das aktuellste BIOS sein). Wenn ja dann musst Du u.U. mit einem kompatiblen Prozessor starten, das BIOS flashen und dann erst den E2140 reinsetzen.
-
Bei Microsoft Office-Dokumenten ist die Einstellung im Dokument hinterlegt woher das Papier genommen werden soll und welche Größe es hat. Deswegen muss in jedem Dokument in der Seiteneinrichtung (Datei -> Seite einrichten) eingestellt werden aus welchem Schacht das Papier gezogen werden soll.
-
Schau' mal auf den nächsten Karteikartenreiter ("Systemleistung"), da wirst Du sehen dass die CPU eigentlich 0% Auslastung hat. Der Leerlaufprozess ist wie DevilDawn schon geschrieben hat ein "Pseudo-Prozess", der die CPU-Zeit nimmt die nicht genutzt ist. Infos über den Leerlaufprozess gibt es u.a. in der wikipedia.
-
Da hast Du etwas durcheinanderbekommen... Der Pentium 4 M ist - wie der Name schon sagt - ein Ableger vom Pentium 4, der hat mit Core Duo oder Core 2 Duo eigentlich ziemlich gar nix zu tun, der basiert nämlich auf der Netburst-Architektur des P4 und war deswegen nur bedingt für wirklich mobile Geräte geeignet. Es gibt den Pentium M, der basiert auf stark optimierter PIII-Architektur und war der erste "echte" Mobilprozessor und nicht nur ein Derivat von Desktop-CPUs (wie z.B. der PIII-M oder der P4M). Diesen gab es nur als Singlecore-Prozessor. Dann kam der Core Duo, der wiederum der Nachfolger des Pentium M war und die "Core"-Architektur und Dualcore eingeführt hat. Von diesem gab es dann auch eine Singlecore-Version "Core Solo", wo einfach einer der beiden Kerne des Core Duo abgeschaltet wurde (somit konnten auch teildefekte Core Duo verbaut werden und mussten nicht weggeschmissen werden). Der Nachfolger des Core Duo ist wiederum der Core 2 Duo, bei dem die "Core"-Architektur weiter verbessert wurde und der jetzt auch in Desktops eingesetzt wird. Allgemein ist zu sagen dass Core Duo-CPUs in neuen Notebooks so gut wie gar nicht mehr angeboten werden, wenn dann sind das Core 2 Duo oder Celerons, der Core 2 Duo ist natürlich die erste Wahl wenn es um Mobilprozessoren von Intel geht.
-
Die Speicherchips selbst haben "nur" 400 MHz effektiven Takt (200 MHz physikalisch x 2 durch DDR-Technik); da der I/O-Puffer jedoch doppelt so hoch taktet kann pro Read-Befehl doppelt so viel aus dem Speicher gelesen werden als bei DDR-RAM, deswegen verdoppelt sich das effektiv noch einmal zu 800 MHz (siehe auch den wikipedia-Artikel zu DDR-SDRAM und deren Weiterentwicklung). Das ist jedoch meiner Meinung nach zu weit in die Technik gegangen, da es hier nicht um effektive Taktraten der Chips an sich sondern der gesamten Speichermodule geht, und da hat PC2-6400 nun mal 800 MHz.
-
Die 1333 MHz sind der FSB, der sich zwischen der CPU und dem Chipsatz befindet, da gibt es kein "Dual-Channel", den gibt es nur zwischen Chipsatz und Speicher. Deswegen reicht Dual-Channel DDR2-800 prinzipiell auch für FSB1333-CPUs. Bei AMD Athlon 64-Prozessoren gibt es diese Einschränkung jedoch nicht, da sich der Speichercontroller da nicht im Chipsatz sondern im Prozessor selbst befindet, dort sind die Abhängigkeiten anders.
-
Wenn man die selbe Leistung für nur 1/3 des Preises bekommt, wieso sollte man denn so viel oder sogar noch mehr ausgeben? Ja, das Board hat sogar 8 SATA II-Anschlüsse, wobei zwei davon explizit als RAID-Anschlüsse angegeben sind, d.h. dort können soweit ich das verstehe keine einzelnen Festplatten oder optische Laufwerke angeschlossen werden. 800 MHz effektiv + Dual-Channel-Speicherinterface = 1600 MHz effektiv. Es wird zwar noch etwas für DMA-Zugriffe und andere Dinge benötigt, aber mit dem sündhaft teuren DDR3-RAM oder auch DDR2 über 800 MHz wird der Rechner vielleicht 5% schneller, und das für einen Aufschlag von 300% (2 GB Mushkin DDR2-800 gibt es schon für € 100,-).