-
Gesamte Inhalte
4098 -
Benutzer seit
-
Letzter Besuch
-
Tagessiege
9
Inhaltstyp
Profile
Forum
Downloads
Kalender
Blogs
Shop
Alle Inhalte von Eye-Q
-
Schon mal wieder den 3000+ eingebaut? Wenn's dann wieder funktioniert ist der X2 (teil-)defekt. Eventuell den X2 mal in einem anderen Board ausprobieren, wenn Du die Möglichkeit hast.
-
Öhm nun ja, hast Du den WEP-Schlüssel eingetragen? Erst mal ohne Verschlüsselung ausprobiert? Eigentlich kann die Fritz!Box auch WPA2, also sollte das auch eingeschaltet werden, WEP ist nämlich nicht mehr wirklich sicher, außer vor "Zufallsbesucher".
-
Das Material der Abstandshalter ist vollkommen egal, da die Befestigungslöcher elektrisch von den Leiterbahnen auf dem Board getrennt sind. Die Hauptsache ist dass eben ein Abstand zwischen Boardrückseite und dem blanken Blech des Mainboardtrays vorhanden ist, da sonst hundertpro ein Kurzschluss entsteht. Genau dafür sind die Hügel da, damit man keine Abstandshalter einschrauben muss (bzw. nur die zusätzlichen, wenn man z.B. ein µATX-Board hat, welches dann beim dritten PCI-Slot ein weiteres Befestigungsloch hat). Die sind ja auch so geformt dass die Fläche die am Mainboard anliegt möglichst klein ist, damit das Board eben nur dort berührt wird wo auch ein Abstandshalter es berühren würde.
-
IntelliMouse Explorer 3.0 - Neu installiert - Mausrad Funktion ändern?
Eye-Q antwortete auf Lloyd Christmas's Thema in Hardware
In welchem Browser? Meistens ist es so dass die browserspezifischen Aktionen (wie z.B. neues Tab öffnen) im Browser eingestellt werden, da Windows in dieser Hinsicht größtenteils nur die Standard-Funktionen (Vor/Zurück, Scrollen) kann und nicht dem Browser den Befehl für einen neuen Tab gibt. -
Benötige ein Anmeldeformular zur automatischen Laufwerksverbindung unter XP
Eye-Q antwortete auf AStoklassa's Thema in Windows
Naja, damit wird ja festgeschrieben welche Laufwerke gemappt werden und nicht abhängig vom User (wo sich zwar mehrere User anscheinend mit einem Usernamen an Windows anmelden, aber danach entscheiden sollen welcher physikalische User angemeldet ist und so unterschiedliche Laufwerke gemappt bekommen)... Gegenfrage: was soll das bringen bzw. wozu soll das verwendet werden? Vielleicht haben wir eine andere Idee für das Grundproblem an sich... -
Naja, der Reader ist wie der Name schon sagt ein Programm zum Anzeigen/Lesen, damit kann man nur in Adobe-Dokumenten etwas ändern (das gilt natürlich auch für die Erstellung eines Kennworts, das ist ja auch ein Ändern des Dokuments) wenn das durch den Ersteller auch so vorgesehen ist.
-
CELSIUS W - Product catalog - Fujitsu Siemens Computers - da gibt's auch Datenblätter zum Runterladen.
-
Mit oder ohne neuen Monitor? Allgemein sind € 1200,- für einen PC ziemlich viel, da könntest Du sogar eine sehr gute Gaming-Maschine aufbauen bzw. anschaffen. An Komplett-PCs bzw. -Workstations würde ich für den Preis bei Fujitsu-Siemens einen Celsius W360 mit Core 2 Quad Q6600, 4 GB RAM, 500 GB HDD, NVidia Quadro FX 370 empfehlen (EVP liegt bei 1199 + MwSt., EK ist aber weit darunter), günstiger geht's natürlich immer, z.B. der W360 mit Core E6750, 2 GB RAM, 250 GB HDD, da liegt der EVP bei € 749,- + MwSt.
-
Heißa die Waldfee - Ergebnis mit den oben genannten Einstellungen (alle Virenscanner sind eingeschaltet): die Sicherung ging um 23:45h los und wurde um 01:47h abgeschlossen, also nach nur 2 Stunden. Der durchschnittliche Datendurchsatz über den gesamten Job lag bei 1,4 GB/min, also ca. 23 MB/s, wobei auch kleine Datenmengen wie Disaster Recovery-Informationen mit 1,15 MB und so geschrieben wurden, was dann 0 Sekunden gedauert hat und den Datendurchsatz in der Hinsicht nach unten zieht. Ich denke mal das Multiplexing wird da den größten Anteil gehabt haben, aber die Netzwerkoptimierungen haben sicherlich auch eine Rolle gespielt. Nochmals vielen Dank für die Tipps, das hat mir sehr geholfen. P.S.: auch bei unserer eigenen Sicherung mit LTO1-Laufwerk und -Bändern, wo ich von gestern auf heute ebenfalls Multiplexing eingeschaltet habe, wurde die Zeit von 4:50h Dauer auf 2:40h verkürzt, also auch beim LTO1 wirkt sich diese Option enorm aus, ich hatte nichts weiter als diese Option eingeschaltet.
-
Nachtrag: dcdiag /q gibt keine Fehler aus, netdiag /q "nur" folgende, die dafür eher irrelevant sein dürften, oder? Die Eicon ISDN-Karte ist im Server drin weil der Server gleichzeitig Faxserver ist.
-
Naja, gestern war Feiertag, da kann man die Server ohne Probleme defragmentieren, ohne dass das einen Anwender juckt. Na sowas - nach den Ursachen forsche ich ja gerade, um das abzustellen. Ja, das wird von ARCServe beherrscht, ist ein unscheinbarer Haken, den ich gerade mal gesetzt habe, mal schauen wie die Sicherung von heute auf morgen läuft, danke für den Hinweis. Das ist ein HP-Laufwerk - erkennt das Laufwerk das von alleine oder muss das noch irgendwo eingestellt werden? Haken dran Ist das eine der Optionen sein die hades vorgeschlagen hat oder noch etwas anderes? Wollen wir mal nicht mit Kanonen auf Spatzen schießen, für im Moment 165 GB Daten, wo nach vorne noch mindestens 3 Stunden und nach hinten noch eine Stunde Puffer wären (nach 20:00h arbeitet in der Firma niemand mehr, genauso vor 07:30h) muss in der Hinsicht noch keine große Aktion gestartet werden, aber Optimierungen der vorhandenen Strukturen sind natürlich immer gut. Auch hier wieder eher mit Kanonen auf Spatzen geschossen, wie gesagt solange die Sicherung ohne Optimierungen noch dicke im Zeitfenster liegt werden wir da in der Hinsicht keine großen Aktionen durchführen. Ich habe jetzt mal wie gesagt die Multiplexing-Option aktiviert, die Einstellungen für TcpIp/Tcp1323Opts und Lanmanserver/SizReqBuf die hades vorgeschlagen hat werde ich gleich auch auf den Servern vornehmen, mal sehen was die nächste Sicherung dann bringt (falls da noch mehr benötigt wird werde ich das je nach Bedarf eintragen, man sollte ja nicht auf einmal alles ändern). Nochmal vielen Dank für die Tipps.
-
Oh ha, das ist 'ne Liste... :eek Vielen Dank, ich werde mal schauen was sich da machen lässt. Wenn die Schlüssel in der Registry nicht vorhanden sein sollten - kann ich die dann einfach so entsprechend eintragen? Was meinst Du damit? Also die Server sind wie gesagt an den Gigabit-Switch angeschlossen, die Clients sind jedoch eigentlich alle per 100 Mbit-LAN angebunden (halt per Gigabit-Uplink vom 2808 zu den anderen Switches und von dort aus mit 100 Mbit weiter).
-
Wenn das denn möglich wäre würde ich das gerne tun... %) Zumindest mit den aktuellen Treibern bieten mir die Netzwerkkarten aber nur "10 Half", "10 Full", "100 Half", "100 Full" und "Autonegotiation" an, man kann die also nicht fest auf 1 Gbit/s einstellen... :beagolisc Das ist schon klar, es werden natürlich auch LTO3-Bänder benutzt und wie gesagt von der lokalen Platte schreibt der die Daten auch mit 60 MB/s auf das Band, also am Laufwerk oder den Bändern liegt es definitiv nicht.
-
Guggst Du MSXFAQ.de. Wenn Du Exchange 2003 installierst, während Exchange 2000 installiert ist, sollten die Daten so übernommen werden, allerdings empfehle ich ein sehr aktuelles Backup bereit zu halten, just in case.
-
So, Ergebnis bei Virenscanner aus: maximal 17 MB/s, zwar auch nicht überragend, aber immerhin eine Bremse gefunden. Außerdem habe ich mal nach der Fragmentierung geschaut, der IT-Leiter dort meint zwar dass er die Server ein Mal pro Monat defragmentiert, das glaube ich aber nicht so ganz, da war schon einiges fragmentiert... Deswegen habe ich gestern mal alle drei Server defragmentiert, mal schauen was das bei der Sicherung so bringt, wenn der Virenscanner eingeschaltet ist (von gestern auf heute wurde natürlich keine Kassette eingelegt, aber heute wird dort auf jeden Fall gearbeitet)...
-
Wenn die User schon im Active Directory eingetragen sind werden keine Windows-CALs benötigt, Terminalserver-CALs aber schon.
-
Um sich auf einen Terminalserver zu verbinden braucht der Benutzer eine Windows-CAL und eine Terminalserver-CAL. Beide Lizenzen gibt es als User- oder Device-CAL, je nachdem was besser passt. In einem Server 2008 Standard sind 5 Windows-CALs enthalten, Terminalserver-CALs sind nicht enthalten.
-
Was heißt "wenn Du Pech hast"? Das P4S800-MX ist ein Sockel 478-Board, und der Sockel 478 ist schon seit längerer Zeit Geschichte, ergo gibt es da todsicher keine aktuelle CPU die da rein passt. Einfach bei ebay nach Sockel 478 Pentium 4 suchen und dort eine entsprechende CPU ersteigern (wie gesagt, Pentium D funktioniert nicht).
-
CPU-Support-Tabelle von Asus, da geht maximal ein P4 3,4 GHz mit HT drauf (Pentium D nicht).
-
Aktuell sind die auf Auto-Negotiation. Ja, ich weiß dass der nicht das Gelbe vom Ei ist, aber die Verbindung zweier Server zur Zeit ohne dass irgend etwas dazwischen funkt sollte auch der noch gerade so hinbekommen. Wie könnten dann manuell von mir angestoßene Kopiervorgänge bis auf ca. 70 MB/s (durchgehend) hoch gehen? Oder meinst Du ich soll überhöhte Kurven für die Netzwerkkabel bauen und Tempolimit-Schilder aufstellen? :old Das bisher noch nicht, wie gesagt da bin ich erst mit dem neuen Laufwerk drauf gekommen, was ich vorgestern eingebaut habe. Aktuell ist in der Registry kein Wert eingetragen, also wird da im Moment nichts optimiert sein. Ich werde erstmal für die Zeit der Sicherung den Virenscanner auf einem der Server, die über das Netz gesichert werden, deaktivieren, das ist das Einfachste. Bei allen drei Servern ist McAfee VirusScan Enterprise 8.0 im Einsatz.
-
Ziemlich unwahrscheinlich, da beim RAID 5 ja die Paritätsdaten nicht auf einer dedizierten Platte abgelegt werden sondern auf alle Platten verteilt (siehe auch der wikipedia-Artikel über RAID). Somit müssten nicht nur die Paritätsinformationen berechnet werden sondern auch Datenbits bzw. Chunks umkopiert werden. Bei einem RAID 3 wäre das vielleicht möglich, da dort die Paritätsinformationen auf einer dedizierten Platte gespeichert sind und somit einfach aus den vorhandenen Daten die Parität gebildet werden kann.
-
Auf dem TX150 ist ARCserve installiert, die beiden anderen Server werden wie gesagt per Client-Agent gesichert, wobei im Log folgendes steht: x Datei(en) y MB von Agenten gesendet mit z MB/min Also logisch werden die Dateien wohl vom Agent an das Sicherungsprogramm gesendet, welches die Daten dann auf das Band schreibt. Natürlich nacheinander, ARCserve schließt die eine Sitzung ab und verbindet sich dann mit dem nächsten Agenten. Da müsste ich noch mal schauen, allerdings gibt es auf dem SQL-Server ein dediziertes RAID 1 nur für SQL-Backups, wo 24,9 GB in 66 Dateien gespeichert sind, also ca. 415 MB durchschnittlich pro Datei, und diese Daten werden ebenfalls nicht schneller gesichert. Da bin ich mir nicht ganz sicher, allerdings weiß ich dass noch zwei weitere 24-Port-Switches im Einsatz sind, die dürften entsprechend die Clients bedienen und einfach per Uplink zum 2808 verbunden sind, allerdings wie gesagt ohne Gewähr. Ziemlich ausgeschlossen - alle PCs/Thinclients werden über Nacht ausgeschaltet, Defragmentierung wird jeden Monat nur ein Mal manuell angestoßen, Virenscanner läuft zwar nebenbei als On-Access-Scanner mit, startet aber keinen dedizierten Virenscan, Updates werden ebenfalls manuell eingespielt, andere Backups oder Datenübertragungen laufen nicht (das SQL-Backup auf Platte läuft um 22:30h und ist um ca. 22:45h abgeschlossen, die Sicherung des SQL-Servers läuft eh erst um 1:30h, wenn man dem ARCserve-Log glauben darf), Distributed Computing läuft auf keinem Server. Die Daten werden komprimiert, allerdings durch das Bandlaufwerk selbst (Meldung im Log: "Komprimierung ist deaktiviert auf Grund von Hardware-Datenkomprimierung."), außerdem ist die Datenübertragungsrate von den internen Platten ja wie gesagt sehr gut. Das werde ich mal kontrollieren, das müsste aber eigentlich alles relativ aktuell sein. Meine Reden.
-
Mahlzeit, wir haben gestern bei einem Kunden ein neues LTO3-Laufwerk (nominell bis zu 60 MB/s) eingebaut, weil das alte LTO1 aus allen Nähten platzte. Nun habe ich heute Morgen mal nach der Sicherung geschaut und die braucht eigentlich relativ lange (5:20h für ca. 165 GB). Dann habe ich mal nach den im Log verzeichneten Datenübertragungsraten geschaut und etwas festgestellt was ich etwas verwunderlich finde: Von der lokalen Festplatte sichert das Laufwerk bombig (31,6 GB in 13:06 Minuten, also ca. 2,4 GB/min oder 60 MB/s), allerdings kommt über das Gigabit-Netzwerk maximal 13 MB/s, und die Daten sind teilweise ziemlich groß (z.B. Backup-Dateien vom SQL-Server, ca. 1 GB), deswegen kann es eigentlich weniger damit zu tun haben dass viele kleine Dateien über das Netzwerk verschoben werden. Ich habe eben mal ein paar Testkopien gemacht, da werden 200-MB-Dateien in 3 Sekunden übertragen, das Netzwerk an sich sollte also performant genug sein. Nun meine Frage: ist das normal dass das Gigabit-Netzwerk bei der Sicherung nur bis ca. 15% ausgenutzt wird? Aktuell ist das noch nicht so ein großes Problem, weil der Sicherungszeitraum noch viel Spielraum hat, wenn aber irgendwann die Datenmengen noch größer werden sind 10 MB/s, die meistens über das Netzwerk kommen, eigentlich zu wenig - wozu hat man schließlich Gigabit? Ich erwarte ja nicht dass über das Netzwerk auch 60 MB/s kommen, aber etwas mehr als die aktuell 13 MB/s hatte ich schon erwartet... Sonstige Daten des Netzes: drei FSC Primergy-Server (ein TX300S2, ein TX200S2, ein TX150S6, der auch das LTO3-Laufwerk enthält), alle drei Server haben Onboard 3com NetXtreme Gigabit-LAN-Chips und sind an einem 3com Baseline 2808-Switch (8 Gigabit-Ports) angeschlossen. Als Betriebssystem kommt überall Windows Server 2003 SP2 zum Einsatz (zwei Mal die erste Ausgabe, ein Mal R2), gesichert wird mit CA ARCserve 11.5 und entsprechenden Agents.
-
Von sich aus bringt das Betriebssystem das nicht mit, aber das kann jedes Imagingprogramm wie Acronis True Image oder Norton Ghost.
-
Ja, allerdings kann man mit CrystalCPUID auch die Spannung verringern.