Zum Inhalt springen

moo_kuh

Mitglieder
  • Gesamte Inhalte

    50
  • Benutzer seit

  • Letzter Besuch

Alle Inhalte von moo_kuh

  1. moo_kuh

    T-DSL 6000 / Modem

    Ich möchte aber nur ein reines Modem ohne Router/WLAN und den ganzen Quatsch. Gibts sowas in der heutigen Welt noch - ich hoffe doch. Viele Grüße
  2. Hallo Kollegen, ich habe gerade wieder eine riesen Aktion, mit der T-Com, da sie einfach nicht fähig sind mir ein passendens Modem zu schicken. (habe nen Splitter bekommen!) Es ist wirklich zum Eingraben :old :old Nungut... also in der kommenden Woche wird auf 6000 bei mir umgestellt, da mein alter 1000er Vertrag ausläuft. Laut Telekomauskunft funktioniert mein altes Modem (noch ein Siemens Modem der ersten Generation!) mit 6000 nicht mehr. In andere Foren habe ich aber schon was anderes gelesen. Nun meine Frage an Euch: Welches externe Modem ist 6000-fähig? Ich benötige nur ein Modem ohne W-LAN, etc.. bei E-Bay habe ich folgende Endgeräte gefunden: eBay: Teledat 300 LAN Modem DSL 6000 fähig Komplett in OVP (Artikel 300110530565 endet 21.05.07 15:30:25 MESZ) eBay: Teledat 302 DSL Modem bis 6000 kbs (Artikel 330119578044 endet 20.05.07 18:46:14 MESZ) Wer von Euch hat schon 6000 und welches Modem verwendet ihr bzw. mit welche Speed könnt ihr dann saugen? Evtl. hiermit den Speed testen? -> DSL Speed-Test: Upload und Download Geschwindigkeit bei DSL testen Vielen Dank!
  3. Hallo Kollegen, Oracle erlaubt es ja TEMP-Files im laufenden Betrieb zu löschen. Dabei stelle ich mir eigentlich folgende frage: Wie handelt Oracle die benötigten "aktiven" Temp-Segmente (von laufenden Sorts,Joins,etc..) die gerade in dem Tempfile liegen? Ich stelle mir gerade folgendes vor: Ich habe einen TEMP Tablespace als Default für die Datenbank und die User gesetzt. Dieser beinhaltet 2 Tempfiles. Ein User macht gerade einen Join und einen ORDER BY von 2 großen Tabellen, so das Speicher im TEMP Tablespace allokiert werden muss. Es werden 2 Segmente aus dem Tempfile1 und 3 Segmente aus dem Tempfile2 allokiert. Nun droppe ich im laufenden Betrieb das Tempfile2 ... Was passiert mit den 3 allokierten Segmenten? Die Query läuft während des ganzen DROP Vorgangs noch.... Bekomme ich dann einen ORA Error oder wie wird das gehandelt? Vielen Dank! Gruß
  4. So habe ich das bisher auch verstanden. Durch das Flag erkennt Oracle das die aktuelle SCN aus dem aktiven Redolog nicht mehr verfügbar ist und liest die jeweiligen letzten SCNs aus den Headern der Datenfiles und recovered dann bis zu einem "cancel" oder "until". Hätte ich noch ein aktuelles intaktes controlfile könnte ich ein einfaches "recover database" machen, da Oracle noch weiss wie weit er zum kompletten recover heranfahren muss (vorrausgesetzt ich hätte noch die aktuellen Redologs). Ist das korrekt? Das ist korrekt.. unsere Backupsoftware benutzt aber noch das "alter database backup" kommando und unser softwarelieferant gibt bisher auch nur für diese Methode Support. Für unsere anderen Oracle Installationen haben wir RMAN im Einsatz. Danke
  5. Hallo Kollegen, ich habe mal eine kleine Frage zum Thema Backup Controlfile. Es gibt ja 2 Möglichkeiten ein Backup vom Controlfile zu erstellen 1) alter database backup controlfile to trace 2) alter database backup controlfile to 'FILENAME' Zu 1) Hier kann ich die Datenbank evtl. umbennen oder gewissen Einstellungen korregieren die man sonst nicht mehr ändern kann. Das "Controlfile" ist im Klartext. Aus diesem File erzeuge ich dann wieder die binären Controlfiles Zu 2) Das ist eine binäre Kopie des Controlfiles. Und nun meine Frage: Wenn ich eines der beiden "Controlfiles" benutzen will, soll man ja die Datenbank mit "recover database using backup controlfile" wiederherstellen. Mir ist aber ganz ehrlich gesagt nicht klar, was der IDENTIFIER "using backup controlfile" für einen Sinn hat? Wenn ich z.B. das Controlfile aus Punkt 2 nehme, ist es doch nicht unterschiedlich wenn ich Datenbank restoren will (gut die fortlaufenden SCNs, Sequenznummer der Redologs unterscheiden sich).. aber das bekommt Oracle doch auch hin, wenn ich nur "recover database" mache, oder? Bei Punkt1 leuchtet es mir auch nicht ein, da ich aus der Tracedatei wieder die Controlfiles erstelle (gut die SCNs, Sequenznummern gibt es überhaupt nicht mehr), aber das bekommt Oracle ja auch hin, wenn ich nur "recover database" mache, oder? In beiden Fällen öffne ich die Datenbank mit OPEN RESET LOGS. Kann mir vielleicht mal jemand den genauen Sinn von IDENTIFIER "using backup controlfile" erklären und worin der Unterschied zu einem recover ohne diesen Zusatz liegt? In beiden Fällen wurde ein Onlinebackup erstellt und das "Backup" des Controlfiles mitgesichert. Vielen Dank
  6. Ja das ist schon klar aber als übertriebenes Beispiel "Clustering Factor = Anzahl rows in Tabelle", dann macht es ja keinen "Sinn" den Index zu verwenden, außer man möchte nur einen Wert der Unique ist oder nur einen kleinen "Range" selektieren. Will man verschiedene Ranges haben... dann relativiert sich das ganze natürlich Also danke nochma für deine gute Erklärung :nett:
  7. Dachte ich es mir doch :beagolisc Ab welchen "Verhältnis" wird denn ein Fulltablescan einen Indexzugriff vorgezogen? Gibt es dafür irgendeine Faustregel bzw. einen prozentualen Wert des Clustering Factors auf die Rows?
  8. Super Erklärung! :uli :nett: Mit diesem Verständnis kann man dann auch folgendes Dokument gut nachvollziehen: DBAzine.com: Oracle Index Clustering Factor Btw. es ist immer die Rede von "Leaf-Blocks"... werden so die "Datenblöcke" von Indezes bezeichnet? oder was kann ich unter "Leaf-Blocks" verstehen? Vielen Dank. :byby:
  9. Hallo Leute, ich versuche gerade den "Clustering Factor" von Index zu Table zu verstehen. Bisher habe ich leider nur englische Dokumente gefunden, die mir das ganze bisher aber noch nicht "verständlich" rübergebracht haben. Habt ihr vielleicht ein paar deutsche Dokumente zu dem Thema oder vielleicht ein paar Links dazu? Wäre super... Danke die moo_kuh
  10. Hallo Jungs, ich habe noch eine ergänzende Frage zu den UNDO Segmenten mit Automatic Undo Management... und zwar folgendes: Nach welchen Regeln gehen die Segmente Online bzw. Offline? Solange die Transaktion noch nicht commited ist bleibt das Segment mit den "Snapshot des alten Wertes" auf jedenfall online, aber danach? Geht es sofort offline nachdem die Transaktion commited wurde, oder bleibt es noch die undo_retention online? Oder bleibt das Segment sogar noch länger online, wenn ein "SELECT STATEMENT" noch den alten Snapshot benötigt? Danke Bei Automatic Undo Managment gibt es doch nur die 2 Statis? (ONLINE und OFFLINE) Gruß die moo_kuh
  11. Ahhh! Wenn das so ist, dann ist es natürlich ziemlich clever Ich denke mal, das war früher aber mit den Rollbacksegmenten das selbe, wenn sie "verloren" gegangen sind/wären (habe bisher eben nur mit dem Automatic Undo gearbeitet) Naja nu is ja alles klar... Vielen Dank Jasper :nett:
  12. Oha... das ist ja ziemlich "übel". Gut für die Performance mag es nicht schlecht sein aber nach meinen Verständnis passiert doch folgendes: Der SMON Prozess allokiert ja beim Start der DB X Undo-Segmente (abhängig von den Sessions Parametern). Er verwaltet ja auch während der Laufzeit die Segmente (setzt online, offline, allokiert neue für jede Transkation etc...).. soweit so gut... Ich kopiere mal aus der Doku: Und nun meine "Theorie": Wenn die Undo-Segmente genauso gehandhabt werden wie normale Datenblöcke, werden sie ja zuerst in der SGA (Buffer Cache) editiert/geupdatet und dann nach einen CKP-Event in die Datenfiles geschrieben. Nebenbei werden alle Statements ja auch im Redolog mitprotokolliert. Das heisst die DML Statements im UNDO Tablespace selbst benötigen keinen Commit oder werden gleich commited, da im Falle eines Recovers die Einträge im UNDO Tablespace ja nicht commited wären und somit evtl. nichts zurückgerollt werden könnte. (für nicht commitete transaktionen!) Beim Recovery werden ja erst die Redologs (bzw. Archivelogs) applied und dann die nicht commiteten Transkationen mit Hilfe des UNDO Tablespaces zurückgerollt... wenn die Daten aber im UNDO Tablespace noch nicht durch ein CKP-Event geschrieben wurden, müssen diese ja auch aus den Redologs applied und commited werden.. Benötigen Daten im UNDO Tablespace also keinen Commit oder wie funzt das? Danke :uli
  13. Wenn wir gerade den Thread erweitern, hätte ich auch noch ne Frage: Allokieren die Schattenprozesse direkt Undo-Segmente? Damit meine ich z.B. wie temp-segmente im Temporary Tablespace. Oder funktioniert das über den DBWR oder über einen anderen Oracle Prozess? Vielen Dank
  14. Hallo Kollegen, ich beschäftige mich gerade intensiver mit den Thema Oracle Datenbanken (notgedrungen) und habe gerade viele Artikel über das UNDO Management gelesen. Da ich mit Oracle 9i angefangen habe und dort bisher auch nur das AUTOMATIC UNDO Management verwendet habe, wollte ich mal wissen was für Vorteile das manuelle Management mit sich bringt (Rollbacksegemente). Aber ich konnte eigentlich bisher keinen Vorteil der "manuellen" Methode entdecken. Es ist nur mehr Aufwand die Größen und Anzahl der Rollbacksegmente zu pflegen. Den einzigen Vorteil, den ich mir im Moment vorstellen könnte ist, das ich einer Transaktion ein bestimmtes Rollback Segment zuweisen kann, und ich für verschiedene Anwendungsbereiche verschieden große Rollbacksegemente habe bzw. gebe. Aber sonst? Vielleicht könnt ihr mich mal aufklären und wieder ein bischen schlauer machen :confused: Grüße die moo_kuh
  15. Hi, naja ohne ein paar Codeteile werden wir dir kaum weiterhelfen können Welchen Socket Typ verwendest du denn? Socket Types and Protocols Gruß moo_kuh
  16. Und hier ein sehr sehr guter Artikel über LOBs: LOB - Oracle Large Object Gruß moo_kuh
  17. Hi Jasper, erstmal vielen Dank für deine Mühe... Das wäre logisch und nachvollziehbar Also wird der "alte" Execution-Plan ungültig sobald ein analyze oder dbms gather stats ausgeführt wird. Es wird somit nur ein neuer Executionplan berechnet/erstellt und dann wieder abgelegt ... das Statement verbleibt im Cache... Dies musste ich auch unter 10.2.0.2 feststellen, interessant ist es wie CBO von Oracle das dann hinbekommt Die Kernaussage ist aber ... das Statement bleibt geparsed ... es wird "nur" ein neuer Execution Plan dazu abgelegt, wenn ein zugehöriges Objekt analysiert wird. Vielen Dank jetzt bin ich wieder um einiges schlauer... Gruß moo_kuh
  18. Hallo, laut diesem Link: The Oracle Users' Co-operative FAQ - Soft vs. Hard pards würde der alte Execution-Plan ausgeführt werden.... das ist aber in manchen Fällen nicht wirklich toll... wenn durch die Erstellung von neuen Statistiken ein besserer Ausführungsplan entstehen würde, Oracle aber weiterhin den alten aus dem Cache verwendet.... Habe ich das dann richtig verstanden? Gruß moo_kuh
  19. Hallo Jasper, ich meine folgendes: Das SQL Statement wurde noch nie ausgeführt (= hard parse) - dabei wird ein Execution Plan erstellt. Danach erzeuge ich neue Statistiken auf die Tabelle, dadurch würde sich eventuell der Execution Plan ändern. Nun verwende ich nochmals das selbe SQL Statement (= soft parse), wird nun ein neuer Execution Plan gewählt (bzw. erzeugt) oder merkt Oracle sich den "alten" Execution Plan von dem vorher "hard-geparsten" SQL Statement? Hintergrund ist dieser: Die Anwendung die auf die Datenbank zugreift arbeitet fast nur mit Bind-Variablen, d.h. die Statements werden fast immer "soft-geparsed", wennn diese einmal ausgeführt wurden. Mich interessiert nun ob ein evtl. neuer Execution Plan gewählt wird, obwohl das Statement noch im Library Cache liegt... Ich hoffe es war verständlich Danke! Gruß moo_kuh
  20. Hi Jasper, vielen Dank für deine Antwort. Noch eine Ergänzungsfrage: D.h. der Execution Plan wird bei jedem absetzen eines SQL Statements (egal ob es schon geparsed wurde oder noch nicht) neu bestimmt? Gruß moo_kuh
  21. Hallo, ich habe mal eine Frage bezüglich der Gültigkeit von Statistiken und den Ausführungsplänen. Nehmen wir an ich habe eine Tabelle TAB_CENT01 in der vor ca. 5 Wochen 5 Millionen Datensätze waren. Diese Tabelle hat auch 2 Indizes über verschiedene Felder. Vor ca. 5 Wochen habe ich das letzte mal eine Statistik für die Tabelle + deren Indizes erzeugt. Die Datenbank läuft seit ca. 4 Wochen ohne Neustart. Es gibt nun "Standard-Queries" über die die User auf die Tabelle TAB_CENT01 abfragen machen. D.h. das geparste SQL-Statement liegt im Library Cache von Oracle. Nun fällt mir auf das die Tabelle TAB_CENT01 einen enormen Zuwachs auf ca. 11 Millionen Datensätze hat. D.h. die alte Statistik ist nicht mehr zu gebrauchen. Ich erzeuge eine neue Statistik im laufenden Betrieb um eine aktuelle zu bekommen und evtl. einen besseren Zugriffspfad zu erreichen. Nun meine Fragen: 1) Wie lange bleiben die geparsten SQL Statements im Library Cache? Gibt es hierfür eine "Verfallsdauer" oder werden diese nach folgendem Prinzip gehandelt: Erst wenn nicht mehr genügend Memory für den Library Cache zur Verfügung steht, fällt das älteste geparste Statement heraus? 2) Wenn das Statement schon geparsed im Library Cache liegt und ich neue Statistiken erzeuge, wird dieses Statement dann neu "generiert" oder spielt das in dem Fall überhaupt keine Rolle? 3) Ab wann wird die neue Statistik gültig und somit der evtl. neue Execution Plan? Wird ein Execution Plan bei jedem ausführen eines SQL Statements bestimmt oder wird dieser mit im geparsten SQL-Statement "abgelegt"? Falls ja - ab wann zieht dann der evtl. neue Execution Plan? Vielen Dank schonmal für Euere Antworten. Viele Grüße moo_kuh
  22. Nmon nmon performance: A free tool to analyze AIX and Linux performance Viel Spass
  23. Hi, auf die erste Frage: ich ;-) Auf die zweite Frage: Ja auf jedenfall Auf die dritte Frage: Von der SAP gibt es sogenannte Live Systeme. Diese bekommt man bei Schulungen oder evtl. kann man die sogar irgendwo im SAP Service Marketplace runterladen. Die kann man sich ganz einfach auf einen Linux System installieren und basieren auf MaxDB und der "neuen" Netweaver Plattform. Literatur wird mitausgeliefert bzw. gibts unter http://help.sap.com Du solltest dir allerdings bewusst sein das es im SAP Umfeld verschiedene Richtungen gibt in der du mit der Programmierung gehen kannst. Entweder entscheidest du dich für die ABAP-Schiene, in der du dann eben ABAP lernen musst. Oder du gehst in den Web-Zweig, wo Java, BSPs, WebDynpro Programmierung gefragt ist. (Stichwort Portalsysteme / ICM bzw. j2ee) Ich selbst habe für 2 Jahre ABAP Programmierung gemacht
  24. Im Standard nicht aber so könnte es z.B. aussehen (bsp von hackin9): #include <stdio.h> #include <unistd.h> #include <fcntl.h> int main() { FILE *fp; int c; struct flock fl; fl.l_type = F_WRLCK; /* Write locking on */ fl.l_whence = SEEK_SET; fl.l_start = 0; fl.l_len = 0; fp = fopen("sequence", "r+"); /* Waiting for a lock */ fcntl(fileno(fp), F_SETLKW, &fl); fscanf(fp, "%d", &c); c++; printf("My no.: %d\n", c); usleep(1); /* Writing the new number to a file */ rewind(fp); fprintf(fp, "%d\n", c); fl.l_type = F_UNLCK; /* Locking off */ fcntl(fileno(fp), F_SETLK, &fl); ......... } http://www.opengroup.org/onlinepubs/009695399/basedefs/fcntl.h.html
  25. moo_kuh

    cronjob und ftp

    hmm wie jetzt? cd /tmp/test1 wget --mirror --user=uid4711 --password=null8fuenf10 ftp://zielhost/var/tmp/remote_test1 das geht nicht? Ich hoffe auch für dich das die userid und das password fiktion sind

Fachinformatiker.de, 2024 by SE Internet Services

fidelogo_small.png

Schicke uns eine Nachricht!

Fachinformatiker.de ist die größte IT-Community
rund um Ausbildung, Job, Weiterbildung für IT-Fachkräfte.

Fachinformatiker.de App

Download on the App Store
Get it on Google Play

Kontakt

Hier werben?
Oder sende eine E-Mail an

Social media u. feeds

Jobboard für Fachinformatiker und IT-Fachkräfte

×
×
  • Neu erstellen...