gajUli Geschrieben 3. Februar 2008 Teilen Geschrieben 3. Februar 2008 Hallo, folgender Aufbau: LAN <--> Router <--> Bridge <--> DSL-Router Auf der Bridge läuft OpenSuse 10.1 mit Squid und Dansguardian. Sie ist transparent bis auf Port 80, der mit iptables intern auf Dansguardian/Squid umgeleitet wird. So weit so gut, der Aufbau erreichte schon Uptimes von über 80 Tagen. Folgendes Problem: Seit einer Netzwerkumrüstung ereignet sich alle 1-2 Wochen etwas Merkwürdiges. Web-Clients werden ab Zeitpunkt X nicht mehr bedient. Die Netzwerker sagen, die Bridge würde dann Port 80 nicht durchlassen, die anderen aber schon. Die Logs von Dansguardian und Squid enden genau bei Zeitpunkt X, beide Dienste sind aber "running", und die System-Logs enthalten überhaupt keine Auffälligkeiten. Was kann das sein und was macht man da? Würdet ihr den Fehler in der Bridge vermuten oder außerhalb? Problem von Suse 10.1 vielleicht? Die Hardware ist auch ziemlich alt... Wäre schön, wenn jemand eine Idee hätte. Zitieren Link zu diesem Kommentar Auf anderen Seiten teilen Mehr Optionen zum Teilen...
Crash2001 Geschrieben 3. Februar 2008 Teilen Geschrieben 3. Februar 2008 Wird das Problem durch einen Neustart der Dienste behoben, oder nicht? Falls ja, könnte man evtl einfach nachts mal den Dienst per cron-daemon neu starten lassen. Ist zwar keine saubere Lösung, falls es an dem Programm liegt, aber helfen würde es... Squid hatte auf jeden Fall ein Denial of Service Problem, das vor allem in Zusammenhang mit dyndns auftrat, das Ende Dezember 07 behoben wurde. Vielleicht ist das ja auch das Problem, das du hast und das Einspielen der aktuellen Version / des Patches bringt Besserung. [...]- squid denial of service problem The web browser squid was updated to fix a denial-of-service bug during cache update reply processing. (CVE-2007-6239) Squid has been updated on all SUSE Linux based products on December 30.[...] Zitieren Link zu diesem Kommentar Auf anderen Seiten teilen Mehr Optionen zum Teilen...
gajUli Geschrieben 3. Februar 2008 Autor Teilen Geschrieben 3. Februar 2008 > Wird das Problem durch einen Neustart der Dienste behoben, oder nicht? Vermutlich; ich konnte es aber bisher nicht sicher verifiizieren. Wir haben jedenfalls vor, den Service der klapprigen Hardware wegen auf einen neuen virtuellen Server zu portieren, auch um Platz im Schrank zu sparen. OpenSuse 10.3 soll vorinstalliert sein. Sollten wir dabei bleiben oder lieber auf Debian umsatteln? (Das Altbekannte wäre natürlich einfacher, aber wenn es zu Ausfällen neigt, hilft es ja nichts.) Gilt Suse 10.3 als stabil? Gegen cron-gesteuerte reboots würden eigentlich nur "Stilgründe" sprechen, und ich werde das vielleicht sowieso so einrichten, aber ich bin nicht sicher, ob der Fehler nicht auch binnen 24 Stunden auftritt. > Squid hatte auf jeden Fall ein Denial of Service Problem, das vor allem in Zusammenhang mit dyndns auftrat, das Ende Dezember 07 behoben wurde. Danke für den Hinweis. dyndns war nicht im Spiel. Die Aufrufe zeigten keine Fehlermeldung an, sondern wurden einfach nicht bedient und endeten im Timeout. Zitieren Link zu diesem Kommentar Auf anderen Seiten teilen Mehr Optionen zum Teilen...
dgr243 Geschrieben 3. Februar 2008 Teilen Geschrieben 3. Februar 2008 ich persönlich bin ja eher debianer, allerdings versuch ichs mal trotzdem anfragen die im timeout landen plus nicht weiter geschriebene logs klingt für mich arg nach ghost prozessen. will sagen die prozesse stehen noch in der liste, werden aber nicht mehr wirklich ausgeführt. so es eine neuere version gibt würde ich ein update versuchen. alternativ könntest du mit nem kurzen script die verbindung durch den proxy hindurch checken (2 3 seiten deren erreichbarkeit sehr hoch ist) und im falle dass keine erreichbarkeit gegeben ist die prozesse killen und neu starten. ist auf jeden fall elegante als ne crond lösung Zitieren Link zu diesem Kommentar Auf anderen Seiten teilen Mehr Optionen zum Teilen...
gajUli Geschrieben 4. Februar 2008 Autor Teilen Geschrieben 4. Februar 2008 alternativ könntest du mit nem kurzen script die verbindung durch den proxy hindurch checken (2 3 seiten deren erreichbarkeit sehr hoch ist) und im falle dass keine erreichbarkeit gegeben ist die prozesse killen und neu starten. ist auf jeden fall elegante als ne crond lösung Wobei Dein Vorschlag allerdings auch eine cron-Lösung ist. Aber hast schon Recht, im Grunde ist das alles Murks und eine stabile Lösung vorzuziehen. Danke für die Hinweise. Zitieren Link zu diesem Kommentar Auf anderen Seiten teilen Mehr Optionen zum Teilen...
dgr243 Geschrieben 5. Februar 2008 Teilen Geschrieben 5. Februar 2008 na gut die prüfung ist nen cron.. nur halt a bisserl ausgefeilter Zitieren Link zu diesem Kommentar Auf anderen Seiten teilen Mehr Optionen zum Teilen...
Empfohlene Beiträge
Dein Kommentar
Du kannst jetzt schreiben und Dich später registrieren. Wenn Du ein Konto hast, melde Dich jetzt an, um unter Deinem Benutzernamen zu schreiben.