Zum Inhalt springen

Frage zu squid bzw. squidGuard


Heilbrunner

Empfohlene Beiträge

Hallo zusammen,

ihr seid meine / unsere letzte Rettung.

Wir haben folgende Problemstellung:

Wir haben einen Webserver auf dem einige Domains laufen, aufgrund diverser Probleme wollten wir nun einen squid ( als Cache ) mit squidGuard (als redirector) nutzen.

Der squid läuft einwandfrei, der squidGuard ebenfalls, sofern man nur eine Domain per default Regel anspricht. Da wir den squidGuard aber für mehrere redirects nutzen wollten liegt hier das Problem.

Nach ewigem googlen konnte nichtmal eine Aussage gefunden werden ob das überhaupt zu realisieren ist, denn das der squidGuard dafür nicht geschaffen wurde ist uns klar.

Also ist die erste Frage: Geht das was wir tun wollen überhaupt?

Und die zweite Frage: Wenn es geht, wie?

Das posten von der squidGuard.conf erspare ich mir an dieser Stelle, denn die ist momentan wieder im Zustand die sie nach der Installation hatte.

Für Antworten jeglicher Art bedanke ich mich im vorraus.

Viele Grüße

Link zu diesem Kommentar
Auf anderen Seiten teilen

Also wie erwähnt hosten wir verschiedene Domains. Es kamen immer wieder Probleme auf weil diverse Domains vorübergehend nicht erreichtbar waren. Wahrscheinlich zu viele User auf einmal aktiv oder oder oder...

Also haben wir den squid mit squidGuard installiert und für eine Domain getestet.

Squid konfiguriert und im squidGuard die default redirect Regel auf die Plone Instanz gesetzt. Das hat dann auch funktioniert, Domain war erreichbar und wurde korrekt weitergeleitet.

Nun wollen wir das ganze Spiel auch für ca. 15 andere Domains machen, nur kommen wir nicht dahinter wie der squidGuard konfiguriert werden muss damit das geht.

Googeln hat uns nichts geholfen, von daher sind wir nicht ganz sicher ob das überhaupt geht, da squidGuard ja nicht dafür zuständig ist (im Normalfall zumindest).

Deswegen die Frage hier...

Danke nochmals

Link zu diesem Kommentar
Auf anderen Seiten teilen

Plone ist doch das CMS welches auf Zope aufsetzt. Also sind Deine Inhalte dynamisch. Squid kann statische Seiten cachen, dynamische ist so eine Sache. Was mir noch nicht ganz klar ist: Wozu squidGuard? Wenn Squid als reverse Proxy (anderer Begriff als Accelerator) laufen soll brauchst doch sowas gar nicht.

Die Squid Doku zum Thema Reverse-Proxy/Accelerator findest übrigens hier: Squid Reverse Proxy. Die allgemeine Doku von Squid hast ja sicherlich bereits. Der Vollständigkeit wegen, die gibt's hier: squid : Optimising Web Delivery.

Eins aber noch zu dem ganzen Thema hier: Du solltest schon wissen wo genau das Problem bei Deinen Domains liegt. Woher willst wissen, ob Squid Dir überhaupt helfen kann? Wenn Du schreibst "zuviele Benutzer" gleichzeitig, meinst damit Benutzer die sich angemeldet haben? Falls ja, dann sind das dynamische Inhalte. Die kann Squid nicht cachen und somit Dir auch nicht bei Deinem Problem helfen.

Link zu diesem Kommentar
Auf anderen Seiten teilen

So, lange hat das geteste gedauert nun melde ich mich mal wieder...

Nach langem Studium eurer Beiträge sind wir nun davon abgewichen den squidGuard einsetzen zu wollen, danke erstmal hierfür...

Zur Frage was mit dem Webserver nicht zu 100% stimmt, ist folgendes Verhalten zu erwähnen. Wir gehen davon aus das wir immer wieder relativ hohe Useranzahlen haben die auf unseren gehosteten Seiten (ca. 10) unterwegs sind, wenn das der Fall ist wird der Webserver relativ langsam bzw. beantwortet keine Anfragen mehr. Im Browser äußert sich das durch eine Server nicht gefunden Meldung. Nachvollzogen haben wir das mit einem Test in dem wir auf einer Seite 4-5 mal nacheinander F5 gedrückt haben ( ob man das nun tun sollte oder nicht ist ja erstmal egal ;) ), hier war dann das Verhalten gleich. Zu jeder Zeit wenn der Webserver dann lahmt geht der Plone-Prozess auf 99,9% und nix geht mehr.

Um zu testen ob uns ein squid helfen kann haben wir vorab eine Domain umgestellt und diese per squidGuard mit der Ploneinstanz verknotet und siehe da auch ein mehrmaliges drücken von F5 konnte Ihn nicht mehr so extrem bremsen wie vorher. Folglich gehen wir davon aus es hilft uns.

Also nun zum neuerlichen Problem. In einem neuerlichen Testlauf haben wir versucht den squid vor den Apache zu hängen. Im squid gesagt das er bitte auf Port 80 lauschen und die Weiterleitung auf Port 81 machen soll. Im Apache das Listen 81 eingetragen und dann noch eine Domain auf Port 81 umgestellt.

Der direkt Aufruf der Domain über :81 funktioniert einwandfrei, wenn wir nicht davon ausgehen würden das es über Port 80 genauso funktionieren müsste.

Folgende Konfiguration haben wir also getätigt:

squid.conf

http_port 80

httpd_accel_port 81

httpd_accel_host localhost

httpd_accel_single_host on

httpd_accel_with_proxy on

httpd_accel_host virtual

http_access allow all

httpd_accel_uses_host_header on

Listen.conf

Listen 81

vhosts.conf

NameVirtualHost *:81

Confdatei der Webseite:

<VirtualHost *:81>

Ich hoffe das reicht mal als Input ;)

Der Firefox gibt mir als Fehlermeldung folgenden Text zurück

ERROR The Requested URL could not be retrieved

While trying to retrieve the URL: http://xxx.de:81/

The following error was encountered:

* Access Denied.

Access control configuration prevents your request from being allowed at this time. Please contact your service provider if you feel this is incorrect.

Your cache administrator is webmaster.

Generated Tue, 04 Aug 2009 13:20:38 GMT by xxx.net (squid/2.5.STABLE10)

Danke für alles bisherige und evtl. kommende

Link zu diesem Kommentar
Auf anderen Seiten teilen

Dein Kommentar

Du kannst jetzt schreiben und Dich später registrieren. Wenn Du ein Konto hast, melde Dich jetzt an, um unter Deinem Benutzernamen zu schreiben.

Gast
Auf dieses Thema antworten...

×   Du hast formatierten Text eingefügt.   Formatierung wiederherstellen

  Nur 75 Emojis sind erlaubt.

×   Dein Link wurde automatisch eingebettet.   Einbetten rückgängig machen und als Link darstellen

×   Dein vorheriger Inhalt wurde wiederhergestellt.   Editor leeren

×   Du kannst Bilder nicht direkt einfügen. Lade Bilder hoch oder lade sie von einer URL.

Fachinformatiker.de, 2024 by SE Internet Services

fidelogo_small.png

Schicke uns eine Nachricht!

Fachinformatiker.de ist die größte IT-Community
rund um Ausbildung, Job, Weiterbildung für IT-Fachkräfte.

Fachinformatiker.de App

Download on the App Store
Get it on Google Play

Kontakt

Hier werben?
Oder sende eine E-Mail an

Social media u. feeds

Jobboard für Fachinformatiker und IT-Fachkräfte

×
×
  • Neu erstellen...