Zum Inhalt springen

Squid löst nicht richtig auf!


KimH

Empfohlene Beiträge

Hallo Leute!

Habe heute einen Squid unter SuSE Linux 9.0 aufgesetzt. Mein Problem ist, dass er untere Ebenen von Internetseiten nicht auflösen kann.

Beispiel:

http://www.fachinformatiker.de funktioniert!

http://www.fachinformatiker.de/zms/content/e16 funktioniert!

http://www.fachinformatiker.de/zms/content/e418/index_ger.html funktioniert!

http://forum.fachinformatiker.de/ funktioniert!

http://forum.fachinformatiker.de/forumdisplay.php?s=&forumid=10 funktioniert nicht !!!

http://www.gmx.de funktioniert!

http://www24.gmx.net/de/cgi/login/home//178/kinodvd?LANG=de&AREA=filmmusik_hdrhappytoys funktioniert nicht !!!

Hat jemand eine Idee, woran das liegen könnte?

Link zu diesem Kommentar
Auf anderen Seiten teilen

Das hat leider nicht geholfen... Es gibt immer noch die gleichen Probleme!

Vorschlag von einem Kollegen war, einen DNS auf dem Squid selber zu installieren. Bei ihm hat es dann funktioniert. Was haltet ihr davon?

Vor allem verstehe ich das nicht, weil es in der Schule auch einwandfrei geklappt hat... Ohne irgendeinen schnickschnack...

Link zu diesem Kommentar
Auf anderen Seiten teilen

Ein lokaler DNS (reicht ja caching bzw. forwarder) ist immer von Vorteil, allerdings dann wäre es trotzdem empfehlenswert, dass du in der squid.conf die 127.0.0.1 auch in der resolv.conf einträgst.

In der Schule hast du aber bestimmt auch kein SuSE Linux 9, oder? ;-)

Link zu diesem Kommentar
Auf anderen Seiten teilen

Mein Squid läuft immer noch nicht...

Bekomme weiterhin diese Fehlermeldung auf besagten Seiten...

The requested URL could not be retrieved

--------------------------------------------------------------------------------

While trying to retrieve the URL: http://www10.gmx.net/de/cgi/login

The following error was encountered:

Unable to determine IP address from host name for www10.gmx.net

The dnsserver returned:

Name Error: The domain name does not exist.

This means that:

The cache was not able to resolve the hostname presented in the URL.

Check if the address is correct.

--------------------------------------------------------------------------------

Hat nicht vielleicht noch irgendjemand eine Idee??

So langsam treibt mich das in den Wahnsinn... :eek:

Link zu diesem Kommentar
Auf anderen Seiten teilen

- Was steht denn momentan in der /etc/resolv ?

- Setzt du jetzt einen Caching DNS ein?

- Nutzt der DNS Server die ISP DNS Server?

- Aktuellste DNS Rootserver Listen auf dem System?

- Nutzt Squid den richtigen DNS Server?

- Funktioniert die Auflösung vom Squid Rechner aus?

Link zu diesem Kommentar
Auf anderen Seiten teilen

- Was steht denn momentan in der /etc/resolv ?

nameserver 127.0.0.1

- Setzt du jetzt einen Caching DNS ein?

Ja, es ist ein "Caching-only-DNS".

- Nutzt der DNS Server die ISP DNS Server?

An meinem DNS-Serverist der ISP-DNS-Server als Forwarder eingetragen.

- Aktuellste DNS Rootserver Listen auf dem System?

Können wir nicht nutzen, da wir hinter einer Firewall sitzen, die wir selbst nicht konfigurieren können.

- Nutzt Squid den richtigen DNS Server?

Ja das hoffe ich doch. :)

- Funktioniert die Auflösung vom Squid Rechner aus?

Ein nslookup ins Intranet funktioniert.

Eine ins Internet wird durch die Firewall geblockt.

Hilft das irgendwie weiter?

Link zu diesem Kommentar
Auf anderen Seiten teilen

Der Fehler scheint jetzt eingekreist!

Sobald ich eine URL aufrufen will, die ein '?' enthält, bricht er ab...

Und zwar so:

Ursprüngliche URL: http://forum.fachinformatiker.de/forumdisplay.php?s=&forumid=10

Auf der Fehlerseite steht dann jedoch:

While trying to retrieve the URL: http://forum.fachinformatiker.de/forumdisplay.php?

Er schneidet quasi hinter dem '?' die URL ab... Und das bei allen möglichen Seiten... Habe das schon min. 25 mal ausprobiert auf verschiedenen Webseiten...

Link zu diesem Kommentar
Auf anderen Seiten teilen

Original geschrieben von KimH

Der Fehler scheint jetzt eingekreist!

Sobald ich eine URL aufrufen will, die ein '?' enthält, bricht er ab...

Und zwar so:

Ursprüngliche URL: http://forum.fachinformatiker.de/forumdisplay.php?s=&forumid=10

Auf der Fehlerseite steht dann jedoch:

While trying to retrieve the URL: http://forum.fachinformatiker.de/forumdisplay.php?

Er schneidet quasi hinter dem '?' die URL ab... Und das bei allen möglichen Seiten... Habe das schon min. 25 mal ausprobiert auf verschiedenen Webseiten...

Hast du dir mal diesen Parameter angesehen :

cache_stoplist cgi-bin ?

Gruß

Terran

Link zu diesem Kommentar
Auf anderen Seiten teilen

Original geschrieben von KimH

Wo soll denn der Eintrag sein? :confused:

---

Ein wunder Punkt bei Caching Servern sind immer dynamisch generierte Seiten. Zwar bietet HTTP einige Möglichkeiten, solche Seiten als nicht cachebar zu markieren, aber nicht alle Server halten sich daran. Daher bietet Squid die Möglichkeit, bestimmte URLs (durch Substring (cache_stoplist) oder Regular Expression (cache_stoplist_pattern) identifiziert) nicht zu cachen. Defaultmäßig sind hier die Strings "cgi-bin" und "?" eingetragen. Diese Liste können Sie bei Bedarf erweitern (".cgi", ".shtml" und ".asp" wären gute Kandidaten), oder völlig löschen, wenn Sie sich darauf verlassen, daß sich die Server an die Spielregeln halten (was die meisten ohnehin tun), und so möglicherweise etwas Performance gewinnen wollen.

---

Falls nicht gesetzt, eventuell ein Standardparameter, auf den ersten Blick, würde ich sagen, das dort das Problem liegen könnte.

Gruß

Terran

Link zu diesem Kommentar
Auf anderen Seiten teilen

:marine

Es funktioniert (fast)!!!

Musste den Eintrag hierarchy_stoplist cgi-bin ? auskommentieren, da diese Seiten auch vom Eltern-Proxy geholt werden müssen (bei uns).

Jetzt hab ich nur noch Probleme mit Seiten, die einen '_' beinhalten... Habe da auch schon einen Ansatz für eine Lösung, jedoch müsste ich den Squid dafür neu compilieren. Hat jemand vielleicht eine Lösung, ohne Compilierung??

Link zu diesem Kommentar
Auf anderen Seiten teilen

Original geschrieben von KimH

:marine

Es funktioniert (fast)!!!

Jetzt hab ich nur noch Probleme mit Seiten, die einen '_' beinhalten... Habe da auch schon einen Ansatz für eine Lösung, jedoch müsste ich den Squid dafür neu compilieren. Hat jemand vielleicht eine Lösung, ohne Compilierung??

Schön, hat mein Ansatz ja sogar was gebracht,

die andere Frage, leider keine Ahnung.

Link zu diesem Kommentar
Auf anderen Seiten teilen

Dein Kommentar

Du kannst jetzt schreiben und Dich später registrieren. Wenn Du ein Konto hast, melde Dich jetzt an, um unter Deinem Benutzernamen zu schreiben.

Gast
Auf dieses Thema antworten...

×   Du hast formatierten Text eingefügt.   Formatierung wiederherstellen

  Nur 75 Emojis sind erlaubt.

×   Dein Link wurde automatisch eingebettet.   Einbetten rückgängig machen und als Link darstellen

×   Dein vorheriger Inhalt wurde wiederhergestellt.   Editor leeren

×   Du kannst Bilder nicht direkt einfügen. Lade Bilder hoch oder lade sie von einer URL.

Fachinformatiker.de, 2024 by SE Internet Services

fidelogo_small.png

Schicke uns eine Nachricht!

Fachinformatiker.de ist die größte IT-Community
rund um Ausbildung, Job, Weiterbildung für IT-Fachkräfte.

Fachinformatiker.de App

Download on the App Store
Get it on Google Play

Kontakt

Hier werben?
Oder sende eine E-Mail an

Social media u. feeds

Jobboard für Fachinformatiker und IT-Fachkräfte

×
×
  • Neu erstellen...