Free-J Geschrieben 27. Februar 2001 Geschrieben 27. Februar 2001 Hi hab ja wie bekannt nen Linuxrouter + squid/dns caching.. Naja was bringt's Perfomancemäßig ? Gibt es irgendwo Meßprogramme ? (mit oder ohne Proxy ?)
2-frozen Geschrieben 28. Februar 2001 Geschrieben 28. Februar 2001 Öhm, das leider nicht, aber kannst du mich in dem zusammenhang mal über DNS-Caching aufklären? habe häufiger DNS Probs .. benutze jedoch nur reines Masquerading, also keinen Proxie! Gruß und thx, 2-frozen
Free-J Geschrieben 28. Februar 2001 Autor Geschrieben 28. Februar 2001 "mehrfache" Anfragen zum Nameserver des Provider werden nicht weitergeleitet, sondern in einem "Cache" bewahrt" und dort vorreserviert. Wenn ich z.Bsp. x-mal yahoo.de eingebe, werden die dazugehörigen IP's nicht beim Provider/Root_server angefragt. Sondern dein DNS-Cache wird zuerst verwendet.. naja so irgendwie Ihr kennt nicht zufällig Programme, wo ich mein "Rechner" unter Last setzen kann ? (50 -100 requests ?) evtl ein skript unter linux ?
DevilDawn Geschrieben 1. März 2001 Geschrieben 1. März 2001 user@host > ulimit -u 256 user@host > while true; do wget -b [url="http://www.domain.de/some/url.html"]http://www.domain.de/some/url.html[/url] ; done Der ulimit-Befehl zeigt dir wieviele Prozesse dein Benutzer starten darf. wget holt eine Datei aus dem Web. Vorsicht, das Teil startet sehr schnell die 256 Prozesse und sobald einer fertig ist kommt der nächste dran... bis du Abbrichst.
2-frozen Geschrieben 1. März 2001 Geschrieben 1. März 2001 Das mit dem DNS-Cache klingt nach der Lösung für meine Probleme.- Kann ich das auch so aktivieren? Oder muß ich nen Proxy oder ähnliches nutzen? Weiß allerdings nicht, ob vom DNS-Problem nur die Windows-Cliebnts oder auch schon der Linux-Rechner betroffen ist. Bei beiden sind 2 DNS-Server von T-Offline eingetragen. Wie gesagt, ich nehme nur masquerading! Gruß, 2-frozen
Free-J Geschrieben 1. März 2001 Autor Geschrieben 1. März 2001 hmm Wozu gibt es Suchmaschinen ? http://www.belwue.de/wwwservices/hilfestellungen/ulm/pingu/dns_conf.htm
2-frozen Geschrieben 1. März 2001 Geschrieben 1. März 2001 <BLOCKQUOTE><font size="1" face="Verdana, Arial, Helvetica">Zitat:</font><HR>Original erstellt von Free-J: hmm Wozu gibt es Suchmaschinen ? http://www.belwue.de/wwwservices/hilfestellungen/ulm/pingu/dns_conf.htm
Free-J Geschrieben 2. März 2001 Autor Geschrieben 2. März 2001 >user@host > ulimit -u256user@host > while >true; do wget -b >http://www.domain.de/some/url.html ; done du meinst get nicht wget ! (fall es jemand nachahmen möchte )
DevilDawn Geschrieben 3. März 2001 Geschrieben 3. März 2001 <BLOCKQUOTE><font size="1" face="Verdana, Arial, Helvetica">Zitat:</font><HR>Original erstellt von Free-J: du meinst get nicht wget ! (fall es jemand nachahmen möchte )
Free-J Geschrieben 4. März 2001 Autor Geschrieben 4. März 2001 hab'S heute ausprobieren wollen ..nix da ! was macht der Befehl wget (so ein http-befehl ???) ? und auf welchem system/distri arbeitest du ? (benutze rh7/debian/s7.1) danke für die bisherige hilfe
DevilDawn Geschrieben 5. März 2001 Geschrieben 5. März 2001 <BLOCKQUOTE><font size="1" face="Verdana, Arial, Helvetica">Zitat:</font><HR>Original erstellt von Free-J: hab'S heute ausprobieren wollen ..nix da ! was macht der Befehl wget (so ein http-befehl ???) ? und auf welchem system/distri arbeitest du ? (benutze rh7/debian/s7.1)
Empfohlene Beiträge
Erstelle ein Benutzerkonto oder melde Dich an, um zu kommentieren
Du musst ein Benutzerkonto haben, um einen Kommentar verfassen zu können
Benutzerkonto erstellen
Neues Benutzerkonto für unsere Community erstellen. Es ist einfach!
Neues Benutzerkonto erstellenAnmelden
Du hast bereits ein Benutzerkonto? Melde Dich hier an.
Jetzt anmelden