• Willkommen im Linux Club - dem deutschsprachigen Supportforum für GNU/Linux. Registriere dich kostenlos, um alle Inhalte zu sehen und Fragen zu stellen.

Squid macht einige Internetseiten nicht auf

johann8

Newbie
Hi,

- Suse 9.0 installiert
- Susefirewall2 installiert
- Squid 2.5 als proxy-Server eingerichtet

folgendes Problem:

Squid macht einige Webseiten nicht auf z.B google.de. Google.com laesst sich aufrufen. Und es gibt auch ein paar Seiten, die nicht abrufbar sind.
Die genannten Seiten lassen sich ohne weiteres anpingen
mit ping google.de, mit dig google.de wird sie auch richtig aufgeloest. Das Problem taucht mit Firewall oder ohne auf. Ohne Squid funzen alle Seiten. Hat einer eine Idee, woran es liegen kann?

Danke

PS. Die Fehlermeldung sieht dann so aus:
The requested URL could not be retrieved

While trying to retrieve the URL: http://www.google.de/

The following error was encountered:

* Connection Failed

The system returned:

(110) Connection timed out

The remote host or network may be down. Please try the request again.

Your cache administrator is webmaster.
Generated Mon, 07 Feb 2005 15:09:29 GMT by ******(squid/2.5.STABLE5)
 
OP
J

johann8

Newbie
hi

leider nicht. Getestet habe ich mit Mozilla firefox und IE6. Cache leer gemacht und auf minimum gestellt. Eine Kiste, die direkt am Router zum Testen angeschlossen ist funzt einwandfrei. Ich habe getestet in resolf.conf mit der Ip-Adresse des Routers und dannach mit Ip-Adresse des DNS-Servers von Telekom - ohne Erfolg und die Auflösung geht ohne Probleme. Ich vermute, es liegt an Routingstabelle, aber ich habe alle mögliche Variante getestet ohne Erfolg. Jetzt sind bei mir nur die Dafault route auf den Router und jewals einr Route für die Ethernet-Schnittstelle gesetzt.
Mein Netzwerk sieht so aus:
DSL-Router(isp=Telekom) 192.168.8.1/24
|
|
|
Firewall mit Squid 192.168.8.20/24 192.168.1.1/24
|
|
LAN 192.168.1.0/24

Was ich noch ohne Erfolg getestet habe, ist die statische Route auf dem Router ins 192.168.1.0 Netz
Woran liegt es? :?:
 
Oben