• Willkommen im Linux Club - dem deutschsprachigen Supportforum für GNU/Linux. Registriere dich kostenlos, um alle Inhalte zu sehen und Fragen zu stellen.

htaccess + webcrawler

nbkr

Guru
Erstell einfach ne robots.txt - die "legalen" Suchmaschinen halten sich dran. Mit .htaccess kannst Du das wahrscheinlich auch machen ist aber bestimmt 3x so kompliziert.
 
OP
S

somnambulist

Newbie
ja, die robots.txt ist mir bekannt. ich wollte nur wissen, ob ich meinen bereits bestehenden htaccess-schutz für normale user noch irgendwie besonders für webcrawler anpassen müsste oder nicht.
ich dachte mir halt: crawler benutzen auch http(?), htaccess ist
eine http-authentifikation => crawler können meinen ordner trotz verlinkung nicht indexieren :) lieg ich da richtig?

( es handelt sich um ein nicht-öffentliches user-forum, dessen html-verzeichnis mit den postings ich per
htaccess gesperrt habe)
 

panamajo

Guru
somnambulist schrieb:
( es handelt sich um ein nicht-öffentliches user-forum, dessen html-verzeichnis mit den postings ich per
htaccess gesperrt habe)
Öhm ... wenn das Forum nicht-öffentlich ist (man also nur mit Login & PW reinkommt) dann hat der Robot ja nicht viel zu indizieren (ausser er kennt ein Login), oder?
 
Oben