Antworten auf deine Fragen:
Neues Thema erstellen

robot.txt

fakerer

Aktives Mitglied

Hallo,
hätte eine Frage,
ist es Möglich das trotz
User-agent: *
Disallow: /

im root Verzeichnis

zb Pdfs aus Unterverzeichnissen in Google gefunden werden können?
 

Duddle

Posting-Frequenz: 14µHz

Du weist den Bots an, deine komplette Seite zu ignorieren. Vergiss nicht, dass es nur ein "Wunsch" ist, schlecht programmierte oder böswillige Programme können die Seite trotzdem crawlen.


Duddle
 

fakerer

Aktives Mitglied

Hmm,
und was könnte, sollte man dagegen tun?
Kann man den Zugriff irgendwie nur auf den localhost beschränken, das das man die Files nur über ein srcipt aufrufen kann?
 

Duddle

Posting-Frequenz: 14µHz

Alles was ein Nutzer der Seite machen kann, kann ein Programm ebenfalls. Wenn ich als Nutzer dein Download-Script aufrufen kann und so zu einer Datei komme, kann das ein Programm ebenfalls.
Wenn du hingegen einen Login-Bereich hast und nur bestimmten Leuten den Zugriff gewährst, sperrst du alle anderen aus (solange sie nicht das Passwort kennen).


Duddle
 

fakerer

Aktives Mitglied

danke,
bedeutet das also
im apache allow from 127.0.0.0 für das verzeichnis einzustellen (localhost ip)
und einen logingeschützen bereich über den man dann über ein script die daten aus dem geschützen ordner bekommt
 

Duddle

Posting-Frequenz: 14µHz

Wenn der Bereich sowieso passwortgeschützt ist, brauchst du kein Download-Script (solange du den Bereich korrekt versiegelst).


Duddle
 

Duddle

Posting-Frequenz: 14µHz

Zum Beispiel über einen Verzeichnisschutz mit . Alternativ könntest du jeden Zugriff auf das Verzeichnis bzw. einen Dateityp darin auf ein Script umleiten, welches die Autorisierung prüft (z.B. mit Cookies).


Duddle
 

fakerer

Aktives Mitglied

Hallo,
vielen Dank für eure Antworten,
ich will das nur bestimmte Server Zugriff auf Dateien (Bilder) auf einem Webserver in einem bestimmten Verzeichnis haben.

Habe das ganze nun so gelöst das ich das Verzeichnis in der vhost config vor allen zugriffen bis auf den localhost schütze.
Und um den Zugriff für die andren zu ermöglichen hab ich einen filehandler dem ich eine fileid und einen hashwert übergebe.
Passen id und hash zusammen liefere ich über das script das Bild aus.

Habe eben auch noch ein wenig in den Google Webmastertools gestöbert dort steht doch glatt man soll die robot.txt verwenden, um das auffinden zu verhindern, aber die wurde ja anscheinend von google nicht wirklich beachtet.
 
Bilder bitte hier hochladen und danach über das Bild-Icon (Direktlink vorher kopieren) platzieren.
Antworten auf deine Fragen:
Neues Thema erstellen

Willkommen auf PSD-Tutorials.de

In unseren Foren vernetzt du dich mit anderen Personen, um dich rund um die Themen Fotografie, Grafik, Gestaltung, Bildbearbeitung und 3D auszutauschen. Außerdem schalten wir für dich regelmäßig kostenlose Inhalte frei. Liebe Grüße senden dir die PSD-Gründer Stefan und Matthias Petri aus Waren an der Müritz. Hier erfährst du mehr über uns.

Stefan und Matthias Petri von PSD-Tutorials.de

Nächster neuer Gratisinhalt

03
Stunden
:
:
25
Minuten
:
:
19
Sekunden

Neueste Themen & Antworten

Flatrate für Tutorials, Assets, Vorlagen

Zurzeit aktive Besucher

Statistik des Forums

Themen
118.616
Beiträge
1.538.358
Mitglieder
67.536
Neuestes Mitglied
QuestionMark
Oben