Antworten auf deine Fragen:
Neues Thema erstellen

Websites/Blogs speichern

msblacky

Helper

AW: Websites/Blogs speichern

Hallo,

ja klar kannst Du das, speichere einfach die Zip-Datei und entpacke sie, dann hast Du alles offline. Für evtl. Sites benutze ich WinHTTrack zum runterladen.

msblacky

du must evtl. noch ein paar Einstellungen anpassen und das meiste funktioniert dann auch, einfach mal die einzelnen Punkte ansehen.
 
Zuletzt bearbeitet:

Fidelis_jpg

Aktives Mitglied

AW: Websites/Blogs speichern

Hallo, was du suchst ist glaube ich eine Funktion wie wget.
Diese Funktion speichert dir alles ab, folgt Links und spiechert auch diese ab.
Funktioniert top, allerdings nur unter Linux.
Da gibst du in die Konsole

Code:
wget http://beispiel.de/

ein und dann wird ordentlich geladen. Je nach Umfang der Seite dauert das entsprechend lange.
Funktioniert sehr gut, Links werden auf lokale Adressen umgeschrieben, Javascripts usw. werden übernommen.
Also mit Linux geht das so.
Mit Windows geht das nicht, aber du kannst die cygwin installieren, das ist ein Linux-Terminal-Emulator.
Grüße, Fidelis
 

PatrickStar

Jenni's Sohn

na dann hol ich mir mal wieder Linux ;)

hat leider nicht ganz funktioniert, da die Verknüpfungen falsch sind. Wenn man sie von Linux umschreiben lässt stimmen sie nichtmehr unter Windows.
 
Zuletzt bearbeitet von einem Moderator:

Fidelis_jpg

Aktives Mitglied

AW: Websites/Blogs speichern

na dann hol ich mir mal wieder Linux ;)

hat leider nicht ganz funktioniert, da die Verknüpfungen falsch sind. Wenn man sie von Linux umschreiben lässt stimmen sie nichtmehr unter Windows.

Also bei mir geht das. Ich habe zB mal eine Physik-Lern-Seite in Linux runtergeladen und dann einfach den ordner auf meinen iPod kopiert.
Die Links und Bilder usw. werden eigentlich alle für den lokalen Browser optimiert. Solange man daran ncihts verändet, sollte es eig. passe.
Was natürlich noch sein könnte, ist, dass man noch ein -x dranhängen muss.
Also zB
Code:
wget http://bla.de/index.html -x
-x kann dann zB -m -f -t usw. sein , also so Optionen. Glaube mich zu errinnern, dass es da noch was gab, was man eingeben musste, damit am nde alles kompatibel ist, weiß das jetzt allerdings nicht mehr genau.
Wenn du dich noch etwas geduldest, frage ich mal meinen Linux-kontaktmann! :D
Grüße
 

PatrickStar

Jenni's Sohn

AW: Websites/Blogs speichern

mein Code sah so aus:

[FONT=&quot]wget -r -k -E -l 8 http://example.com [/FONT]

[FONT=&quot][/FONT][FONT=&quot]-r[/FONT][FONT=&quot] sorgt dafür, dass rekursiv bis zu einer Tiefe von 8 ([/FONT][FONT=&quot]-l 8[/FONT][FONT=&quot]) vorgegangen wird.[/FONT]
[FONT=&quot][/FONT][FONT=&quot]-k[/FONT][FONT=&quot] konvertiert die Links, so dass sie lokal funktionieren[/FONT]
[FONT=&quot][/FONT][FONT=&quot]-E[/FONT][FONT=&quot] erzwingt die Endung ".html" für alle Dateien (ist dann nützlich, wenn .php oder .asp Seiten geladen werden)[/FONT]
 
Bilder bitte hier hochladen und danach über das Bild-Icon (Direktlink vorher kopieren) platzieren.
Antworten auf deine Fragen:
Neues Thema erstellen

Willkommen auf PSD-Tutorials.de

In unseren Foren vernetzt du dich mit anderen Personen, um dich rund um die Themen Fotografie, Grafik, Gestaltung, Bildbearbeitung und 3D auszutauschen. Außerdem schalten wir für dich regelmäßig kostenlose Inhalte frei. Liebe Grüße senden dir die PSD-Gründer Stefan und Matthias Petri aus Waren an der Müritz. Hier erfährst du mehr über uns.

Stefan und Matthias Petri von PSD-Tutorials.de

Nächster neuer Gratisinhalt

03
Stunden
:
:
25
Minuten
:
:
19
Sekunden

Flatrate für Tutorials, Assets, Vorlagen

Zurzeit aktive Besucher

Statistik des Forums

Themen
118.565
Beiträge
1.538.067
Mitglieder
67.488
Neuestes Mitglied
Andrew56524
Oben