• Willkommen im Linux Club - dem deutschsprachigen Supportforum für GNU/Linux. Registriere dich kostenlos, um alle Inhalte zu sehen und Fragen zu stellen.

[TIP] Sitecopy - Automatisierter Homepage Upload

Welche Datei ist schon hochgeladen, welche ist verändert worden? Je Grösser die Homepage wird umso mehr Arbeit steckt dahinter.

Wenn ihr so wie ich statische Seiten auf euren Computer habt ist dies genau das richtige Programm dafür !

hier ein kurzer man Eintrag

Code:
DESCRIPTION
       sitecopy is for copying locally stored web sites to remote web servers.
       A single command will upload files to the  server  which  have  changed
       locally,  and  delete  files  from  the  server which have been removed
       locally, to keep the remote site synchronized with the local site.  The
       aim  is to remove the hassle of uploading and deleting individual files
       using an FTP client.  sitecopy will also optionally try to  spot  files
       you move locally, and move them remotely.

       FTP,  WebDAV  and  other  HTTP-based  authoring  servers (for instance,
       AOLserver and Netscape Enterprise) are supported.


Installatiion

Installiert euch mittels APT Sitecopy

Code:
apt install sitecopy

Einrichten

Öffnet als User eine Konsole in eurem /Home Verzeichniss
und gebt diese drei Befehle ein:

Code:
touch .sitecopyrc
Code:
chmod 600 .sitecopyrc
Code:
mkdir -m 700 .sitecopy

Ihr habt nun eine Datei und einen Ordner angelegt mit den richtigen Rechten dazu !

Als nächstes muss noch die Datei .sitecopyrc editiert werden.
Nehmt euch euren Lieblingseditor und tragt dann dort alles wichtige ein :

Code:
site urbanswelt                                           # Beispielbname kann beliebig heissen, Wichtig für Befehl
   server ftp.deinedomain.de                       # Der FTP-Server deiner Domain
   username dein_Login_Name                  # Dein FTP Loginname
   password dein_FTP_PAsswort               # Mein FTP Passwort
   local /home/lurban/websites/localhost/    # Das locale Verzeichniss wo deine Page liegt
   remote /                               # Die Seiten müssen in dieses Verzeichnis auf dem Server

Die Verzeichnisse abgleichen

Es gibt drei Arten wie man Anfängt

1: Die Dateien sind lokal und auf dem Server gleich aktuell oder weder lokal noch auf dem Server sind Dateien vorhanden.

dann greift dieser Befehl der euch die Seiten als gleich markiert:

Code:
sitecopy -c urbanswelt

2: Die Dateien auf dem Server sind aktueller.
Dieser Befehl um zu schauen welche dateien auf dem Server liegen.
Code:
sitecopy -f urbanswelt

Und zum abgleich mit dem lokalen dieser Befehl. (läd euch das aktuelle in eure verzeichniss)
Code:
sitecopy -o -s urbanswelt

3: Ein leere Server oder dieser soll geleert werden, alle Seiten sind lokal vorhanden.

Code:
sitecopy -f urbanswelt

sitecopy -o -u urbanswelt

Ich hatte die erste Variante, einmalig diesen Befehl eintragen in einer Konsole und fertig !

Wenn ihr nun wieder was geändert habt auf euren Seiten braucht ihr nur diesen Befehl in die Konsole eintragen und alles geht automatisch ;)


Code:
sitecopy -o -u urbanswelt

Ihr könnt auch mehrere Webverzeichniss abgleichen man muss nur die Konfig datei .erweitern !

hier noch ein Link falls ihr etwas ausschliessen müsst an Dateien oder Verzeichnissen:

http://www.linux-club.de/viewtopic.php?t=45324&highlight=sitecopy

edit: Im übrigen war GFTP damit überfordert das stiegt schon mit 428 Seiten aus und stürzte ab ;D ... allein nur beim uploaden jedesmal ...
 
OP
U

urbanswelt

Member
Da hast du recht .... aber eventuell zu Technisch für andere ;D

Versuche ja immer Windowsparallelen aufzudecken (abzudecken) mit Linux Anwendungen ;)
 
Oben