Sicherungs-Backup
Software für Webseiten?

Blog Home

Webseiten Backup?

Confixx Backup ist ausreichend für die meisten Webmaster.

Ein regelmäßiges Webseiten Backup ist unverzichtbar. Braucht der Webmaster für die Sicherung seiner Homepage besondere Software? Für die meisten Seitenbetreiber dürfte die Verwaltungs-Oberflächen wie das Confixx Control Panel ausreichen. Die Sicherung der Webseite erfolgt in zwei Schritten: Einloggen und unter Tools --> Backup die gewünschten Daten (html, files, mail und mysql) durch Klicken auf Übernehmen sichern. In wenigen Minuten werden die Daten in tar.gz Format komprimiert und gespeichert. Die Dateien können anschließend mit dem FTP-Programm aus dem Ordner Backup auf den Computer sowie externe Datenträger gesichert werden. Je nachdem wie oft Webseiten editiert werden, können so beliebig viele Sicherungen angelegt werden. Bei Bedarf werden die Dateien mit einen Zip Programm entpackt um auf den Webserver beschädigte oder korrumpierte Dateien per FTP zu ersetzen. Alternativ kann auch über Confixx die letzte Sicherung über Tools --> Wiederherstellung aus der Quelle /backup übernommen werden.

Bei sehr großen, interaktiv äußerst dynamischen Blogs, Foren und Communities ist eine automatisierte Sicherung der MySQL Datenbank sinnvoll. Durch Installation einer zusätzlichen Backup Software für Webseiten, kann durch individuell festgelegte Sicherungsintervalle das Risiko Datenverlust minimiert werden.

Wer an seiner Datenbank bastelt, sollte Google aussperren.

Webmaster sollten den Googlebot temporär aussperren, während sie mehr oder weniger qualifiziert am Code ihrer Webseiten oder deren MySQL Datenbanken basteln. Bei Homepages die Google bereits kennt, kann dessen Spider im falschen Moment aufschlagen. Die Gefahr ist groß, das so ungewollt falsche Daten in das World Wide Web gelangen. Einmal im Index aufgenommen, können sich ungewollte snippets über Clone massenhaft vervielfältigen. Trotzt Löschung des sichtbaren Google Cache über die Webmastertools, ist eine schnelle Änderung der Login-Daten zwingend angeraten.

MySQL Datenbank Benutzername und Passwort in den Google Serp.

Eine derart peinliche Panne habe in noch nie in den Top 5 der Google Suchergebnisse gefunden. Login Url, Benutzername und Passwort - Die kompletten Zugangsdaten für eine Homepage Datenbank inklusiv Hinweis auf die verwendete CMS Software für jeden Suchenden sichtbar. Ein Login Test bestätigte die Aktualität der Daten. Ich bin kein Black Hat und habe den Inhaber der Domain unverzüglich informiert, ungeachtet der Tatsache, dass ich mich im gleichen Themengebiet um Besucher bemühe.

Infizierte Dateien und korrumpierten Quellcode finden.

Link korrumpierte Dateien in infizierten Webseiten finden.

Kein Webseiten Backup gemacht und die Homepage wurde durch eine Hacker Attacke manipuliert? Wie kann der Webmaster infizierte Dateien im korrumpierten Quellcode finden? Bei großen Projekten sollte sich das manuelle Suchen auf das Aufspüren von markanten Code Schnipsel beschränken. Wurden Links zu Black Hat Domains eingebaut, können mit Xenu Link Sleuth online alle externen Verweise überprüft werden. Die Manipulationen im Quellcode oder in der Datenbank können offline effektiv überprüft und entfernt werden. Backup wie bereits voran beschrieben erstellen, Dateien auf einen lokalen Datenträger speichern und entpacken. Html Editoren haben in der Regel eine Stapelverarbeitung. Mit Suchen und Ersetzen können Ordner komplett auf typische Code oder Script Spuren durchsucht werden. Kennt der Webmaster den Zeitpunkt der Manipulation, sollten auch die Logfiles für diesen Zeitraum überprüft werden, um die Sicherheitslücken möglicher Online-Attacken zu erkennen. Neben einen Direktzugriff auf den Server mit ausspionierten Admin Zugangsdaten sind die Dateien zur Installation und Configuration von CMS Systemen beliebtes Angriffsziel. Die von diesen Systemen geforderte Löschung von Dateien und Ordner oder das Zurücksetzen der zur Installation temporär nötigen CHMOD 777 Rechte wird oft vergessen.
gesendet: Frank (05-12)