Dienstag, 3. Dezember 2013

Tag 12/ Teil 2 Google Webmaster Tool

Oder: Wie bekomme ich eine Webseite nach meiner Keywordanalyse auf die Beine?


Nach der Aufwärmphase heute morgen ging es zügig weiter mit der Anwendung verschiedener Tools zur Erstellung meiner Webseite. Mir rauchte der Kopf und zwischen Mitschreiben und Mitklicken blieb kaum Zeit für Reflektion.

Domainname: Wir entscheiden uns für einen Domainnamen und prüfen mit Hilfe des Tools, ja, noch ein Tool, checkdomain.de, ob der gewünschte Domainname noch verfügbar ist. Dabei wissen wir bei der Wahl der Endungen (.de, .eu, .net, .com etc.) nicht, wie sich Google dazu äussert.

Die Domain ist evaluiert und wir suchen uns jetzt ein Hosting-Paket, das uns die Domain hostet, Speicher auf seinem Server bereit stellt, für backups sorgt und Datenbanken anlegt und vieles mehr. Ralf empfiehlt uns www.strato.de. Bei dem Package ist wichtig der Domainname, muss PHP (für CMS), Datenbanken und 1 FTP bereitstellen.

Wordpress unbedingt selber auf eigene Domain herunterladen und nicht als Package bei Strato oder einem anderen Anbieter buchen. Vorgefertigtes ist nicht gut für die Suchmaschine!

Eine wichtige Datei im Wordpress ist die wp-config-sample.php Datei. In dieser Datei kann man bei den "define" commands Schlüssel für mehr Sicherheit einbauen.

Wenn die Webseite fertiggestellt ist, arbeiten wir mit dem kostenlosen Webmaster Tool von Google.
Wenn wir unsere Webseite in Webmaster hinzufügen wollen, kopieren wir nach dem Anmelden diesen Meta tag (alternative Methoden, HTML tag) in unseren Blogger (Vorlage, HTML) in den header:

<meta content='G7Bhp7xHRLJeDjb9gMgf7KUs6x-9zlidJPSw3DR-YXU' name='google-site-verification'/> 

Nach der Bestätigung im Webmaster Tool, kann unsere Webseite getrackt werden.

Drei wichtige Dateien, die zur online Optimierung gehören. Diese müssen wir im Texteditor erstellen und im Hauptverzeichnis meiner Domain ablegen.
  1. sitemap.xml: dies ist sozusagen die "Speisekarte" für den Crawler. Die Sitemap.xml hilft dem Crawler die Webseite schneller auszulesen. Die Sitemap erstellen wir im xml-sitemaps.com. Die xml file ist das Inhaltsverzeichnis für den Crawler und die html file für den User. 
  2. robots.txt: sagt dem Crawler, wo er hingehen darf. Hier legen wir fest ob und wie die Webseite von einem Crawler besucht werden darf.
  3. .htaccess: für die Weiterleitung meiner domain von domainname.de zu www.domainname.de oder umgekehrt um keinen doublicate content zu haben. Dazu schreibe ich in eine textdatei folgenden Code und lege ihn im Hauptverzeichnis meiner Domain ab.   
RewriteEngine On
Options +SymLinksIfOwnerMatch
RewriteCond %{HTTP_HOST} ^domain.de
RewriteRule (.*) http://www.domain.de/$1 [R=301,L]







Keine Kommentare:

Kommentar veröffentlichen