Suchmaschinen Optimierung - XML Sitemap

Um den Google Crawler Bots das Durchsuchen deiner Seite einfacher zu machen gibt es XML Sitemaps. Diese dienen dem Bot als Index / Auflistung aller existierenden Unterseiten einer Webseite. Ein Eintrag einer Unterseite könnte etwa so aussehen:

   <url>

      <loc>http://www.example.com/</loc>

      <lastmod>2005-01-01</lastmod>

      <changefreq>monthly</changefreq>

      <priority>0.8</priority>

   </url>

Mehr Infos zum Format dieses Dateityps findet ihr auf sitemaps.org.

Zur Erstellung ebendieser gibt es eine ganze Palette von Tools - online wie auch offline. 
Ich habe meine Sitemaps mit dem GSiteCrawler erstellt. Dieses Tool mag schon etwas älter sein und auf den ersten Moment ziemlich unübersichtlich aussehen, macht aber genau das was es soll und dies ziemlich gut.

1. Donwload und Installation von GSiteCrawler 2.
2. GSiteCrawler öffnen
3. Neues Projekt für die gewünschte Webseite erstellen
4. Sobald die Crawler wieder im Leerlauf sind eine Google Sitemap Datei erstellen
5. Das XML Sitemap ins root Verzeichnis der Webseite hochladen
6. In Google Webmaster Tools die Sitemap URL hinzufügen
7. In der robots.txt Datei folgende Zeile hinzufügen:
Sitemap: <sitemap-url>

Und das wars auch schon. Natürlich muss die Sitemap Datei regelmässig aktualisiert werden.

Weitere Informationen

3 Ways to Use Google Webmaster Tools to Increase Search Engine Traffic

Labels: , ,