Mit der Datei robots.txt kann man Suchmaschinen mitteilen, ob und wo sie suchen dürfen – Siehe hierzu auch den Wikipedia-Artikel. Für den einfachsten Fall, dass man alle Suchmaschinen auf alle Verzeichnisse und Dateien loslassen möchte, schreibt man ganz einfach: User-Agent: * Disallow: Bei der Umsiedelung meines Webspaces zu einem neuen Hosting-Provider wollte ich auch gleich […]
Archiv der Artikel die mit robots.txt getagged sind.
Suchmaschinenoptimierung – Basisarbeiten
Unabhängig von den Optimierungstipps bei der Gestaltung der einzelnen Wegseiten gibt es auch eine Reihe von Basisarbeiten zum besseren Ranking in Suchmaschinen, allen voran natürlich Google. Die folgenden Punkte sind dabei als Checkliste zu verstehen: robots.txt sitemap.xml Google-Webmaster-Tools [Blog anmelden] Was es unbedingt zu vermeiden gilt, ist Duplicate Content (Informationen zur Verhinderung tun).