#5 HTACCESS & robots.txt
htaccess in Zusammenhang mit dem mod_rewrite des Apache sorgt für individtelle gut lesbare Adressen. Dieser Punkt ist absolut empfehlenswert. Mit diesen Einstellungen erhält man neben schönen URLs auch noch eine Möglichkeit doppeltem Content vorzubeugen. Also die htaccess.txt in .htaccess umbenennen und im Backend "Suchmaschinenfreundliche URLs: Ja" "mod_rewrite nutzen: Ja" setzen.
Unterhalb der Zeile:
RewriteEngine On
Einfach folgendes ergänzen:
RewriteCond %{HTTP_HOST} !^www\.ihre-domain\.de$ [NC]
RewriteRule ^(.*)$ http://www.ihre-domain.de/ [R=301,L]
Somit werden alle Anfragen die ohne www an ihre Seite kommen so umgeschrieben das das www mit dabei steht.
Die robots.txt wird auch von Joomla selbst mitgebracht. Hier wird geregelt welche Adressen gecrawlt werden sollen und welche nicht. Empfehlenswert ist es hier die Adresse der XML Sitemap hinzuzufügen.
SITEMAP: http://www.ihre-domain.de/sitemap.xml
Sollten Sie eine Erweiterung wie Xmap nutzen, muss dort die entsprechende xmap url eingetragen werden, oder Sie generieren sich eine eigene mit dem XML Sitemap Generator und laden diese in das Root-Verzeichnis ihrer Webseite.
Unablässig ist es diese XML Datei bei Google und Bing in den Webmastertools anzumelden.
#6 Cache und GZip
Ebenso wichtig wie eine logisch strukturierte Webseite ist eine schnelle Webseite. Das sehen nicht nur die Besucher so, sondern auch die Suchmaschinen. Hierbei empfielt sich in der Konfigutation der Webseite die "GZIP-Komprimierung" und den "Cache" zu aktivieren. GZIP veringert das zu übertragende Volumen enorm und durch den Cache muss die Seite nich generiert werden, sondern liegt fertig auf dem Server. Darüber freut sich Google.