1.1Wie Suchmaschinen funktionieren
Ohne Suchmaschinen wäre das Internet kaum vorstellbar. Suchmaschinen, wie Google, sind riesige Datenspeicher, die alle von ihnen indexierten Webseiten speichern, auch über Jahre hinweg und meist sogar mit allen Versionen einer Webseite. Mit ein paar Tricks lassen sich sogar früher erstellte und von Google archivierte Webseiten anzeigen.
Die Ursache dafür, warum es in diesem Buch hauptsächlich um Google geht, liegt auf der Hand. Google ist und bleibt die größte und wichtigste Suchmaschine der Welt für Webseiten. Keine andere konnte sie bisher einholen. Trotzdem sollte man die Entwicklung der anderen Suchmaschinen im Auge behalten. Yandex z. B ist eine Suchmaschine in Russland. China und Indien sind zwei große Staaten, und wer weiß, was sich die beiden einfallen lassen, um Google den ersten Rang streitig zu machen. Eine Übersicht der meistverwendeten Suchmaschinen zeigt die Machtverhältnisse dennoch deutlich auf:
STAND OKTOBER 2015 (QUELLE: SEO-UNITED.DE ) |
Verwendete Suchmaschinen | Anteil |
Google | 96.16 % |
Bing | 2.43 % |
Yahoo | 1.03 % |
Ask.com | 0.15 % |
T-Online | 0.12 % |
AOL | 0.10 % |
Yandex | 0.06 % |
Google ist mit knapp 97 Prozent die beliebteste Suchmaschine weltweit. Auch wenn es, wie schon gesagt, nicht sicher ist, wie es sich in China verhält. Unstrittig ist daher, für welche Suchmaschine die WordPress-Seite optimiert werden muss. Seltsam und geheimnisvoll ist die Tatsache, dass die eigene Webseite nur bei Google angemeldet werden muss, um auch mit anderen Suchmaschinen gefunden zu werden. Ausnahmen sind ausländische bzw. nicht internationale Suchmaschinen, die nur nationale Webseiten indexieren.
TIPP: GOOGLE-ANMELDUNG IST PFLICHT
Eine Anmeldung bei Google ist ein Muss. Melden Sie Ihre komplett optimierte Webseite über www.google.com/submityourcontent bei Google an.
Nach eigenen Angaben schätzt Google seine bereits indexierten und gecrawlten Webseiten auf mehrere Billionen. Man kann aber sicher davon ausgehen, dass Milliarden und nicht Billionen gemeint sind. Ein Fehler, der sich oft einschleicht, wenn die englische Billion ins Deutsche übersetzt wird. In der Realität dürften es locker einige hundert Milliarden sein. Um die Zahl etwas zu verdeutlichen: Google meint damit neben allen neuen auch alte Webseiten, Unterseiten von Webseiten, Blogs und Dokumente sowie Bilder und andere Inhalte.
Veröffentlichte Webseiten werden in der Regel von den Suchmaschinen auch ohne Anmeldung gefunden. Eine Anmeldung bei Google oder Bing ist nicht zwingend nötig, aber unbedingt empfehlenswert. Alle Suchmaschinen verwenden für das Finden und Indexieren von Webseiten einen Webcrawler, auch Googlebot oder BOT im Allgemeinen genannt. Bots sind Programme, die die Datenbanken der Suchmaschinenbetreiber durchlaufen und alle Webseiten und Kataloge auf deren Inhalte untersuchen. Die Folge eines Crawlings mit einem BOT ist letztlich die Indexierung der Webseite und deren Platzierung bei den Suchabfragen. Das Tolle ist, dass man dem BOT mitteilen kann, wie oft er Ihre Webseite besuchen soll und nach welchen Inhalten er suchen muss. Andere Suchmaschinen, wie Bing, crawlen Webseiten ebenfalls mit ihren eigenen Crawlern. Nur am Rande: Sie können in WordPress relativ leicht feststellen, welcher BOT gerade auf Ihrer Webseite ist. Mit dem Plug-In Visitor Maps and Who‘s Online werden alle aktuellen Besucher angezeigt. Wie das aussehen kann, sehen Sie in der nächsten Abbildung.
Bild 1.1: Besucher- und BOT-Ansicht über das Plug-In Visitor Maps
Mit diesem schönen Plug-In lässt sich die Ansicht mit und ohne BOTs einstellen. Außerdem werden bei referenzierten Seiten auch die Referrer angezeigt. Ein Referrer ist die Internetadresse der Webseite, von der der Benutzer durch Anklicken eines Links zu der aktuellen Seite gekommen ist (englisch to refer, verweisen). Beim Abruf der Seite wird der Referrer an den Server, der die Seite bereitstellt, übermittelt. Das Plug-In bietet in seiner einfachen Konfiguration viele Informationen über aktuelle und vergangene Besucher und vieles mehr.
Für die organische Suche (Suchergebnisse ohne Werbung) setzen Google, Bing, Ask und andere Algorithmen ein. Algorithmen sind Programme bzw. Programmabläufe, die anhand bestimmter Faktoren eine indexierte Webseite aufgrund der Suchabfrage durchsuchen und ein Ergebnis zurückliefern.
Ein Faktor ist der PageRank. Der PageRank ist die Messung, wie viele Links von der Webseite auf eine andere Webseite bzw. auf ein anderes der Öffentlichkeit zugängliches Verzeichnis zeigen.
Dabei spielt die Qualität eines Links eine bedeutende Rolle. Der Googlebot erkennt qualitativ schlechte Links, sogenannte SPAM-Links, und wertet die Seite daraufh in ab. Es ist also nicht nur wichtig, externe Links auf der Seite zu haben, sondern gute, sinnvolle Links.
Der Google-Algorithmus
In regelmäßigen Abständen führt Google ein Update seiner Algorithmen durch. Für Webdesigner ist es daher sehr wichtig, auf dem aktuellen Stand zu sein, denn Google verbessert kontinuierlich seinen Algorithmus.
Das letzte Update, mit der Bezeichnung Penguin1, wurde im Oktober 2014 veröffentlicht. Was ist das Ziel des Updates? Der Algorithmus Penguin ist Googles Reaktion auf manipulatives Linkbuilding, aufgrund dessen die Platzierungen durch die Suchmaschine seit Jahren ungenau und nicht richtig erfolgten. Unter Linkbuilding versteht man die Links, die von der eigenen Webseite auf andere Webseiten oder generell zu anderen Inhalten verlinkt werden. Linkbuilding ist ein Teil der Offpage-Optimierung. Links, die von anderen Inhalten bzw. Webseiten auf die eigene Webseite zeigen, nennt man Backlinks. Die Qualität der Backlinks war zweifelhaft und diente oft nur dem Zweck, das Ranking, aber nicht die Qualität der Webseite zu verbessern. Seit diesem Update straft Google Webseitenbetreiber, die mit gekauften oder getauschten Links das Ranking verbessern wollten, ab. Unter Umständen kann dies zu einer kompletten Abstufung der Webseite führen. Google vertraut der Domain dann nicht mehr und der Betreiber verliert Traffic und wird wesentlich schlechter platziert. Google will damit eine höhere Qualität des Backlink-Profils erzeugen und den Druck auf die Seitenbetreiber erhöhen, qualitativ hochwertige Backlinks zu verwenden.
Im Juli 2015 wurde das Google Update Panda Version 4.22 veröffentlicht. Panda ist kein Update des Algorithmus, sondern ein sogenannter Daten-Refresh. Bei einem Daten-Refresh wird über alle von Google indexierten Webseiten ein Filter angewendet und Webseiten mit schlechter Content-Qualität werden abgewertet. Danach erfolgt eine Aktualisierung der...