SAMSoft Softwareentwicklung Augsburg Startseite

Suchmaschinenoptimierung   Suchmaschinen-Optimierung
  Teil 2

Skills
History
Projects
Team
Links
Contact


Inhalt

SEO - was ist das?
Ausgangsbasis ist eine Liste
Wie ein Searchbot, Webcrawler oder
Spider funktioniert

Die Keystrings im Webauftritt
Einfluss des Designs
Suchmaschinen-Spam
Hidden Text
Cloaking
Doorway Pages
Das Ranking
Das Google™ PageRank™
Abfrage der Linkpopularität
Webverzeichnisse und Branchenportale
Linktausch, PR-Artikel, Sponsoring
Aktualität, Umfang und Traffic
Spamming von Newsgroups, Foren,
Blogs und Guestbooks

Erfolgskontrolle und Transparenz
Vorgetäuschter, künstlicher Traffic
AdWords, AdSense, Yahoo Search Marketing
und das MIVA-Netzwerk

Seiten unter CMS-Verwaltung und Shops
Die Kostenfrage
Gesperrt! Was nun?
Quellen, weitere Links und ein Zauberspruch
Feedback
Anhang: Spezielle Linkfarmen

Die Keystrings im Webauftritt

Es klingt banal, aber eine Suchmaschine kann nichts finden, was nicht da ist. Auch wenn es manchmal schwer fällt, und auch wenn es zu Auseinandersetzungen mit den Webdesignern kommt, die wichtigsten der Schlüsselbegriffe und Keystrings, die zu einem Suchmaschinenlisting führen sollen, müssen in den Webauftritt eingearbeitet werden. Die Begriffe müssen als lesbarer Text in den Webdateien stehen. Keinesfalls sollten die Seiten mit sinnlos aneinandergereihten Suchbegriffen vollgestopft werden (Keyword Stuffing, Strafe droht), sondern sinnvolle Texte und Sätze gebildet werden. Texte innerhalb von Grafiken nützen natürlich auch nichts, sie werden nicht gelesen. Geeignete Orte für das Anbringen von Texten sind:

  • Domainname, Subdomainname
  • Name des Unterverzeichnisses
  • Title-Tag jeder Datei
  • Headlines H1 bis H5
  • Dateiname (der HTML , PHP, etc Datei)
  • Hyperlinks
  • Hervorgehobener Fließtext (italic, bold)
  • Fließtext
  • Metatags
  • Title-Tags von Absätzen, Tabellen, Grafiken, Hyperlinks etc
  • Alternate Text in Grafiken (ALT-Tag)
  • Comments (HTML-Kommentare etc.)
Jede dieser möglichen Positionen wird von den Suchmaschinen unterschiedlich gewichtet. Das heißt, ein Suchbegriff im Fließtext ist sicher nicht so mächtig wie ein sinnvoll verwendeter Suchbegriff im Title-Tag oder in einer Headline. Die Rangfolge der Wertungen wird nicht veröffentlicht und kann auch wechseln. Eine Wertung mit absteigender Relevanz könnte in etwa der oben aufgeführten Liste entsprechen, morgen aber auch schon wieder etwas anders sein. Hier ist schlicht Trial & Error, Versuch und Irrtum angesagt. Nebenbei sollte der SEO vielleicht noch checken, ob das Web syntaktisch einigermaßen in Ordnung ist und keine so groben Fehler enthält, dass den Robots das Keyword Harvesting unnötig erschwert wird. Dafür gibt es auch Online-Tools, zum Beispiel vom W3C.

W3C Validation Service

Einfluss des Designs

Gibt es Faktoren, die schon beim ersten Layout einer Website beachtet werden müssen, um von Suchmaschinen besonders gut gefunden zu werden? Oder anders gefragt: Gibt es Einflüsse des Designs, die eine Aufnahme in die Listen der Suchmaschinen behindern?

Frames
In den meisten Fällen besteht ein Webauftritt aus einem kunstvoll gestalteten Titel, einer Navigationsleiste am Rand und einer Fläche in der Mitte zur Aufnahme von Inhalten. Bis zur Einführung von erweiterten Standards (zB xhtml + css), die zusätzliche Gestaltungsmöglichkeiten eröffneten (und denen man bei einer Neuentwicklung sicherlich den Vorzug gibt), konnte man ein solches Standarddesign nur auf Basis einer Tabelle oder mit Frames umsetzen. Auch heute noch (der Artikel entstand 2005, Anm. d. A.) sind die meisten bestehenden Webpräsenzen in einer dieser beiden Techniken umgesetzt. Die Anhänger der beiden Design-Methoden lieferten sich einen Glaubenskrieg. Frames haben den nicht von der Hand zu weisenden Vorteil, dass die Navigation und der Titel niemals aus dem Scope des Betrachters scrollen. Das Table-Design hat den Vorteil, dass die ganze Seite aus einer Datei geladen wird und es nicht zu Fehlinterpretationen durch Internet-Browser kommt, die mit Frames nicht ordentlich umgehen können. Anders ausgedrückt: Die Vorteile des einen Designs sind jeweils das Nichtvorhandensein der Nachteile des anderen. Diese Seiten hier basieren auf einem Tabellen-Layout.

Aus dem SEO-Blickwinkel wird die allgemeine Lehrmeinung vertreten, dass Frames für die Indizierung durch Suchmaschinen ungünstig sind und deshalb vermieden werden müssen. Manche SEO-Kollegen gehen sogar so weit, dass sie deshalb einen Umbau des Designs verlangen. Das ist schlicht und einfach falsch und wird auch durch das ständige Nachbeten dieser Lehre nicht richtiger. Wir könnten hier aus dem Stegreif mehrere Dutzend Webauftritte aufzählen, die gegenüber ihrem Branchendurchschnitt eine hervorragende Positionierung bei den Suchmaschinen haben und mit Frames aufgebaut sind.

Natürlich ist es erforderlich, auf das spezielle Verhalten und die Architektur von Frames einzugehen. Wie schon erläutert, baut der Searchbot keinen Frameset auf, um ihn dann anschließend zu indizieren. Zuerst wird nur die Datei gelesen, die den Frameset enthält, und die ist meistens sehr karg gestaltet, da sie nur die Links zu den einzelnen Rahmenteilen enthält. In der "noframes"-Section steht möglicherweise noch eine plumpe Fehlermeldung "Bitte benutzen Sie einen Browser, der Frames unterstützt!", und das war dann schon alles. Wenn das so gemacht wurde, ist das natürlich Käse. In der Trefferliste der Suchmaschine kommt dann unweigerlich der Eintrag: "Bitte benutzen Sie einen Browser, der Frames unterstützt!", denn einen anderen Text findet der Bot nicht.

SERP mit angezeigter noframes Section
Inhalt einer noframes-Section im Google Index (URL und Abfrage geändert)

Und damit ist auch schon klar, was zu tun ist. Ein geschickter SEO wird die noframes-Section dazu nutzen, den Auftritt suchindexgerecht zu beschreiben und eine ganze Reihe von Deeplinks in den Auftritt zu hinterlegen. Anschließend wird er sich jeden einzelnen Schnipsel, aus dem der Frameset zusammengesetzt ist, vorknöpfen und mit Titletags, Metatags und Keystrings ausrüsten. Die Suchmaschinen werden die Schnipsel einzeln indizieren und wunderschöne Einsprungpunkte daraus bilden. Ab jetzt muss man nur noch damit rechnen, dass die Suchmaschine oft einen Verweis auf ein unvollständiges Rahmenteil liefert. Wenn die Rahmenteile nicht selbstständig "lebensfähig" sind, ist es dann sinnvoll, ein Script einzusetzen, das den fehlenden Frameset zu dem Schnipsel nachlädt.

Session-IDs
Für die Identifizierung eines Besuchers einer Webpräsenz werden von Shops und anderen Auftritten gern "Session-IDs" vergeben. Mit Hilfe der Session-ID kann ein einzelner Besucher verfolgt werden, auch dann, wenn die Website gleichzeitig von vielen Internet-Nutzern besucht wird. Auf diese Weise kann z.B. ein Einkaufskorb zugeordnet werden und beim Benutzer verbleiben, auch wenn dieser eine Vielzahl von Seiten aufruft. Eine Session-ID ist meistens ein 32 Zeichen langer Wurm aus bunt gemischten Buchstaben und Ziffern.

Einige Auftritte setzen die individuelle Session-ID in die URL-Zeile und umgehen damit die Notwendigkeit, beim Besucher ein Cookie zu setzen. Doch die Session-ID in der URL ist für Suchmaschinen sehr hinderlich. Dadurch, dass die Session-ID für jeden Besucher und damit auch für die Webcrawler stets neu erzeugt und einzigartig ist, entsteht eine Vielzahl von unterschiedlichen Webadressen für ein und denselben Inhalt. Der Cache der Suchmaschinen füllt sich mit Verweisen auf abgelaufene und ungültige Session-IDs. Für dieses Problem gibt es verschiedene Lösungsansätze, die mit dem SEO erarbeitet werden können. Die beste Lösung ist allerdings immer noch der Verzicht auf Session-IDs in der URL-Zeile von Anfang an.

Suchmaschinen-Spam

Bis zu diesem Punkt klingt das alles ganz vertrauenserweckend und logisch. Es kann doch nur von Vorteil sein, wenn passende Begriffe an den passenden Stellen eines Internetauftritts stehen und sowohl vom Anwender als auch von den Suchmaschinen gesehen und erkannt werden. Jeder Beteiligte ist zufrieden. Der Benutzer findet, was er sucht, und der Auftritt verspricht nur, was er inhaltlich auch hält. Aber nun geht es los.

Die treffende Beschreibung von Merkmalen eines Produkts oder einer Dienstleistung birgt Konfliktstoff. Jeder Anbieter hat das Bedürfnis, in den charakterisierenden Searchstrings möglichst viele positive Merkmale zu verankern: "Viel hilft viel." Oder, es gibt einen Begriff, nach dem sehr, sehr oft gesucht wird, der aber beim besten Willen nicht wirklich etwas mit dem eigenen Angebot im Web zu tun hat. Wer könnte dieser Versuchung widerstehen? Hier ist eine starke SEO-Persönlichkeit gefordert. Der SEO muss ganz klar sagen, was geht und was nicht geht. Mit Suchmaschinen-Spam bezeichnet man ganz allgemein Methoden, den Searchbots Suchbegriffe unterzuschieben, die eigentlich nicht zum veröffentlichten Content der Seiten gehören. Ziel dieser Maßnahmen ist immer, auf die vorderen Listenplätze der Search Engine Result Pages (SERPs) zu kommen. Die Grundregel lautet: Je unseriöser der Anbieter einer Webpage ist, desto mehr Aufwand treibt er für das Search Engine Spam.

Hidden Text

Noch vergleichsweise harmlos ist das Anbringen von verstecktem Text auf den Webseiten. Der Text soll für die Spider sichtbar sein, für die Anwender jedoch nicht. Man kann die Textfarbe gleich der Hintergrundfarbe setzen. Man kann Text winzig klein machen, so dass er am unteren Bildrand wie verlorene Krümelchen wirkt. Man kann Text hinter absolut positionierten Grafiken und Bildern verstecken. Man kann das Title-Tag mehrfach verwenden (auch wenn das syntaktisch falsch ist). Es gibt viele Möglichkeiten, aber sie sind alle leicht durchschaubar. Deshalb besteht bei allen dieser Techniken die Gefahr, von den Suchmaschinen für die Manipulationen abgestraft zu werden. Am Ende können solche Tricks bewirken, dass die Position der beworbenen Website schlechter ist als vorher.

Three ways to adversely impact your Google PageRank

Cloaking

Der Begriff cloaking bedeutet wörtlich verbergen oder bemänteln. Konkret handelt es sich um eine Technik, dem Spider bei seinem Besuch eine gänzlich andere Welt vorzugaukeln als dem menschlichen Internet-Besucher. Hierfür wird beispielsweise der Referrer-String oder die IP im Serverabruf ausgewertet. Handelt es sich beim Anfrager um den (bekannten) Searchbot, wird eine andere Seite vom Server geliefert als bei einer Anfrage von einem normalen Internet-Client.

Weiter auf der nächsten Seite

Weiter auf der nächsten Seite

 


© 1990-2023
SAMSoft® Dipl.-Ing. Stefan Meisel
Ingenieurbüro für Datentechnik