Übersicht Strategien 
Web-Site als
Marketinginstrument
Web-Site als Profit-Center
Portale
"Fraktale" Marketing-Strategie


Übersicht Online sein
Erfolgsfaktoren
Web-Promotion
Suchmaschinen
20 Tipps
Suchmaschinen-Optimierung


Übersicht Web-Controlling
Marketing-Controlling
Kostenrechnung


Sites zum Thema


 


Im Seminar suchen


Kontakt


eMail


Drucken


Sitemap


Hilfe 


Im Netlexikon suchen

Ihr aktueller Standort:

blättern

Seiten in dieser Rubrik


Weitere Texte


Links zum Thema

Website-Marketing

Wie die Suchmaschinen die Seiten bewerten

Wenn der Internet-Nutzer sich mit einem Suchwort oder einer Such-Phrase an eine Suchmaschine wendet,  erhält er aus dem Index nicht nur die mehr oder weniger große Zahl der "Adressen" unter denen dieses Suchwort zu finden ist, sondern alle Suchmaschinen bemühen sich auch, die jeweilige Relevanz der Dokumente in Bezug auf das Suchwort zu bestimmen und die Liste der Suchergebnisse danach zu ordnen (Ranking). 
Dabei hat (leider!) jede Suchmaschine ihre eigenen Methoden (Algorithmen), was die Sache für den Webmaster, der seine Site natürlich bei den für ihn wichtigsten Schlüsselbegriffen an oberster Stelle der Suchergebnisse sehen möchte, außerordentlich kompliziert (s. "20 Tipps"). Beispiel: Google oder AltaVista benutzen - nach eigenen Angaben - mehr als 100 Ranking-Kriterien für die Bewertung der Seiten und der Web-Sites (themenbasiertes Ranking). 
Ein paar Regeln, nach denen Suchmaschinen  einzelne Seiten für bestimmte Schlüsselbegriffe "ranken",  lassen sich aber formulieren, die als "kleinster gemeinsamer Nenner" für den größten Teil der Suchmaschinen gültig sind:

Die Schlüsselwort-Dichte (keyword density)

Ein „Basis-Kriterium“ bei allen Suchmschinen ist die Häufigkeit und ggf. "Nähe" zueinander der abgefragten Schlüsselwörter im Text und ggf. in den Meta-Tags im Verhältnis zur gesamten Textmenge (keyword density)
Wie die Suchmaschinen Keywords und ihre Varianten behandeln
Dabei taucht immer wieder die Frage auf, ob die Suchmaschinen Varianten des Begriffs, also Plural, Deklinationen oder kombinierte Wörter selbstständig erkennen und auf den Grundbegriff zurückführen kann ("stemming"), oder ob der Optimierer alle diese Formen in die Seite bzw. die Meta-Tags einbauen muss. 
Die Antwort lautet, wie fast immer bei den Suchmaschinen: Teils-teils. 
Es gibt Suchmaschinen, die den Wortstamm erkennen (stemming). Die Mehrzahl aber nicht. Es ist also sinnvoll, die verschiedenen Varianten des zentralen Begriffs im Text einzubringen (in den Meta Tags ist es etwa sinnvoll, häufige Verschreiber oder Dreher aufzunehmen. Da man praktisch allein diese Begriffe mit den häufig auftretenden Fehlern anbietet, erscheint man automatisch ganz oben in der Fundstellen-Liste bei einer fehlerhaften Eingabe!) 
Überhaupt kann es ja gerade für gute Ergebnisse wichtig sein, dass die Suchmaschinen nicht beliebig viele Varianten, Kombinationen etc. des Begriffs auswirft, den der User gesucht hat. Dies wird gewöhnlich unter dem sog. "Sand-Test" beschrieben:
Der "Sand-Test" bedeutet, dass man es als Gütekriterium ansehen kann, wenn eine Suchmaschine bei einer Suche etwa nach "Sand" Wörter wie "Sandelholz" nicht findet. 
Ob dieses Verhalten aber wirklich von Vorteil ist, darüber lässt sich streiten, weil man dann mit der gleichen Suche auch Dokumente mit Keywords wie "versanden", "Sandburg" oder "Sandkasten" nicht findet.

Platzierung der Schlüsselwörter

Neben der „Dichte“ der Keywords und Phrasen geht als wichtiges Kriterium die Stellung der Keywords im Gesamt-Dokument ein. In der Abfolge der Wichtigkeit für die meisten (aber leider beileibe nicht alle) Suchmaschinen: 
  • im Titel der Seite (und hier möglichst am Anfang)
  • in der Site-Domain (allerdings aus einem „abgeleiteten“ Grund, den wir bei den Link-Strategien unten diskutieren werden. S. auch "Sprechende Domains"),
  • in den Hauptüberschriften und dann den Unter-Überschriften der Seite,
  • in den URLs der einzelnen Seiten (aus den gleichen Gründen wie bei der Domain),
  • in den externen wie internen Link-Texten, Anker-Texte oder auch – nur zum Teil wirksam – Link-Titeln
  • vorn im Text, 
  • in den Meta Tags (vor allem description und keyword Tags, wobei letztere kaum noch Bedeutung haben), und
  • sonst überall (Kommentare, Bild-Texte, IMG ALT, Bild/Link-Title-Tags ...)
Meta Tags
Meta-Tags  werden manchmal zur Suchmaschinen-Geheimwaffe stilisiert, manchmal ignoriert. Beides ist falsch. Unter den 20 Tipps unten dazu mehr. (Sehr anschauliche step-by-step-Beschreibung bei
Virtualpromote). 
Mit dem massiven Missbrauch der Meta Tags ist zunächst einmal der Versuch gescheitert, strukturierte Beschreibungen von Seiteninhalten für das „intelligente“ Auffinden von Texten im Netz zu nutzen. Andere Versuche vor allem im Wissenschafts-Bereich (z.B. Dublin Core) und die neue Diskussion um das Semantic Web (Einzelheiten hier) werden aber durchaus weiterverfolgt und werden umso wichtiger, wie das WWW sich weiter explosiv ausdehnt, immer neue Bereiche des früher „unsichtbaren Web“ von den Suchmaschinen erschlossen werden und damit die Relevanz der gefundenen Dokumente für die Anfrage (den „Sinn“ der Suchanfrage) immer wichtiger wird (das „Nadel im Heuhaufen-Problem“). 

Nähe

Bei vielen Suchmaschinen, so z.B. bei Google, spielt "Nähe" der Schlüsselwörter zueinander eine entscheidende Rolle bei der Bewertung von Such-Phrasen. Zwar bieten heute die meisten Top-Suchmaschinen eine "Phrasensuche" (ein Suchausdruck aus mehreren Wörtern wird in "..." gekleidet, das sagt der Suchmaschine: "Bitte bringe mir die gesuchten Wörter genau in dieser Zusammensetzung"), aber erstaunlich wenige Suchmaschinen-Nutzer kennen und benutzen diese Möglichkeit. Die Suchmaschinen "helfen sich" gegen soviel Ignoranz durch die "nahe"-Regel. Beispiel: Jemand sucht nach "Futter für tibetanische Schleiereulen", gibt diesen Ausdruck aber ohne die Anführungszeichen in das Suchformular ein. Dann bewertet die Suchmaschine in der Regel eine Seite höher, wenn die drei Begriffe "Futter", "tibetanisch(e)" und "Schleiereulen" auf der Seite dicht beieinander stehen, als eine Seite, bei der die drei Begriffe weit über die Seite verstreut gefunden werden.

Semantische Analyse

Soweit so einleuchtend. Aber diese "einfachen" Regeln sind, zumindest bei den bedeutenden Suchmaschinen, nur kleine Bestandteile von komplexen semantischen Analysen, in denen der "Sinn" einer Inhaltsseite (und ggf. einer ganzen Website) abgeglichen wird mit dem "Sinn" einer Suchanfrage (was natürlich bei ein-zwei eingegebenen Suchwörtern ein heroisches Unterfangen ist). 
Diese semantischen Analyse-Modelle werden ständig verbessert und verfeinert und führen, wenn Sie in die Ranking-Algorithmen eingehen, zu teilweise "revolutionären" Veränderungen in den Ergebnislisten. (Ein Beispiel für ein solches Modell ist das "latent semantic indexing (LSI)" - der Artikel ist aber auch eine vorzügliche - englische - Einführung in die Problem des Speicherns, Ordnens und Wiederauffindens von Informationen generell!)

Kontext und Bedeutung

Mit "einfachen" Regeln lassen sich weder die Präzision noch die Relevanz der Suchergebnisse wirklich befriedigend herstellen. Die Suchmaschinen-Software-Produzenten experimentieren daher seit langem mit zusätzlichen Bewertungsmustern, z.B.: 
  • Klärung der Bedeutung eines Such-Begriffs: Die Suchmaschine fragt den Benutzer vorab, was er denn nun gemeint habe und "hilft " ihm  dabei, z.B. indem sie Wortfelder zur Verfügung stellt, seine Anfrage zu präzisieren.
  • Kontext-Analyse:  Die Suchmaschine bewertet die unterschiedlichen Bedeutungen einer Suchphrase im Kontext eines Gesamtdokuments durch Vergleich mit den gleichen oder ähnlichen Phrasen in anderen Dokumenten im Index der Suchmaschine. Die Suchmaschine stellt so auch "Links zu verwandten Seiten" zur Verfügung. Zunächst von Alexa, PlugIn-Software für Browser, zur Verfügung gestellt, wird das Prinzip inzwischen von den meisten großen Suchmaschinen als Zusatznutzen angeboten. 
  • Kontextsuche auf der Basis des eigenen Surf-Verhaltens („lernende Suchmaschinen“).
  • Hilfen schon bei der Strukturierung der Suchanfragen.
  • Noch weitergehende Individualisierungsversuche, die den Cyberspace je nach den persönlichen Gewohnheiten und Interessen der User strukturieren (z.B. Lifestream, vorläufig noch eines von vielen faszinierenden Experimenten).

Themen-Suche

Immer mehr beziehen auch die "gängigen" Suchmaschinen den Gesamtkontext einer Web-Site (und nicht nur die einzelne Seite) in die Bewertung mit ein (themebased indexing oder term vector relevance). Das macht Sinn, da ein Thema, das sich durch die gesamte Web-Site zieht, für den Suchenden vermutlich mehr hergibt als wenn es nur auf einer Seite oder gar in einem Satz abgehandelt wird. 
Aber die Schwierigkeiten dieser Methode liegen auf der Hand:
Weder erfassen die Such-Robots alle Seiten - und schon garnicht die dynamisch generierten - einer Web-Site,  noch können sie natürlich das relative Gewicht ganz unterschiedlicher Themen auf einer Web-Site gewichten (z.B. ein Verlag stellt hunderte von Büchern und Zeitschriften zu Dutzenden von Themen auf seiner Website vor und wird dafür "bestraft", weil das relative Gewicht eines Themas darunter leidet). 
Technische Erläuterung und Beispiel unter: http://www9.org/w9cdrom/159/159.html 
Womit wir wieder beim schlichten Ausgangspunkt zurück sind !!

Zwischenfazit (1)

Gestalte Deine Seite so, dass die (für die Zielgruppe) wichtigen Informationen/Begriffe/Phrasen klar, pointiert, vom Design der Seite unterstützt und "didaktisch" geschickt präsentiert werden, dann wird die Suchmaschinen den "Sinn" der Seite "verstehen" und bei einer entsprechend formulierten Suchanfrage "richtig" reagieren können.

Aktualität

kann eine gewisse Rolle spielen (s. "Wie Robots arbeiten") 

„Accessibility“ und Fehlerfreiheit

Das sind Kriterien, die vor allem wichtig sind, wenn es darum geht, von den Robots überhaupt erst einmal besucht und anschließend indiziert zu werden (s. "Wie Robots arbeiten"). Aber auch beim Ranking spielen sie oft eine – gewöhnlich unterschätzte – Rolle (s. im Optimierungs-Tutorial Schritt 1). 

„Gewicht“

Grundsätzlich sollten natürlich alle Seiten meiner WebSite von den Suchmaschinen erfasst, indiziert und ausgewiesen werden. Rein statistisch erhöht sich auf diese Weise die Treffer-Wahrscheinlichkeit. 
Zusätzlich aber kommt hinzu: Je mehr Seiten im Suchmaschinen-Index desto besser für das Ranking! 
Ein möglichst großes "Gewicht" (möglichst viele, untereinander verlinkte, indizierte Seiten) zu einem Thema in den Suchmaschinen führt bei den Bewertungsalgorithmen der „jüngeren“ Suchmaschinen zu einem besseren Ranking, denn: nicht nur die Links von kompetenten fremden Sites (Hubs, Authorities s.u.) werden als Relevanzkriterium gewertet, sondern auch die Inhaltsstruktur einer Site im Vergleich zu anderen Sites und die internen Verweise auf diese Inhalte mitberücksichtigt. 
Hier kommt es also darauf an, viele relevante Inhaltsseiten zu einem Thema indizieren zu lassen und diese so eng wie möglich miteinander zu verlinken. 
Wird eine Site als für ein Thema besonders relevant gewertet (von der Suchmaschine als Autorität, „Authority“, angesehen und mit „Reputation“ versehen) und in den Set gespeicherter Sites für den Relevanzvergleich mit neu indizierten Sites aufgenommen, ist das Top-Ranking bei den wichtigsten Schlüsselbegriffen gesichert.

Link-Popularität

Die Zahl der Links von fremden auf die eigene Site hat – vor allem mit der Karriere von Google und seiner PageRank Technologie – eine dominante Rolle in den Bewertungs-Algorithmen fast aller „modernen“ Suchmaschinen erhalten.
Mit der Betonung der Verknüpfung von WebSites und Seiten untereinander und der "Entdeckung", dass sich aus den Verknüpfungsmustern thematische "Communities" (topic-specific web communities) im WeltWeitenWeb erkennen und bewerten lassen, ist eine neue Ära in der Seitenbewertung/Ranking durch die Suchmaschinen angebrochen.  
Auf den einfachsten Nenner reduziert bedeutet diese Form der Relevanz-Bewertung, dass nun nicht mehr wichtig ist, was ich selbst über meine Website, bzw. eine Seite darin, sage (Anzahl, Platzierung, Kontext von Keywords), sondern was andere über meine Website sagen oder denken, oder wie sie sie bewerten (Links als „Stimmabgabe“ bei der Wahl relevanter Sites und Link-Umfelder als Anhaltspunkte für die damit verknüpften Inhalte).
Nicht nur die durch Google erst so recht bekannte gewordene "Link Popularity" sondern vielmehr die gewichtete Verknüpfung von Websites in engmaschige Themen-Netze und die damit mögliche Identifizierung von sogenannten "Authorities", Sites von zentraler Stellung innerhalb dieser Themen-Netze (Web Communities), könnten die Relevanz der Suchmaschinen-Ergebnisse auf eine neue Qualitäts-Stufe heben. In Ansätzen ist diese Methode schon jetzt bei einigen der neuesten Suchmaschinen zu studieren, insbesondere bei TEOMA. (Beschreibung der Methode -->hier. Für technisch Interessierte eine gut verständliche Darstellung der Theorie
In mehreren Grundsatzarktikeln (1, 2, 3, sowie Sammlung bei Google Labs)
beschreiben Jon Kleinberg, Steve Lawrence u.a. die Struktur des Web als eine Beziehung zwischen Hubs und Authorities in der "Community"-Struktur des  Internet. 
Dabei werden in der Regel und zunehmend Links von fachlich relevanten Sites mit vielen Texten zum Thema, auf die viele andere Sites per Link verweisen (authorities, „Experten-Seiten“) bzw. mit ausgehenden Links auf andere Seiten zum gleichen Thema (Hubs) höher bewertet als Links von beliebigen anderen Sites (bei Google wird, grob gesprochen, der PageRank der verlinkenden Seite auf die verlinkte Seite übertragen). Das macht das Einsammeln solcher Links zusätzlich schwierig für den Webmaster. Mit Link-Ringen oder sogenannten "Link-Farmen", "Free-for-all"-Sites und ähnlichen Tricks ist da kein Blumentopf zu gewinnen. 
Links von völlig irrelevanten Seiten (mit ganz anderem Thema) oder Links von Seiten, die wesentlich niedriger bewertet werden, können dem eigenen Ranking sogar schaden! (Die Theorie hinter diesem Verfahren heißt HITS, Hypertext Induced Topic Search, und wurde von Jon Kleinberg an der Cornell University, USA, "erfunden" und im Zusammenhang mit dem IBM Clever Projekts weiterentwickelt.)

„Hub“, „Authorities“ und „Reputation“

Die für die Link-Strategie entscheidenden Begriffe “Hubs” und “Authorities” werden erläutert in dem folgenden Schaubild: 

Priorität: Web-Directories und Portale

Erst wenn es gelingt, in den führenden Web-Katalogen (ODP, Yahoo!, LookSmart, web.de etc. – kostenlos oder kostenpflichtig) präsent zu sein und darüber hinaus Links in den bedeutendsten Portalen der jeweiligen Branche oder in den frequentiertesten und bestverlinkten Websites zum gleichen Thema wie die eigene Site zu platzieren, kann sich der Site-Betreiber sicher sein, auf den vorderen Plätzen zu landen. 
Zusätzliche Bedeutung erhalten die Links auf die eigene Site durch die Tatsache, dass oft (z.B. bei allen von Inktomi-Technologie getriebenen Suchmaschinen) diejenigen URLs, die von den Robots/Spidern selbstständig, d.h. durch das Verfolgen von Links, gefunden werden, bevorzugt werden gegenüber URLs, die bei den Suchmaschinen direkt angemeldet werden.

Ausgehende Links

Übersehen wird aber häufig, dass auch die Links von der eigenen Site auf (wichtige, hilfreiche) andere Sites im Web für das Ranking eine Rolle spielen können (die neue Suchmaschine Teoma, selbsternannter Konkurrent zu Google wertet dieses Kriterium besonders hoch).  Die Ängste mancher Webmaster um ihren PageRank bei Google (die verlinkende Seite „überträgt“ sozusagen ein Stück PageRank  auf die empfangende Seite) sind in der Regel unbegründet. Ohnehin ist die PageRank-Hysterie mancher selbsternannter Experten völlig überzogen. Der PageRank ist auch bei Google nur einer unter vielen Kriterien.

Interne Links

Schließlich spielen auch die internen Links eine - etwas komplizierte - Rolle im Ranking-Spiel.
Also: Links! Links! Links!

Spamdexing – Hase und Igel - Der PageRank Wahn und die Suchmaschinen-Spammer

Mit der wachsenden Bedeutung der Links für das Ranking in den Suchmaschinen steigerte sich auch die Jagd nach der Verlinkung bis zur Hysterie.  Der PageRank, Googles Messlatte für die – qualifizierte – Link-Popularität, wurde von den Suchmaschinen-Optimierern und solchen, die sich fälschlich dazu berufen fühlten zur Religion erhoben. (In Wirklichkeit ist der PageRank auch bei Google nur ein Parameter unter vielen, wichtig aber nicht alles entscheidend!). 
Jeder versuchte, mit legitimen und illegitimen Tricks und hochkomplexen Berechnungsmodellen seine PageRank-Marke (in der Google Toolbar schön sinnfällig dargestellt) nach oben zu drücken. 
So wurden – zumindest in den USA – zeitweise horrende Preise für Links von Seiten mit hohem PageRank geboten. Der Link-Handel blühte und blüht nach wie vor.

Die Tricks der Spamdexer

Schlimmer natürlich  der gezielte Missbrauch von Linking und Cross-Linking (wechselseitigem Verlinken von Sites) durch die „Spamdexer“.  Tausende von inhaltsleeren, über Keyword-Platzierungen an den richtigen Stellen (s.o.) „optimierten“ Seiten unter den entsprechenden keyword-lastigen Domains werden cross-verlinkt (oft unter der „Tarnung“ eines Themenverzeichnisses oder Branchen-Portals, einer Branchen-Datenbank u.ä.) und schaukeln sich so wechselseitig im Ranking nach oben.  
Mit diesem Top-Ranking im Rücken kann dann der Spamdexer Eintragungen in  das so aufgewertete „Noch-nicht-Verzeichnis“ teuer verkaufen und so erst überhaupt aus der leeren Hülle ein Verzeichnis – und ein Geschäft! – kreieren.  
Oder die so künstlich erzeugten PageRanks und Rankings werden als „Doorway Pages“, Seiten ohne eigene inhaltliche Funktion, eingesetzt um einer Website per Verlinkung zu hohem PageRank zu verhelfen, die einen solchen Rang niemals auf „normalem“ Wege errungen hätte – und natürlich auch nicht „verdient“ hat.

Spamdexing-Abwehr

Die Abwehrschlacht der Suchmaschinen gegen diese Spamdexer liegt auch den Änderungen seit Ende 2003 in den Bewertungs-Algorithmen von Google zugrunde (in den einschlägigen Suchmaschinen-Foren "Florida", "Austin", "Brandy" etc. getauft). Im Kern wird jetzt ein ungleich höheres Gewicht gelegt auf das "Thema" der verlinkenden Seite, den inhaltlichen Kontext, in dem das Suchwort auf der gefundenen Seite steht und die Übereinstimmung mit dem "Thema" der Suchanfrage. 
Dieser von Google-Wissenschaftlern „Hilltop" getaufte Algorithmus wird in der einen oder anderen Form die Rankings der Suchmaschinen in naher Zukunft bestimmen. (Für diejenigen, die an den Details interessiert sind, eine gute - englische - Erläuterung der jüngsten Google-Updates -->hier
Bisher hatte Google (und andere) diese inhaltlichen, auf den "Sinn" der Suchanfrage zielenden Bestandteile ihrer Bewertungsregeln herzustellen versucht vor allem über die Bedeutung der Link-Texte (sowohl  der URL selbst als auch der sog. "Anker-Texte", Beispiel:
<a href="http://www.meine-site-mit-keyword.de/keyword.html">Linktext mit Keywords</a>
bzw. Link-Titel. 
Wenn diese zum einen selbst das entscheidende Schlüsselwort enthalten, die Links zum anderen von einer Seite kommen, auf der das Schlüsselwort häufiger vorkommt - möglichst in unmittelbarer Nähe des Links - und auf eine Zielseite verweisen, bei der das Schlüsselwort eine Rolle spielt - dann erreichen die Links erst ihr volles "Gewicht" in der Ranking-Formel (jüngste Anpassungen des Google-Algorithmus scheinen noch stärker in Richtung einer hohen Bewertung des "Link-Umfelds" zu gehen - als Reaktion auf das sog. "Google-Bombing").

Neue Suchmaschinen -  weiterentwickelte Algorithmen - Block Based Indexing

Mit dem Aufstieg von Google begann zugleich der "Abstieg" des PageRank-Algorithmus. Die weiche Flanke von PageRank war von Anfang an die Betrachtung der gesamten Web-Seite mit all ihren unterschiedlichen Bestandteilen als der entscheidende "Knoten" im Netz der wechselseitigen Links. Die "Entscheidung", bildlich gesprochen: die "Stimmabgabe", für die Verknüpfung der eigenen mit einer anderen Seite bezieht sich aber in Wirklichkeit nicht auf eine ganze Seite (mir u.U. verschiedenen Themen, völlig anderen, unverbundenen Versawtzstücken etc.) sondern inhaltlich immer nur auf einen Teil der Seite, einen "thematischen Block".

Wenn es also gelingt, diese thematischen Blöcke innerhalb einer Seitenstruktur zu isolieren und sie als Ausgangspunkt für die Link-Analyse zu machen, sähe das "Netz" der Beziehungen zwischen diesen "Knoten" möglicherweise ganz anders aus als es sich beim Einsatz des PageRank-Algorithmus darstellt.
Wichtiger noch: Dieser "Block-Algorithmus" ist weit weniger angreifbar und manipulierbar als der PageRank, der seit der steilen Karriere von Google in zunehmendem Maße "ausspioniert" und missbraucht wird.
Mit der neuen MSN-Suchmaschine (derzeit als Beta-Version im Test) wird dieser neue (allerdings in der Forschung seit langem diskutierte) Algorithmus auf breiter Front realisiert.

Zwischenfazit (2)

In die Bewertungs-Algorithmen der meisten Suchmaschinen werden alle diese Regeln je in unterschiedlicher Ausprägung und Gewichtung einbezogen, Bewertungsprozesse laufen gleichzeitig oder hintereinander. Daraus resultiert eine Komplexität, deren Ergebnisse dann manchmal auch die Suchmaschinen-Bauer selbst verblüffen und zu neuem Drehen an den Stellschrauben zwecks Feintuning veranlassen. 
Die Hoffnung, durch das Manipulieren an einer oder einiger, weniger Stellschraube das "Suchmaschinen-Schicksal" seiner Website steuern zu können - und das auf Dauer - ist in jedem Fall auf Sand gegründet. 

Hit-Popularität

Ein interessantes, aber nie so recht durchgeschlagenes Ranking-Kriterium ist die sog. Hit-Popularität: Die Zahl der Zugriffe (über die angeschlossenen Suchmaschinen) auf die zu bewertende Site mit den eingegebenen Schlüsselwörtern - wobei auch hier zusätzliche Relevanzkriterien aus dem Umfeld der Ausgangs-Site in die Bewertung einfliessen. 
Beispiele sind die Suchmaschine DirectHit und alle Suchmaschinen und Such-Agenten, die die DirectHit-Technologie einsetzen. Interessant aber von begrenzter Aussagekraft ist der Ausweis der Hit-Populariät für eine Website bei Alexa.com
Eine Art "Ht-O-Meter" hatte Yahoo! mit seiner Toolbar angeboten, seit einiger Zeit (vorläufig??) aber wieder zurückgezogen.

Sites aus dem Katalog

Bei etlichen Suchmaschinen, die sich einen zusätzlichen Web-Katalog zugelegt haben oder einen der eingeführten Kataloge in Partnerschaft nutzen, werden die Sites aus diesem Katalog beim Ausweis der Suchergebnisse in den Suchmaschinen selbst bevorzugt gelistet. Daher  auch die (im Moment noch) überragende Bedeutung des Open Directory Projects. Dieser frei verfügbare, von „freiwilligen Redakteuren“ weltweit gespeister Katalog wird von vielen Suchmaschinen und Portalen unter eigener Flagge genutzt (z.B. von Google, allerdings mit abnehmender Begeisterung). 
Vor allem aber ist der Eintrag in die großen Kataloge wichtiger Bestandteil jeder Link-Strategie (s.u.).

Bezahlte Platzierungen (Paid Placement, Pay per Click)

Für die Platzierungen in Suchmaschinen spielen zunehmend die "gekauften" Platzierungen à la Overture (früher Goto.com) eine prominente Rolle. Hier bietet der Anmeldende in einer versteckten Auktion einen Preis, den er für jeden "Click-Through" auf sein Angebot zu zahlen bereit ist. Der Höchstbieter bekommt den Zuschlag. Die anderen müssen sich mit den folgenden Rängen begnügen. Umfassendste Informationen zu diesen Suchmaschinen-Typen gibt es bei PayPerClickSearchengines.com auch: http://www.payperclickanalyst.com
Solange die ausgewiesenen Ergebnisse als "gekauft" erkennbar sind, ist das sicher in Ordnung, ja, kann sogar ein brauchbares Relevanzkriterium sein. Immer häufiger aber - und zunehmend geraten auch deutsche Suchmaschinen und Kataloge in diesen Verdacht - scheint es verdeckte "Käufe" von Suchmaschinen-Platzierungen zu geben. 
Da verschiedene Suchmaschinen die bezahlten Einträge etwa von Overture, Espotting und Looksmart einfach übernehmen (und dafür kassieren), ohne in allen Fällen diese Einträge zu kennzeichnen, verwischt sich die Grenze der "kommerziellen" und "nicht-kommerziellen" Relevanzkriterien zunehmend, der Druck auf die Site-Besitzer, für Platzierungen oder auch nur Einträge zu bezahlen wächst ständig.

Bezahlte Aufnahme (Paid Inclusion, Express Submit, XML-Feed, Trusted Feed)

Nicht (direkt!?) mit dem Ranking verbunden ist die bezahlte Aufnahme (Paid Inclusion plus diverser Steigerungsformen wie dem sogenannten „Trusted Feed“, der Einfügung ganzer Websites mit u.U. tausenden von Seiten per XML-Feed), die dem Zahlenden die sofortige Bearbeitung, die Indizierung aller Seiten seiner Web-Site und das regelmäßige Update – aber nicht einen festen Platz in den Ergebnislisten -  garantiert. 
Dieses Angebot  ist inzwischen praktisch von allen Suchmaschinen mit wenigen prominenten Ausnahmen (vorläufig noch: Google)  übernommen worden und selbstverständlicher Teil der Suchmaschinen-Refinanzierung. Vorteil für den Site-Betreiber ist neben der sofortigen Aufnahme in den Index der Suchmaschine und die regelmäßigen Updates vor allem die Garantie, dass alle seine Seiten aufgenommen werden,  auch solche, die normaleweise für die Suchmaschinen-Robots nicht zugänglich sind (dynamische Seiten, Flash etc.).

AdSense und mehr

Google hat dafür mit seinem Adword/AdSense-Programm eine andere Front eröffnet und seither durch die Ausweitung auf kontextbezogene Ad-Platzierungen auch auf  fremden Kooperations-Partner-Sites noch erheblich ausgeweitet.  Overtures (jüngst von Yahoo! „eingekauft“) hat nachgezogen und eine Lawine losgetreten. 
Yahoo! selbst hat nach der Trennung von Google (bisher wurden die Web-Ergebnisse bei Yahoo! von Google geliefert) und der Entwicklung einer eigenen Suchmaschine zusätzlich zum „alten“ Yahoo!-Katalog eine neue Runde im Kampf um die Platzierungsgelder eingeläutet, deren Konsequenzen noch gar nicht abzusehen sind („SiteMatch“). Neu daran vor allem die Kombination von „Eintrittsgeldern“ pro angemeldeter Seite und Pay-per-Click-Gebühren von 15 – 30 Cent pro Klick. 
Auch bei den großen Web-Katalogen selbst hat sich die Bezahlung von Einträgen inzwischen soweit durchgesetzt, dass in vielen Fällen eine kostenlose Anmeldung (von kommerziellen Sites) überhaupt nicht mehr vorgenommen werden kann. 
Dass alle diese Techniken, so unerlässlich für das Überleben der Suchmaschinen sie auch sein mögen, nicht unbedingt der Qualität der Suchergebnisse zugute kommen, ist unmittelbar einsichtig. Tatsächlich gibt es auch erste Anzeichen für ein Umdenken bei den/einigen Suchmaschinen. So hat die Suchmaschine Ask Jeeves/Teoma jüngst ihr „Trusted Feed“ Programm abgebrochen und damit auf viel Geld verzichtet. Gleichzeitig aber treibt Yahoo!/Overture mit seinem neuen SiteMatch-Programm die Beutelschneiderei geradezu auf die Spitze. Ende offen! 
Eine der besten Einführungen in die Handhabung von solchen „bezahlten“ und ergebnisbezogenen Suchmaschinen-Kampagnen (Pay for Performance) ist ausgerechnet die einschlägige Hilfe-Seite von Overture. Für graphisch Orientierte auch: How Sprinks Works

Ende der „organischen“ Suchmaschinen-Optimierung?

Machen die gekauften Plätze eine Suchmaschinen-Optimierung für die eigenständige Erfassung und Bewertung Ihrer Sites bei den Suchmaschinen („organische“ Optimierung) überflüssig? 
Vorläufig - und solange es noch "freie" Einträge gibt - keinesfalls. 
Denn
  1. schon sind mit den steigenden Preisen und immer neuen Zugriffen der Suchmaschinen auf den Geldbeutel der Site-Betreiber die Grenzen des Bezahlbaren für viele sehr bald überschritten,
  2. damit lohnt es sich mehr denn je, die eigene Site von den Suchmaschinen-Robots selbst finden zu lassen – und diesen Prozess tatkräftig zu unterstützen,
  3. die bezahlten Plätze werden von den Usern weniger als "Fundstellen" in den Ergebnislisten gewertet denn als "Werbung" - was sie ja auch sind. Entsprechend niedriger ist die Klick-Rate (eine Schätzung nach Experiment bei SearchEngineWatch: 17% gegenüber 71% der Klicks auf die "unbezahlten" Einträge).

Fazit: Kurz gesagt

Informative, journalistisch (das wichtigste nach vorn und in die Überschriften) aufbereitete Inhalte, die - wachsende - Beliebtheit bei Kollegen-Sites und die Überzeugung der Katalog-Redaktionen sind die wesentlichen Erfolgsfaktoren beim Suchmaschinen-Ranking-Spiel.

© lb medien 2004
http://www.e-publishing.de