Unternehmen Philosophie Kompetenz Wissenswertes Aktuelles Karriere Kontakt Kunden-Login
zurück zur Startseite
 
 
 
  Was ist eigentlich Suchmaschinenmarketing?

Um Suchmaschinenmarketing ansatzweise zu begreifen – hier geht es um höhere Mathematik. Müssen zunächst andere Begriffe definiert werden:

Data Mining – oder der Wald vor lauter Bäumen


Unter Data Mining versteht man Verfahren zur automatischen Inhaltsanalyse von großen Datenmengen numerischen Inhalts und deren Auswertung. Sie werden nicht nur im Controlling und in der Marktforschung eingesetzt, sondern auch von den Betreibern von Suchmaschinen wie Google. Sie verwenden es zur Ermittlung der Relevanz einer Webseite für eine Kombination von Suchbegriffen.
Sergey Brin und Lawrence Page, die Gründer des Suchdienstes, der nunmehr rund 80% Marktanteil hat, beschrieben 1998 an der Universität Stanford erstmals die Anwendung von Data-Mining-Verfahren auf Internetseiten. Sie verwandten dabei sogenannten Assoziationsregeln, mittels derer man im Warenkorb von Einkaufswägen die Wahrscheinlichkeit für den Erwerb eines anderen Produkts ermittelt hatte. Möglich wird dies durch die grafische Darstellung von Produkt-Verbindungslinien, je stärker die Linie, desto ausgeprägter der Zusammenhang. Anstelle der Produkte im Warenkorb setzten sie nunmehr im Internet jedoch die einzelnen Wörter. Das Ergebnis bezeichneten Sie als DDS – Dynamic Data Mining.
zurück zum Anfang


 
  Wie gelangen meine Seiten in die Suchmaschinen?

Suchmaschinen sammeln Ihre Daten mittels spezialisierter, autonomer Programme, sogenannten Robotern (spider). Diese Suchroboter arbeiten sich durch das World Wide Web (grafischer Teil des Internets) und analysieren dann die Wörter, folgen Verknüpfungen (hyperlinks) und sammeln dadurch riesige Datenvolumina.
Es gibt zwei Standardverfahren zur Webseitenerfassung: 1.) man meldet sich manuell auf der Anmeldeseite der jeweiligen Suchmaschine an oder 2.) die Roboter finden die Seite und analysieren sie aufgrund von Verknüpfungen.
zurück zum Anfang



 
  Wie erfolgt die Einstufung der Wichtigkeit (Ranking)?

Suchmaschinen analysieren einen Text nicht nur mittelst der Häufigkeit eines bestimmten Wortes in einem Text – sonst wäre es wie früher einfach ein höheres Ranking zu erhalten, indem man irgendwo in Hintergrundfarbe das gewünschte Wort unlesbar viele Male einträgt – sondern berücksichtigen auch dessen Position. Wörter, die gesucht werden, müssen möglichst nah im Text bei einander bzw. im Titel stehen. Auch die relative Häufigkeit (Dichte) ist von Bedeutung: in einem kurzen Text häufig vorzukommen ist einfacher und deshalb irrelevanter, als in einem längeren Text. Früher waren die sogenannten meta tags, die unsichtbaren Suchwörter, von überragender Bedeutung. Google ignoriert sie aufgrund des Missbrauchs in den vergangenen Jahren zwischenzeitlich.
Ein vielleicht überraschender Aspekt ist, dass nicht nur der Domain-Name, sondern auch die Verzeichnis- und Dateinamen, die die Ablagestruktur darstellen, eine wichtige Rolle für das Ranking spielen. – Also: benennen Sie diese immer in der Landessprache. – Aus dem gleichen Grund ist es auch nicht mehr sinnvoll, unterschiedliche Sprachen auf der gleichen URL zu hosten, indem Sie ein Unterverzeichnis bilden. – Sie sollten heute für jede Sprache eine Landesdomain haben (z.B. .de, .fr., .co.uk, usw.). Manche Suchmaschinen berücksichtigen zusätzlich noch das Alter (Änderungsdatum) der Seiten.

Aufgrund der beschriebenen Methodik der spider sich mittels der Verknüpfungen durchs Internet zu hangeln, sind viele Seitenbetreiber zu einem sprunghaften Handel mit Verlinkungen übergegangen, um die sogenannte link popularity zu steigern. U.a. Google ist deshalb dazu übergegangen, die Relevanz der verlinkenden Seite mit zu messen (Page-Rank-Verfahren). Deshalb ist es sehr wichtig, in den bekannten Webkatalogen wie Yahoo! aufgeführt und verlinkt zu sein.
Weitere Methoden sind der direct hit (wie oft wird die Seite direkt in den Ergebnissen angeklickt) und die Themen-basierte Indizierung, die die Relevanz eines gesamten Internetauftritts bestimmt. – Je mehr Seiten ein Internetauftritt hat, desto höher ist seine anfängliche Relevanz im page rank.
Leider ist die Qualität der Suchergebnisse durch sogenanntes „Spamming“, frei übersetzbar vielleicht mit Müllseiten, in den vergangenen beiden Jahren stark zurückgegangen: metatags werden mit Schlüsselwörtern überfrachtet, Suchbegriffe werden unsichtbar in die Seiten „eingeschwemmt“ oder direkt in den Quellcode integriert, Weiterleitungen simulieren den Robotern andere Seiteninhalte als den menschlichen Betrachtern (cloaking), oder es werden spezielle Seiten für Suchmaschinen geniert, die nur den Zweck haben, auf eine bestimmte Seite weiterzuleiten, indem Sie eine synthetisch erzeugte, hohe page rank haben.

Die Suchmaschinenbetreiber wie Google reagieren immer wieder auf eine Verwässerung ihrer Ergebnisse. Ebenso wie die Hersteller von Sicherheitssoftware auf neu auftauchende Viren. Ein Teufelskreis. Allerdings sind sie an diese Entwicklung nicht unschuldig: fast alle Betreiber, so auch Google mit ADWords und Yahoo! offerieren einen Premium-Service gegen Bezahlung. – Manche „Tiere“ sind eben „gleicher als andere“. So ist es auch zu erklären, dass eine gemeinsame Studie des Interactive Advertising Bureau und der internationalen Wirtschaftsprüfungsgesellschaft PricewaterhouseCoopers unlängst herausfand, dass der Internetanzeigenmarkt in den USA 1993 um 21% auf 7,3 Mrd. USD anschwoll.
zurück zum Anfang


 
  Suchmaschinenmarketing ist derzeit noch ein kostengünstiges Instrument zur Neukundengewinnung (Kenneth Cassar, Nielsen)

In einem Interview im Mai 1994 meinte der Direktor für Strategische Analysen des Weltmarktführers für Marktstudien Nielsen//Net Ratings, Kenneth Cassar, dass Suchmaschinenmarketing derzeit noch ein kostengünstiges Instrument zur Neukundengewinnung sei. Da es aber nur eine begrenzte Zahl sinnvoller Suchwortkombinationen gebe, müsse der Preis mittel- bis langfristig steigen. Das internationale Wirtschaftsmagazin The Economist mit seiner eigenen Recherchefirma (Economist Intelligence Unit – EIU), geht jedoch davon aus, dass der noch relativ junge Markt für Suchmaschinenmarketing uns noch eine Vielzahl neuer Produkte und Dienstleistungen bescheren wird. Zum einen wird es spezialisiertere Suchmaschinen geben, zum anderen sind kommerzielle Nachrichtendienste wieder im Trend (z.B. Factiva, ein Joint Venture von Dow Jones und Reuters). Auch der Traum eines jeden Pressechefs – was steht Morgen über mich in der Zeitung könnte Wirklichkeit werden: mit WebFountain hat das IBM-Forschungszentrum in Almaden (Kalifornien) eine Technologie entwickelt, welches Texte aus Chat rooms, Webjournalen und Schwarzen Brettern ebenso berücksichtigt, wie offizielle Presseveröffentlichungen. Hieraus generiert es Pressetexte mittels verschiedener Szenarien. – Mit anderen Worten, man hätte seine Antwort auf den medialen Supergau der Morgen passiert bereits Tage vorher austüfteln und abwägen können. – Schöne Neue Welt.
zurück zum Anfang

 
 
 
 
© 2004 - 2020 by Schöne Unternehmensberatung  Impressum Datenschutz Nutzungsbedingungen Sitemap