This is the Title of the Book, eMatter Edition
Copyright © 2006 O’Reilly & Associates, Inc. All rights reserved.
|
245
First
Max.
Linie
Max.
Linie
Hier Mini IVZ eingeben!
Abstand untere Tabellenlinie zu Textanfang 1,8 cm
-> also: manuell auf den Arbeitsseiten ziehen!!!
Erstellen auf den
Arbeitsseiten
(siehe Muster)
KAPITEL 17
Suchmaschinen-
optimierung
Wer im Internet gelesen und gehört werden möchte, der muss seine Inhalte für
Suchmaschinen optimieren, weil diese im Internet die Besucherströme auf ihrer
Suche nach Informationen, Unterhaltung und Mediendateien leiten. Aus eigener
Erfahrung kann ich die Macht der Suchmaschinen nur bestätigen. So finden zwi-
schen 60 und 80% der Besucher mein kleines Webmagazin Phlow.net über die
Suchmaske von Google, Yahoo! und MSN.
Darum spielt die Suchmaschinenoptimierung von Webseiten eine immer größere
Rolle beim Aufbau eines Angebots. Kein Wunder also, dass sich Online-Journalis-
ten immer mehr für die Suchmaschinenoptimierung interessieren und sich auf das
Aufbereiten von Inhalten für das Internet spezialisieren: Firmen und Informations-
anbieter wollen auf den ersten Plätzen mitschwimmen, und dafür müssen Texte
und Mediendateien richtig aufbereitet werden. Zum Glück ist die Suchmaschinen-
optimierung größtenteils einfacher, als man gemeinhin vermutet. Schlicht gesagt
lautet die oberste Regel bei der Optimierung von Webseiten für Suchmaschinen: Es
kommt auf den Inhalt an, denn guter Inhalt setzt sich in der Regel längerfristig
durch. Ob bei den Surfern, Webloggern oder Suchmaschinen – Qualität erreicht ein
Publikum.
Wenn Sie Kapitel 15, XHTML und CSS, aufmerksam gelesen haben und Ihre Texte
und Inhalte mit den richtigen Tags auszeichnen, haben Sie bereits Einiges erreicht.
Suchmaschinen verstehen nichts besser als korrekt und sinnvoll ausgezeichnete
Inhalte. Über einwandfreien XHTML-Code stolpern Suchprogramme selten, denn
sie können ihn besser »verstehen«, analysieren und anschließend indizieren.
Trotzdem gibt es keinen Königsweg, der auf die Top-Positionen aller Suchmaschi-
nen, -kataloge und -portale führt, denn jede Suchmaschine arbeitet mit anderen
Algorithmen. Suchkataloge werden oft von Redakteuren betreut, die sich den Inhalt
In diesem Kapitel:
Keywords sinnvoll einsetzen
Onsite-Optimierung
Link Popularity und PageRank
458-X.book Seite 245 Dienstag, 28. November 2006 4:23 16
This is the Title of the Book, eMatter Edition
Copyright © 2006 O’Reilly & Associates, Inc. All rights reserved.
246
|
Kapitel 17: Suchmaschinenoptimierung
Links
Max.
Linie
Max.
Linie
Ihrer Website anschauen, bevor sie sie unter einem Stichwort oder in eine Rubrik
einordnen. Schließlich sollten Sie wissen, dass fortschrittliche Webtechniken wie
JavaScript, Flash, Shockwave, Java usw. sich meist kontraproduktiv auswirken, was
die Positionierung in Suchmaschinen angeht. Das liegt an der Tatsache, dass Such-
maschinen weder Grafiken oder Filme berücksichtigen noch Tabellen analysieren.
Deshalb sind Texte das wichtigste Kriterium für Suchmaschinen.
Funktionsweise von Suchmaschinen, Spidern und Webrobots
Suchmaschinen schicken Webrobot-Systeme durch das Internet, um In-
halte zu finden, zu analysieren und um sie in den eigenen Katalog einzu-
ordnen. Häufig verwendete Synonyme für ein Webrobot-System sind auch
Webrobot (kurz »Bot«), Web Wanderer, Web Crawler oder Spider. Web-
robots sind global verteilt arbeitende Software- und Hardwaresysteme. Sie
finden neue Inhalte und überprüfen alte, bereits gespeicherte Inhalte auf Veränderun-
gen. Webrobots bestehen aus mehreren Komponenten, die miteinander in Arbeits-
prozessen verzahnt sind. Dazu gehören vier Komponenten:
Gatherer sammeln Dokumente im WWW
Loader organisieren die auszuführenden Aufträge des Robots
URL-Datenbanken verwalten alle gespeicherten URLs
Checker wenden unterschiedliche Filter an
Während die wesentliche Aufgabe des Gatherers darin besteht, den Datenbestand
der jeweiligen Suchmaschine auf dem neuesten Stand zu halten und zu erweitern,
arbeiten die beiden Komponenten Loader und URL-Datenbank in einem funktiona-
len Zusammenhang. Der Loader koordiniert die verteilt arbeitenden Suchroboter
(Gatherer). Neben der Überwachung der Ausführung analysiert der Loader die Aus-
lastung der jeweiligen Gatherer. Damit die Suchroboter über Informationen verfü-
gen, welche URLs zu überprüfen sind, erhalten sie vom Loader URL-Listen. Welche
Internetadresse zu welchem Zeitpunkt besucht werden soll, wird jedoch nicht vom
Loader bestimmt, sondern von der URL-Datenbank.
Der Checker übernimmt anschließend die Dokumente und untersucht sie. Dabei
können drei wesentliche Filterprozesse zum Einsatz kommen: Dokumentenfilter,
Dublettenerkennung und URL-Filter. Während der erste Filter die Art des Doku-
ments bestimmt (XHTML, PDF, Flash usw.), überprüft die Dublettenerkennung,
ob bereits ein gleiches Dokument vorhanden ist. Der URL-Filter durchsucht und
überprüft das Dokument abschließend auf Links und deren Erreichbarkeit. Außer-
dem überprüft er, ob ein Link auf eine Blacklist gesetzt wurde. Eine Blacklist ist eine
Liste zu ignorierender Links und Webseiten. Dass eine URL auf eine Blacklist
gesetzt wurde, kann auf ihren Inhalt oder mögliche Spamversuche zurückzuführen
sein.
458-X.book Seite 246 Dienstag, 28. November 2006 4:23 16

Get Weblogs, Podcasting & Online-Journalismus (O'Reillys Basics) now with the O’Reilly learning platform.

O’Reilly members experience books, live events, courses curated by job role, and more from O’Reilly and nearly 200 top publishers.