Internet Kurs Teil 9

Suchmaschinen
Teil 1 Arbeitsweise


Teil 1: Suchmaschinen enthüllt, wie funktionieren sie wirklich?
AltaVista, Fireball, Excite, Yahoo, Lycos und Google, alles prima Suchmaschinen, richtig? Falsch! Es ist wichtig, zwischen Suchmaschinen und Verzeichnissen zu unterscheiden. Yahoo ist ein typisches Verzeichnis. Ein von Menschen gemachter Link Katalog, ausgewaehlt, kommentiert, subjektiv. Wer rein will, meldet sich per Formular an und wartet dann oft sehr lange und meistens erfolglos auf Aufnahme.

Das ist bei Suchmaschinen anders. Im Herz einer Suchmaschine haben Suchroboter, die sog. Robots das sagen. Eine Suchmaschine hat nur das eine Ziel, moeglichst viele Seiten zu finden und das moeglichst schnell. Dazu werden Robots, Crawler, Spider oder Worms auf die Jagd geschickt. Fuer den gewitzten Homepagebastler eine Einladung, den Surf Roboter mit Informationen zu koedern. Entgegen der verbreiteten Meinung surfen die Suchmaschinen Roboter nicht blind von Hyperlinks zu Hyperlink und von Seite zu Seite, sondern geben sich gerne mit den an der richtigen Stelle gemachten Angaben des Seitenbetreibers zufrieden.

Es gibt Robots fuer die verschiedensten Zwecke, hier geht es nur um die Suchroboter. Diese tragen sich in der Regel auch in die Log Dateien ein. Es gibt zwei Wege, Besuch von einem solchen Spaeher zu bekommen. Auf ausdrueckliche Einladung, d.h. Anmeldung bei einer Suchmaschine hin, oder durch Links zu einer Seite, die erfasst wurde. Die Anmeldung ist der haeufigere Fall. Innerhalb von 24 Stunden ist die Sache dann erledigt. Die meisten Roboter sind nachts unterwegs, wenn es ruhiger wird im Netz. Die komplette Erfassung einer Domain, mit allen Unterseiten kann bis zu einem viertel Jahr (AltaVista) dauern. Je oefter Suchroboter losgeschickt werden, desto besser ist die Qualitaet der gewonnenen Daten. Nicht mehr gueltige URLs koennen automatisch ausgetragen werden.

Die Stelle an der man als Seitenbetreiber Nachrichten fuer Suchroboter hinterlassen kann, sind die Meta Tags (dazu kommen wir im Teil 3). Theoretisch teilt man hier mit, worum es geht auf der Seite, man kann aber auch bestimmte Bereiche sperren, die nicht gescannt werden sollen. Der Nachteil ist nur, das sich nicht alle Roboter daran halten. Tendenziell ist es auch gut, wenn moeglichst viele Links auf die eigene Seite fuehren, d.h., wer klein anfaengt hat es doppelt schwer, denn eigentlich wollte man die Suchmaschine ja dazu haben, um bekannt zu werden...

Loesung aus dieser misslichen Lage verspricht der (etwas kuerzere) Suchmaschinenreport Teil 2, wenn es um die richtige Bewerbung bei Suchmaschinen geht.

Teil 2 : Bewerbertraining - voll gut ankommen bei Suchmaschinen
Suchmaschinenbetreiber sind ein verschwiegenes Voelkchen, das sich nicht gerne in die Karten schauen laesst. Aber die geizige Gemeinde weiss jetzt Bescheid, und Dr. Web ist nicht zu bremsen. Exklusiv beim Geizkragen der zweite Teil des grossen Suchmaschinenreports. heute geht es um die richtige Anmeldung bei den geheimnisvollen Suchmaschinen.

Suchmaschinen gibt es wie Sand am Meer, aber seien wir ehrlich, nicht jede Suchmaschine ist gleich wichtig. Wer die Anmeldung bei fuenfhundert oder mehr Suchmaschinen gleichzeitig verspricht, hat selten ein gutes Gewissen. Tipp: Finger weg von solchen Anbietern. Wir konzentrieren unsere Energie (eine Grundhaltung des gemeinen Geizkragens) auf lohnenswerte Ziele. Allesklar.de, austria.netguide.at (AT), Altavista.de, Bellnet.de, Dino-online.de, Excite.de, Fireball.de, Google.de, Infoseek.de, Lycos.de, Sharelook.de, Web.de und Yahoo sind die Seiten die zaehlen. Hier sollte man unserer Meinung nach angemeldet sein. Alle andere bringen nur gelegentlich einen Treffer und lohnen oft die Muehe der Anmeldung und Kontrolle kaum.

Wie melden wir uns an?

[..a..] Alles selbst machen, von Hand: So aufwaendig (ae = neue Rechtschreibreform) ist es gar nicht, einige Dutzend Maschinen abzufahren. Mehr als ein bis zwei Stunden brauchen dafuer nicht veranschlagt zu werden. Man nutzt die Gelegenheit, um die Suchmaschinen kennen zu lernen und traegt sich auch gleich in die Kataloge wie Yahoo oder Web.de ein.

[..b..] Automatisch, mit online Formular: Das ist bequem, aber lueckenhaft. Man weiss nicht genau, ob eine Anmeldung auch tatsaechlich stattgefunden hat. Zudem sind die Anmeldelisten nicht immer komplett, das gilt ganz besonders fuer die vielen kostenlosen Dienste in diesem Bereich, die oft nur als Testlauf gedacht sind.

[..c..] Anmelde-Software: Eine sinnvolle Loesung vor allem fuer jene, die haeufiger mal Web-Sites anmelden muessen. Webmaster oder Web-Designer wissen den Komfort zu schaetzen. Die Software wir durch regelmaessige Updates immer auf dem neuesten Stand gehalten. Projekte lassen sich in der Regel auch abspeichern, so dass sie fuer weitere Arbeitsgaenge auch spaeter noch zur Verfuegung stehen. Ein echter Geheimtipp ist das Profitool Submitta. Die mit Lob ueberschuettete aktuelle Vollversion gibt es hier direkt zum Download: http://www.submitta.net/download

[..d..] Dienstleister: Die teuerste Loesung. Dafuer koennen Sie sicher sein, dass alle Anmeldungen auch tatsaechlich geklappt haben und so durchgefuehrt wurden, wie es die Suchmaschinen verlangen. Aber wer wird dafür schon sein Erspartes ausgeben wollen, wenn er alles selbst erledigen kann.


Egal wie, es dauert eine Weile, bis man das Resultat begutachten kann. Am schnellsten geht es bei Fireball. Etwa 1 bis 2 Tage muessen veranschlagt werden. Auch bei Infoseek hat man gute aussichten, waehrend Altavista, Excite und Lycos so lange brauchen, dass man seine Anmeldung oft schon wieder vergessen hat, wenn die ersten Besucher kommen. Aber: Auch wenn Du Dich noch so oft anmeldest und die schoensten Meta Tags schreibst, manche Spider indizieren nur eine bestimmte Anzahl von Seiten pro Homepage. Da Geocities, Fortunecity und andere Free Webspace Provider eine Unzahl von Seiten unter einer einzigen Adresse unterhalten, hat man hier keine guten Chancen; indiziert wird nur ein Bruchteil aller Seiten.

Im naechsten Teil des Grossen Suchmaschinenreports geht es ans Eingemachte. Aus erster Hand gibt es die Grundlagen und worauf es beim Anmelden wirklich ankommt.


Teil 3: Gross rauskommen, worauf kommt es an? Die Grundlagen
Bevor irgendetwas angemeldet wird, sollte man vorhandene Seiten einer genauen Pruefung unterziehen. Suchmaschinen sind recht blinde Gesellen, die sich vor allem fuer Texte interessieren.Die lassen sich naemlich am einfachsten verarbeiten, in eine Datenbank stecken und spaeter durchsuchen.

Das bedeutet leider auch, das alles, was nicht Text ist, zum Problem werden kann. Zum Beispiel Layer, Applets oder Javascripte, die auf vielen Homepages verbreitet sind und dort nuetzliche Dinge tun. Hier gilt: Skripte geizig einsetzen und vor allem Hyperlinks und die Navigation frei davon halten.

Wenn Suchmaschinen Text verlangen, dann sollte man sie nicht enttaeuschen. Mehr Text ist aber nicht automatisch besser, denn eine gute Suchmaschine prueft wie oft ein Suchwort im Verhaeltnis zur Textmenge vorhanden ist und an welcher Position es vorkommt. Je weiter oben das ist, desto besser. Besonders gut machen sich Ueberschriften (mit H1, H2 oder H3) oder Textpassagen in Fettschrift.

Abgesehen vom Text ist das allerwichtigste der Seitentitel, er wird in der obersten Browserleiste angezeigt. Hier muss ein sinnvoller, am besten ein den Inhalt beschreibender Text stehen. Der Seitentitel findet sich spaeter auch in den Ergebnislisten der Suchmaschinen wieder. Titel wie "Meine Homepage", "Seite 2" oder "kein Titel" sind deshalb nicht besonders vorteilhaft. Brauchbare Suchbegriffe sind hier gefragt.

Auch der Dateiname spielt eine wichtige Rolle. Ganz besonders bei Fireball. Achte bei der Suche einmal darauf (aber nicht Weitersagen ;-)) Deshalb macht es Sinn eine Seite zum Beispiel spartipp_telekonkosten.html zu nennen. Wer es mit seite3.html versucht, hat dagegen kaum eine Chance unter diesen Suchbegriffen gefunden zu werden, auch wenn es im Text davon nur so wimmelt.

Ein anderes Thema sind die sogenannten Meta-Tags. Sie beinhalten Informationen, die nicht auf dem Bildschirm dargestellt werden, die aber von Spidern und Robots und damit von den Suchmaschinen abgefragt werden koennen. Das ist aber - wie gesagt - eine andere Geschichte...


Teil 4: Gross rauskommen, die Fortsetzung für Tuning Profis: Meta Tags
Ein Spider sammelt die Informationen ueber eine Seite, die spaeter in der Suchmaschine erscheinen werden. Und zu allererst schaut er auf die Meta Tags, genauer, auf eine Datei namens robots.txt, die im Hauptverzeichnis abgelegt wird. Wer Suchmaschinen "fuettern" moechte, sollte also Wert auf die richtigen Meta Tags legen. Hier werden nicht nur Anweisungen und Anmerkungen fuer Suchmaschinen Roboter, sondern auch fuer Browser und Server platziert. Aber Obacht: Die Meta Tag Spezifaktionen bilden keinen geschlossenen Standard. Sie koennen befolgt werden, muessen aber nicht.

Erster wichtiger Tag: Der Description Meta Tag. Das Format ist Hier kommt Klartext hin, bis zu 1024 Zeichen stehen zur Verfuegung. Je nach Suchmaschine wird der Benutzer genau diese Beschreibung als Ergebnis seiner Suche erhalten.

Der zweite Tag, dem man Beachtung schenken sollte, ist der Keyword Meta Tag. So sieht er aus: . Die Stichworte werden durch Komma, Leerzeichen oder Semikolon getrennt. Mit einer Liste von Schluesselbegriffen zum Inhalt der jeweiligen Seite bekommst du ein weiteres gutes Mittel, um Suchmaschinen deutlich zu machen, worum es eigentlich geht.

Fuer die Vergabe der Stichworte gibt es ein paar gute Regeln:

[..a..] In bester sparsamer Tradition reicht es, jedes Keyword einmal aufzufuehren. Es ist ein weit verbreiteter Irrglaube anzunehmen Suchmaschine durch Wiederholungen beeindrucken zu koennen. Im schlimmsten Fall wird das als Spam-Versuch gewertet und fuehrt zur Disqualifikation.

[..b..] Wichtige Stichworte gehoeren an den Anfang der Liste, die unwichtigeren ans Ende.

[..c..] Einige Suchmaschinen unterscheiden Gross- und Kleinschreibung. Hat man den Verdacht, dass eine fuer die eigene Seite wichtige Suchmaschine darauf achtet (z.B. Fireball), sollte man zur Sicherheit beide Versionen angeben.

[..d..] Wieder andere Maschinen finden es gut, wenn ein Stichwort aus dem Keyword Meta Tag auch nochmal auf der Seite auftaucht. Hier hilft nur Ausprobieren.

[..e..] Viele Suchbegriffe werden gerne falsch geschrieben, oder der Suchende vertippt sich bei der Eingabe. Wer klug ist, macht sich das zu Nutze und gibt im Keyword-Meta Tag auch die "falschen" Stichworte an (etwas geitzig statt geizig). Das gilt genauso fuer fremdsprachige Stichworte.

[..e..] Die richtigen Keywords zu finden ist eine kleine Kunst, fuer die man Kreativitaet ebenso wie Wissen braucht.

[..f..] Suchroboter koennen uebrigens sowohl ausdrueckliche eingeladen, als auch ausgeladen werden. Mit dem Meta Tag robots und dem Text noindex oder none signalisiert man, dass man an einer Kontaktaufnahme nicht interessiert ist. Es gibt ebenfalls die Moeglichkeit mit follow oder nofollow festzulegen, ob den Links auf einer Seite gefolgt werden soll oder nicht.

[..g..] Der Revisit Meta Tag soll dafuer sorgen, dass der untersuchende Robot nach der angegebenen Anzahl von Tagen wieder vorbei kommt: . Allzu grosse Hoffnungen sind aber nicht angebracht: Die Suchmaschinenprogramme haben ihren eigenen, meist uebervollen Terminkalender und halten sich selten an solche Einladungen.


Teil 5: Sonderfälle von Frames, Brückenseiten und Menüs in der Sackgasse
Frames vertragen sich schlecht mit Suchmaschinen. In der Regel enthaelt ein Frameset weder einen brauchbaren Text noch irgendwelche Links. Framebefehle nach der Art [frame src="seite.htm"] sind keine Links im eigentlichen Sinne, die naemlich sehen ganz anders aus [a href="seite.htm]. Spider nehmen in der Regel den Seitentitel und machen sich anschliessend ueber den [noframes]-Bereich her. Leider wird dieser oft grob vernachlaessigt. "Diese Seite verwendet Frames" ist ein ausgesprochen sinnloser Text, der oft auch ueber die Suchmaschinen gefunden werden kann. Was allerdings nicht gefunden wird, ist der eigentliche Inhalt der Seite.

Und das kannst Du dagegen tun:
- Ein vollstaendiger Satz Meta-Tags gehoert in die Datei, die das Frameset enthaelt und in jede Inhalts-Seite. Gute Infos ueber Meta-Tags findest Du hier: http://fireball.de/meta_daten.html
- Wichtig ist ein gepflegter [noframes]-Bereich samt Seitenbeschreibung und Link auf das Inhaltsverzeichnis. Also nicht nur "diese Seite verwendet Frames", sondern richtiger Inhalt.
- Mit einer besonderen Empfangsseite mit guten Meta-Tags, Links und einer Beschreibung (als purer Text) koennen auch mehrere Eingaenge fuer verschiedene Themen geschaffen werden.

Brueckenseiten, enthalten Links, sind aber selbst von keiner anderen Seite aus zu erreichen. Ihr Zweck besteht darin, eine Seite fuer Spider ueberhaupt erst sichtbar zu machen, diese anzulocken oder in der fortgeschrittenen Version, den Robots maßgeschneiderte Informationen anzubieten. Frames, Java und andere Techniken sind fuer Suchmaschinen tabu. Wer ausschließlich PopUp-Menues oder Java-Applets verwendet, muss jede Seite einzeln anmelden. Um das zu umgehen, enthalten Brueckenseiten alle oder zumindest die wichtigsten Links, denen die Spider dann problemlos folgen koennen. Brueckenseiten kann man fuer die wichtigsten Suchmaschinen auch individuell bauen. Eine fuer "Altavista" zugeschnittene Startseite enthält alle wichtigen Suchbegriffe im Seitentitel und im . Auf Grafiken sollte weitgehend verzichtet werden. Die Startseite fuer "Excite" hingegen muss lediglich mit Meta-Befehlen fuer Keywords und Description ausgerüstet sein. Dort kann man grafisch aus dem Vollen schoepfen.

Die Navigation innerhalb einer Web-Site erfolgt in der Regel ueber Menues. Eine Fuelle von Techniken steht zur Verfuegung, doch manche davon sind fuer Suchmaschinen schlicht Sackgassen, weil es die Spider nicht auf die Unterseiten schaffen. Dagegen hilft nur die Installation einer kompletten Zweitnavigation und ansonsten alle wichtigen Seiten einzeln anzumelden... Einen kleinen Trick gibt es trotzdem: den unsichtbaren Hyperlink. Das ist ein ganz gewoehnlicher Textlink, der im Unterschied zur normalen Praxis keinen Text enthaelt. Das koennte so aussehen: [a href="seite2.html"][/a]. Der Browser zeigt nichts davon, der Spider der Suchmaschine jedoch faellt darauf herein und folgt dem unsichtbaren Link wie jedem anderen auch ;-))

Im nächsten Teil des grossen Suchmaschinenreports erfaehrst du etwas ueber die letzen intimen Geheimnisse der Suchmaschinen, "Schmutzige Tricks"...tz...tz...tz


Teil 6: Heute : "Schmutzige Tricks"...tz...tz...tz ;-))
Fuer die Geizkragen-Gemeinde laesst Dr. Web in der vorletzten Folge des Suchmaschinenreports endlich die Huellen fallen. Tabulos, offen und ausgiebig enthuellt er auch die letzten zarten Suchmaschinengeheimnisse.

Zuvor ein Wort der Besinnung und Warnung. Suchmaschinen sind wichtig! Ohne funktionierende Suchmaschinen drohten dem Web ewiges Chaos und Dunkelheit. Der Nutzen einer Suchmaschine besteht genau darin, dass sie objektiv Auskunft darueber gibt, was auf einer Seite zu finden ist. Ist die Objektivitaet hin, nuetzt sie niemandem mehr. Die Benutzer verlieren das Vertrauen und dann bleibt auch bei den Top gelisteten Seiten der Traffic aus. Suchmaschinenbetreiber legen zu Recht alles daran, ihre Bewertungskriterien geheim zu halten. Durchschaubare Suchmaschinen zeigen nur noch an, fuer wie wichtig der Webmaster seine eigene Seite haelt und sind damit wertlos. Stellt ein Suchmaschine fest, dass sie durchschaut ist, aendert sie meist sehr schnell ihre Suchstrategie.

Worauf die bekannten Suchmaschine achten, stellt Dr. Web hier exklusiv fuer die Gemeindemitglieder vor. Die genauen Verfahren sind geheim und waeren aus den eben genannten Gruenden auch nur sehr kurze Zeit aktuell. Es folgen Angaben zur Gewichtung von verschiedenen Kriterien den wichtigsten Suchmaschinen.
[..excite.de..]
Haeufigkeit des Suchwortes im Text, Suchwort im Titel, Suchwort am Anfang des Dokumentes, Excite nimmt nur .de Domains auf, andere anzumelden ist zwecklos.

[..lycos.de..]
Seitentitel, Ueberschriften, Keyworddichte (Anzahl im Verhaeltnis zur Position und Textmenge), Meta-Tags werden nicht beruecksichtigt, Im Lycos-Katalog aufgenommene Seiten werden bevorzugt, Title und Body muessen zusammen mindestens 75 Woerter enthalten, sonst wird nichts aufgenommen.

[..altavista.de..]
Anzahl der Keywords, Position der Keywords (je weiter oben desto wichtiger), Seitentitel, Metatags, Die Dichte der Keywords. Je naeher die Keywords beieinander stehen, desto mehr zaehlt die Seite.

[..fireball.de..]
Die URL mitsamt Domainname, Verzeichnis- und Dateiname spielt hier die erste Geige. Alles andere, etwa Metatags oder Keywordhaeufigkeit, kommt erst bei einer Mehrwortsuche zum Tragen. Fuer Fireball zu optimieren, heisst also in erster Linie einen sinnvollen und aussagekraeftigen Dateinamen zu finden.

[..infoseek.de..]
Seitentitel, URL, Links von anderen Seiten (siehe weiter unten)

[..google.com..]
Google sucht seit kurzem auch bei Yahoo und ist abgesehen von der steigenden Beliebtheit schon deshalb unbedingt in die Ranking-Strategie einzubeziehen. Keyworddichte (Anzahl im Verhaeltnis zur Position und Textmenge), Seitentitel, URL (aehnlich Fireball, aber weit weniger dominant), Links von anderen Seiten. Die Wirksamkeit dieser Methode ist umstritten. Die Idee ist, je mehr Links auf eine Seite weisen, desto wichtiger ist sie wahrscheinlich auch. Auf Brueckenseiten zum Beispiel weist in der Regel kein einziger Link, solche Vorkommnisse stuft Google deshalb als Spamming ein.


Teil 7: Suchmaschinen-Tricks für Webmaster
Nachdem wir auf die Besonderheiten der verschiedenen Suchmaschinen eingegangen sind, wollen wir heute im vorletzten Teil der grossen Suchmaschinenserie auf allgemein gueltige Kriterien der verschiedenen Suchmaschinen eingehen...

So manche Suchmaschinen behaupten zu messen, wie viele Links auf eine bestimmte Seite weisen. Je mehr desto hoeher ist dann das Ranking der angemeldeten Seiten. Die dahinterstehende Logik heisst: Je wichtiger und prominenter eine Site, desto nuetzlicher ist sie fuer die Surfer. Natuerlich koennte man auch da mit einigen Brueckenseiten nachhelfen, wenn man denn wollte...

Grafiken werden ebenfalls indiziert, denn in grossen Suchmaschinen laesst sich auch nach Bildern stoebern. Jede Grafik sollte deshalb einen sogenannten Alt-Text (Alt = Alternativ) enthalten, in denen dann die Suchwoerter auftauchen sollten. Ganz speziell die Suchmaschine Fireball hat es auf Dateibezeichnungen und Verzeichnisnamen abgesehen. Wer hier erfolgreich sein will, braucht entsprechende Namen. Es ist daher durchaus sinnvoll, einige Dateien in extra angelegte Unterverzeichnisse auszulagern. Ein Text in Fettschrift wird in der Regel von den Suchmaschinen hoeher bewertet als der selbe Text ohne die Formatierung. Macht deshalb ruhig gelegentlichen Gebrauch von den Tags [strong] oder [b]. Ein Uebermass davon negiert die Sache und macht die Seiten haesslich. Achtet auch auf die Ueberschriften. Klassische Ueberschriften werden mit dem [H1] bis [H6] Tag erzeugt. Je groesser desto besser. Leider sind solche Ueberschriften meistens viel zu gross und alles andere als aesthetisch. Wem das nicht ins Designkonzept passt, steuert mit dem font-size Tag dagegen: [h1][font size="2"]ideenreich[/font][/h1]. Alternativ lassen sich auch Style Sheets einsetzen. Mehr dazu bei Dr. Web im Web ;-))

Erleichtert den Spidern die Arbeit, wenn ihr das naechste Mal eine Web-Site anmeldet. Versucht es mit einer extra fuer die Spider gemachten Inhaltsangabe. Diese Seite enthaelt dann ausser vielen Hyperlinks rein gar nichts. So kommt der Spider am schnellsten von einer Seite zur naechsten.


Teil 8: Suchmaschinen-Tricks für Webmaster: Brücksenseiten
Verschiedene Seiten fuer verschiedene Suchmaschinen, die sogenannten Brueckenseiten (auch bekannt als Bridge Pages, Trigger Pages, Trichterseiten, Funnel Pages oder Doorway Pages) anzubieten, ist sehr arbeitsintensiv. Es gibt auch einfachere Methoden: Der Startseite wird einfach eine spezielle Suchmaschinenseite vorangestellt. Diese Seite enthaelt keine Tabellen, keine Frames, keine Grafiken, keine Imagemap sondern nur Text, Kommentare, Links und Meta-Befehle. Die Seitenüberschrift sollte in [H1] erscheinen und dem Seitentitel entsprechen. Alle Meta Keywords muessen im Text wiederholt werden. Suchroboter fallen darauf herein und indizieren die extra fuer sie erstellte Seite. Wer die Seite abruft, klickt sich dann ueber einen gewoehnlichen Hyperlink weiter. Auf einen Meta-Refresh fuer die automatische Weiterleitung sollte man verzichten, da einige Suchmaschinen diese Technik nicht moegen. Selbstverstaendlich sind auch mehrere Brueckenseiten als Eingaenge fuer verschiedene Bereiche einer Web-Site moeglich. Doch auch hier sollte man sich vor zu viel des Guten hueten; unzaehlige fuer den Surfer eigentlich nutzlose Seiten blaehen die Indices der Suchmaschinen auf und machen das gezielte Finden noch schwerer, als es ohnehin schon ist...

zurück weiter

Seite: [1] [2] [3] [4] [5] [6] [7] [8] [9] [10] [11]