Tag: SEO
Mitte der 1990er Jahre fingen die anfänglichen Suchmaschinen im Netz an, das frühe Web zu sortieren. Die Seitenbesitzer erkannten direkt den Wert einer lieblings Listung in den Resultaten und recht bald fand man Betrieb, die sich auf die Besserung qualifizierten.
In Anfängen geschah die Aufnahme oft zu der Übertragung der URL der jeweiligen Seite an die verschiedenartigen Suchmaschinen. Diese sendeten dann einen Webcrawler zur Auswertung der Seite aus und indexierten sie.[1] Der Webcrawler lud die Homepage auf den Webserver der Suchseite, wo ein zweites Angebot, der bekannte Indexer, Informationen herauslas und katalogisierte (genannte Wörter, Links zu anderweitigen Seiten).
Die damaligen Versionen der Suchalgorithmen basierten auf Informationen, die mit den Webmaster eigenhändig vorliegen werden, wie Meta-Elemente, oder durch Indexdateien in Search Engines wie ALIWEB. Meta-Elemente geben einen Gesamteindruck per Essenz einer Seite, doch stellte sich bald raus, dass die Inanspruchnahme er Hinweise nicht vertrauenswürdig war, da die Wahl der verwendeten Schlagworte durch den Webmaster eine ungenaue Erläuterung des Seiteninhalts repräsentieren kann. Ungenaue und unvollständige Daten in Meta-Elementen vermochten so irrelevante Unterseiten bei einzigartigen Stöbern listen.[2] Auch versuchten Seitenersteller diverse Merkmale in des HTML-Codes einer Seite so zu beherrschen, dass die Seite überlegen in Serps gelistet wird.[3]
Da die späten Suchmaschinen im Netz sehr auf Kriterien dependent waren, die bloß in Taschen der Webmaster lagen, waren sie auch sehr vulnerabel für Abusus und Manipulationen in der Positionierung. Um tolle und relevantere Testurteile in Serps zu erhalten, mussten wir sich die Unternhemer der Suchmaschinen im Netz an diese Gegebenheiten adjustieren. Weil der Ergebnis einer Recherche davon abhängig ist, essentielle Suchresultate zu den gestellten Keywords anzuzeigen, vermochten unangebrachte Ergebnisse zur Folge haben, dass sich die User nach sonstigen Entwicklungsmöglichkeiten zur Suche im Web umgucken. Die Antwort der Suchmaschinen im WWW vorrat in komplexeren Algorithmen für das Positionierung, die Merkmalen beinhalteten, die von Webmastern nicht oder nur kompliziert steuerbar waren. Larry Page und Sergey Brin entwickelten mit „Backrub“ – dem Vorläufer von Yahoo – eine Suchseite, die auf einem mathematischen Routine basierte, der mit Hilfe der Verlinkungsstruktur Webseiten gewichtete und dies in Rankingalgorithmus einfluss besitzen ließ. Auch übrige Search Engines orientiert zu Gesprächsaufhänger der Folgezeit die Verlinkungsstruktur bspw. fit der Linkpopularität in ihre Algorithmen mit ein.