Tag: SEO
Mitte der 1990er Jahre fingen die ersten Suchmaschinen im Netz an, das frühe Web zu systematisieren. Die Seitenbesitzer erkannten flott den Wert einer lieblings Listung in den Suchergebnissen und recht bald entstanden Betriebe, die sich auf die Aufbesserung professionellen.
In den Anfängen erfolgte die Aufnahme oft über die Übermittlung der URL der jeweiligen Seite bei der unterschiedlichen Internet Suchmaschinen. Diese sendeten dann einen Webcrawler zur Kritische Auseinandersetzung der Seite aus und indexierten sie.[1] Der Webcrawler lud die Internetseite auf den Server der Suchseiten, wo ein zweites Software, der allgemein so benannte Indexer, Informationen herauslas und katalogisierte (genannte Wörter, Links zu anderen Seiten).
Die neuzeitlichen Varianten der Suchalgorithmen basierten auf Angaben, die dank der Webmaster selber vorliegen werden konnten, wie Meta-Elemente, oder durch Indexdateien in Search Engines wie ALIWEB. Meta-Elemente geben einen Eindruck via Essenz einer Seite, aber stellte sich bald hoch, dass die Benutzung der Details nicht ordentlich war, da die Wahl der gebrauchten Schlagworte durch den Webmaster eine ungenaue Erläuterung des Seiteninhalts reflektieren konnte. Ungenaue und unvollständige Daten in Meta-Elementen vermochten so irrelevante Seiten bei speziellen Ausschau halten listen.[2] Auch versuchten Seitenersteller mehrere Attribute innert des HTML-Codes einer Seite so zu manipulieren, dass die Seite richtiger in Resultaten gelistet wird.[3]
Da die damaligen Internet Suchmaschinen sehr auf Merkmalen dependent waren, die ausschließlich in Taschen der Webmaster lagen, waren sie auch sehr vulnerabel für Missbrauch und Manipulationen im Ranking. Um gehobenere und relevantere Vergleichsergebnisse in den Resultaten zu bekommen, musste ich sich die Operatoren der Search Engines an diese Umständen adjustieren. Weil der Gewinn einer Recherche davon abhängig ist, essentielle Suchresultate zu den gestellten Suchbegriffen anzuzeigen, vermochten untaugliche Testurteile dazu führen, dass sich die Anwender nach diversen Chancen zur Suche im Web umblicken. Die Auskunft der Suchmaschinen im Internet vorrat in komplexeren Algorithmen fürs Rangordnung, die Aspekte beinhalteten, die von Webmastern nicht oder nur schwierig beherrschbar waren. Larry Page und Sergey Brin gestalteten mit „Backrub“ – dem Urahn von Google – eine Suchseiten, die auf einem mathematischen KI basierte, der anhand der Verlinkungsstruktur Seiten gewichtete und dies in den Rankingalgorithmus reingehen ließ. Auch alternative Suchmaschinen im WWW bezogen pro Folgezeit die Verlinkungsstruktur bspw. gesund der Linkpopularität in ihre Algorithmen mit ein.
Yahoo search