Tag: SEO
Mitte der 1990er Jahre fingen die aller ersten Internet Suchmaschinen an, das frühe Web zu systematisieren. Die Seitenbesitzer erkannten zügig den Wert einer lieblings Listung in den Ergebnissen und recht bald fand man Betrieb, die sich auf die Verbesserung spezialisierten.
In den Anfängen erfolgte der Antritt oft über die Übermittlung der URL der jeweiligen Seite bei der unterschiedlichen Suchmaschinen im WWW. Diese sendeten dann einen Webcrawler zur Analyse der Seite aus und indexierten sie.[1] Der Webcrawler lud die Internetpräsenz auf den Webserver der Anlaufstelle, wo ein weiteres Softwaresystem, der bekannte Indexer, Angaben herauslas und katalogisierte (genannte Wörter, Links zu ähnlichen Seiten).
Die späten Versionen der Suchalgorithmen basierten auf Informationen, die mit den Webmaster eigenständig bestehen worden sind, wie Meta-Elemente, oder durch Indexdateien in Suchmaschinen im Netz wie ALIWEB. Meta-Elemente geben eine Übersicht über den Gehalt einer Seite, jedoch setzte sich bald heraus, dass die Anwendung dieser Details nicht ordentlich war, da die Wahl der angewendeten Schlagworte durch den Webmaster eine ungenaue Darstellung des Seiteninhalts wiedergeben vermochten. Ungenaue und unvollständige Daten in den Meta-Elementen vermochten so irrelevante Kanten bei individuellen Stöbern listen.[2] Auch versuchten Seitenersteller unterschiedliche Attribute in einem Zeitraum des HTML-Codes einer Seite so zu interagieren, dass die Seite überlegen in den Resultaten aufgeführt wird.[3]
Da die späten Suchmaschinen im WWW sehr auf Aspekte abhängig waren, die ausschließlich in den Koffern der Webmaster lagen, waren sie auch sehr labil für Schindluder und Manipulationen in der Positionierung. Um bessere und relevantere Vergleichsergebnisse in den Suchergebnissen zu erhalten, mussten sich die Besitzer der Suchmaschinen im WWW an diese Ereignisse integrieren. Weil der Riesenerfolg einer Suchseiten davon abhängig ist, wichtigste Suchergebnisse zu den gestellten Keywords anzuzeigen, vermochten ungünstige Ergebnisse dazu führen, dass sich die Benutzer nach diversen Entwicklungsmöglichkeiten bei der Suche im Web umblicken. Die Auskunft der Suchmaschinen im Netz fortbestand in komplexeren Algorithmen für das Rangordnung, die Aspekte beinhalteten, die von Webmastern nicht oder nur nicht leicht manipulierbar waren. Larry Page und Sergey Brin entwickelten mit „Backrub“ – dem Urahn von Suchmaschinen – eine Suchseiten, die auf einem mathematischen Suchalgorithmus basierte, der anhand der Verlinkungsstruktur Websites gewichtete und dies in den Rankingalgorithmus eingehen ließ. Auch alternative Suchmaschinen bezogen pro Folgezeit die Verlinkungsstruktur bspw. gesund der Linkpopularität in ihre Algorithmen mit ein.
Die Suchmaschine