Tag: SEO
Mitte der 1990er Jahre fingen die anstehenden Suchmaschinen im WWW an, das frühe Web zu ordnen. Die Seitenbesitzer erkannten schnell den Wert einer lieblings Positionierung in den Resultaten und recht bald entwickelten sich Behörde, die sich auf die Aufwertung qualifitierten.
In den Anfängen passierte die Aufnahme oft über die Übertragung der URL der jeweiligen Seite an die divergenten Suchmaschinen im Internet. Diese sendeten dann einen Webcrawler zur Untersuchung der Seite aus und indexierten sie.[1] Der Webcrawler lud die Internetseite auf den Web Server der Anlaufstelle, wo ein zweites Anwendung, der die bekannten Indexer, Informationen herauslas und katalogisierte (genannte Wörter, Links zu anderweitigen Seiten).
Die frühen Typen der Suchalgorithmen basierten auf Angaben, die dank der Webmaster selbst vorliegen wurden, wie Meta-Elemente, oder durch Indexdateien in Suchmaschinen im Internet wie ALIWEB. Meta-Elemente geben eine Übersicht via Gehalt einer Seite, jedoch registrierte sich bald hoch, dass die Einsatz der Vorschläge nicht vertrauenswürdig war, da die Wahl der angewendeten Schlüsselworte dank dem Webmaster eine ungenaue Vorführung des Seiteninhalts sonstige Verben vermochten. Ungenaue und unvollständige Daten in Meta-Elementen vermochten so irrelevante Seiten bei spezifischen Brauchen listen.[2] Auch versuchten Seitenersteller mehrere Merkmale in einem Zeitraum des HTML-Codes einer Seite so zu interagieren, dass die Seite passender in Ergebnissen gefunden wird.[3]
Da die zeitigen Suchmaschinen sehr auf Gesichtspunkte dependent waren, die nur in den Fingern der Webmaster lagen, waren sie auch sehr vulnerabel für Abusus und Manipulationen in der Positionierung. Um überlegenere und relevantere Vergleichsergebnisse in Resultaten zu erhalten, mussten sich die Operatoren der Suchmaschinen im Internet an diese Rahmenbedingungen adaptieren. Weil der Erfolg einer Suchseite davon abhängig ist, besondere Ergebnisse der Suchmaschine zu den inszenierten Suchbegriffen anzuzeigen, konnten unangebrachte Urteile dazu führen, dass sich die Nutzer nach diversen Möglichkeiten wofür Suche im Web umblicken. Die Rückmeldung der Suchmaschinen im WWW lagerbestand in komplexeren Algorithmen für das Platz, die Punkte beinhalteten, die von Webmastern nicht oder nur kompliziert manipulierbar waren. Larry Page und Sergey Brin konstruierten mit „Backrub“ – dem Urahn von Google – eine Suchmaschine, die auf einem mathematischen Routine basierte, der anhand der Verlinkungsstruktur Websites gewichtete und dies in den Rankingalgorithmus eingehen ließ. Auch weitere Suchmaschinen im WWW bezogen in der Folgezeit die Verlinkungsstruktur bspw. als der Linkpopularität in ihre Algorithmen mit ein.
Yahoo