Tag: SEO
Mitte der 1990er Jahre fingen die aller ersten Suchmaschinen im Netz an, das frühe Web zu sortieren. Die Seitenbesitzer erkannten unmittelbar den Wert einer bevorzugten Positionierung in den Ergebnissen und recht bald entwickelten sich Organisation, die sich auf die Aufwertung spezialisierten.
In Anfängen passierte die Aufnahme oft bezüglich der Übermittlung der URL der jeweiligen Seite an die diversen Suchmaschinen. Diese sendeten dann einen Webcrawler zur Analyse der Seite aus und indexierten sie.[1] Der Webcrawler lud die Internetpräsenz auf den Server der Suchseiten, wo ein 2. Anwendung, der bekannte Indexer, Infos herauslas und katalogisierte (genannte Wörter, Links zu ähnlichen Seiten).
Die neuzeitlichen Modellen der Suchalgorithmen basierten auf Infos, die anhand der Webmaster eigenhändig existieren worden sind, wie Meta-Elemente, oder durch Indexdateien in Suchmaschinen im Netz wie ALIWEB. Meta-Elemente geben einen Überblick mit Gehalt einer Seite, jedoch stellte sich bald hoch, dass die Benutzung er Hinweise nicht vertrauenswürdig war, da die Wahl der benutzten Schlagworte durch den Webmaster eine ungenaue Abbildung des Seiteninhalts repräsentieren hat. Ungenaue und unvollständige Daten in den Meta-Elementen konnten so irrelevante Unterseiten bei besonderen Brauchen listen.[2] Auch versuchten Seitenersteller unterschiedliche Attribute innerhalb des HTML-Codes einer Seite so zu manipulieren, dass die Seite größer in Serps gelistet wird.[3]
Da die späten Internet Suchmaschinen sehr auf Merkmalen abhängig waren, die nur in den Taschen der Webmaster lagen, waren sie auch sehr instabil für Missbrauch und Manipulationen in der Positionierung. Um bessere und relevantere Testergebnisse in den Suchergebnissen zu bekommen, musste ich sich die Betreiber der Suchmaschinen an diese Rahmenbedingungen adaptieren. Weil der Erfolg einer Suchmaschine davon abhängig ist, relevante Ergebnisse der Suchmaschine zu den inszenierten Keywords anzuzeigen, konnten ungeeignete Ergebnisse dazu führen, dass sich die User nach weiteren Wege zur Suche im Web umsehen. Die Auflösung der Search Engines inventar in komplexeren Algorithmen beim Ranking, die Kriterien beinhalteten, die von Webmastern nicht oder nur schwierig beeinflussbar waren. Larry Page und Sergey Brin konstruierten mit „Backrub“ – dem Stammvater von Die Suchmaschine – eine Recherche, die auf einem mathematischen KI basierte, der anhand der Verlinkungsstruktur Internetseiten gewichtete und dies in Rankingalgorithmus eingehen ließ. Auch übrige Internet Suchmaschinen bedeckt bei Folgezeit die Verlinkungsstruktur bspw. als der Linkpopularität in ihre Algorithmen mit ein.
Die Suchmaschine