Tag: SEO
Mitte der 1990er Jahre fingen die anfänglichen Suchmaschinen an, das frühe Web zu ordnen. Die Seitenbesitzer erkannten rasch den Wert einer nahmen Listung in Resultaten und recht bald entwickelten sich Firma, die sich auf die Verfeinerung qualifizierten.
In Anfängen ereignete sich die Aufnahme oft über die Transfer der URL der jeweiligen Seite in puncto divergenten Suchmaschinen im WWW. Diese sendeten dann einen Webcrawler zur Prüfung der Seite aus und indexierten sie.[1] Der Webcrawler lud die Homepage auf den Server der Recherche, wo ein zweites Software, der bekannte Indexer, Infos herauslas und katalogisierte (genannte Wörter, Links zu ähnlichen Seiten).
Die zeitigen Varianten der Suchalgorithmen basierten auf Informationen, die durch die Webmaster eigenständig vorgegeben wurden, wie Meta-Elemente, oder durch Indexdateien in Suchmaschinen im Netz wie ALIWEB. Meta-Elemente geben eine Übersicht über den Gehalt einer Seite, allerdings stellte sich bald heraus, dass die Einsatz dieser Tipps nicht ordentlich war, da die Wahl der angewendeten Schlagworte dank dem Webmaster eine ungenaue Abbildung des Seiteninhalts spiegeln konnte. Ungenaue und unvollständige Daten in Meta-Elementen konnten so irrelevante Websites bei besonderen Stöbern listen.[2] Auch versuchten Seitenersteller verschiedenartige Eigenschaften binnen des HTML-Codes einer Seite so zu interagieren, dass die Seite stärker in den Serps gelistet wird.[3]
Da die zeitigen Suchmaschinen im Netz sehr auf Merkmalen angewiesen waren, die nur in Händen der Webmaster lagen, waren sie auch sehr anfällig für Schindluder und Manipulationen im Ranking. Um gehobenere und relevantere Resultate in Serps zu erhalten, mussten sich die Betreiber der Suchmaschinen im Netz an diese Umständen adaptieren. Weil der Triumph einer Search Engine davon abhängig ist, relevante Suchresultate zu den inszenierten Keywords anzuzeigen, vermochten ungünstige Urteile dazu führen, dass sich die Benutzer nach ähnlichen Varianten bei der Suche im Web umsehen. Die Rückmeldung der Suchmaschinen vorrat in komplexeren Algorithmen beim Rangordnung, die Gesichtspunkte beinhalteten, die von Webmastern nicht oder nur nicht leicht manipulierbar waren. Larry Page und Sergey Brin entwarfen mit „Backrub“ – dem Urahn von Google – eine Anlaufstelle, die auf einem mathematischen KI basierte, der anhand der Verlinkungsstruktur Unterseiten gewichtete und dies in Rankingalgorithmus eingehen ließ. Auch alternative Suchmaschinen im Netz relevant in Mitten der Folgezeit die Verlinkungsstruktur bspw. fit der Linkpopularität in ihre Algorithmen mit ein.