Tag: SEO
Mitte der 1990er Jahre fingen die ersten Suchmaschinen im Internet an, das frühe Web zu erfassen. Die Seitenbesitzer erkannten schnell den Wert einer bevorzugten Positionierung in den Serps und recht bald entwickelten sich Organisation, die sich auf die Optimierung professionellen.
In den Anfängen vollzogen wurde der Antritt oft über die Übermittlung der URL der richtigen Seite bei der diversen Suchmaschinen im Internet. Diese sendeten dann einen Webcrawler zur Auswertung der Seite aus und indexierten sie.[1] Der Webcrawler lud die Homepage auf den Webserver der Suchseiten, wo ein weiteres Computerprogramm, der die bekannten Indexer, Infos herauslas und katalogisierte (genannte Ansprüche, Links zu diversen Seiten).
Die damaligen Versionen der Suchalgorithmen basierten auf Informationen, die dank der Webmaster selbst vorgegeben sind, wie Meta-Elemente, oder durch Indexdateien in Suchmaschinen im Internet wie ALIWEB. Meta-Elemente geben einen Gesamtüberblick über den Gehalt einer Seite, dennoch registrierte sich bald hervor, dass die Inanspruchnahme der Ratschläge nicht solide war, da die Wahl der verwendeten Schlagworte dank dem Webmaster eine ungenaue Darstellung des Seiteninhalts wiedergeben konnte. Ungenaue und unvollständige Daten in den Meta-Elementen vermochten so irrelevante Unterseiten bei charakteristischen Benötigen listen.[2] Auch versuchten Seitenersteller mehrere Attribute innert des HTML-Codes einer Seite so zu interagieren, dass die Seite besser in Resultaten gelistet wird.[3]
Da die späten Search Engines sehr auf Kriterien dependent waren, die einzig in Koffern der Webmaster lagen, waren sie auch sehr unsicher für Missbrauch und Manipulationen in der Positionierung. Um vorteilhaftere und relevantere Testurteile in den Resultaten zu erhalten, mussten wir sich die Inhaber der Search Engines an diese Ereignisse einstellen. Weil der Ergebnis einer Suchseiten davon anhängig ist, wichtigste Suchresultate zu den gestellten Keywords anzuzeigen, vermochten untaugliche Vergleichsergebnisse dazu führen, dass sich die Benützer nach anderweitigen Chancen für die Suche im Web umschauen. Die Rückmeldung der Suchmaschinen im WWW fortbestand in komplexeren Algorithmen für das Ranking, die Kriterien beinhalteten, die von Webmastern nicht oder nur kompliziert manipulierbar waren. Larry Page und Sergey Brin konstruierten mit „Backrub“ – dem Vorläufer von Suchmaschinen – eine Suchmaschine, die auf einem mathematischen Suchsystem basierte, der mit Hilfe der Verlinkungsstruktur Websites gewichtete und dies in Rankingalgorithmus einfluss besitzen ließ. Auch weitere Suchmaschinen im Netz bezogen in Mitten der Folgezeit die Verlinkungsstruktur bspw. wohlauf der Linkpopularität in ihre Algorithmen mit ein.
Die Suchmaschine