Tag: SEO
Mitte der 1990er Jahre fingen die anfänglichen Suchmaschinen im WWW an, das frühe Web zu systematisieren. Die Seitenbesitzer erkannten unmittelbar den Wert einer bevorzugten Listung in Suchergebnissen und recht bald entwickelten sich Anstalt, die sich auf die Optimierung ausgebildeten.
In den Anfängen erfolgte die Aufnahme oft zu der Transfer der URL der entsprechenden Seite bei der verschiedenartigen Suchmaschinen im Netz. Diese sendeten dann einen Webcrawler zur Auswertung der Seite aus und indexierten sie.[1] Der Webcrawler lud die Internetseite auf den Webserver der Suchseiten, wo ein 2. Programm, der die bekannten Indexer, Informationen herauslas und katalogisierte (genannte Wörter, Links zu sonstigen Seiten).
Die frühen Modellen der Suchalgorithmen basierten auf Informationen, die dank der Webmaster eigenständig existieren werden, wie Meta-Elemente, oder durch Indexdateien in Search Engines wie ALIWEB. Meta-Elemente geben einen Gesamteindruck per Content einer Seite, dennoch registrierte sich bald hoch, dass die Inanspruchnahme er Vorschläge nicht solide war, da die Wahl der verwendeten Schlagworte dank dem Webmaster eine ungenaue Vorführung des Seiteninhalts wiedergeben kann. Ungenaue und unvollständige Daten in den Meta-Elementen konnten so irrelevante Websites bei charakteristischen Benötigen listen.[2] Auch versuchten Seitenersteller diverse Fähigkeiten innerhalb des HTML-Codes einer Seite so zu steuern, dass die Seite richtiger in den Ergebnissen gefunden wird.[3]
Da die damaligen Suchmaschinen im WWW sehr auf Punkte angewiesen waren, die einzig in Fingern der Webmaster lagen, waren sie auch sehr instabil für Falscher Gebrauch und Manipulationen im Ranking. Um gehobenere und relevantere Testergebnisse in Serps zu bekommen, mussten wir sich die Unternhemer der Suchmaschinen im WWW an diese Voraussetzungen einstellen. Weil der Gewinn einer Recherche davon anhängig ist, besondere Suchresultate zu den gestellten Suchbegriffen anzuzeigen, konnten unpassende Testurteile dazu führen, dass sich die User nach diversen Möglichkeiten für den Bereich Suche im Web umschauen. Die Auflösung der Suchmaschinen im Internet inventar in komplexeren Algorithmen fürs Rangfolge, die Aspekte beinhalteten, die von Webmastern nicht oder nur schwer lenkbar waren. Larry Page und Sergey Brin entwarfen mit „Backrub“ – dem Stammvater von Bing – eine Suchseite, die auf einem mathematischen Suchsystem basierte, der anhand der Verlinkungsstruktur Internetseiten gewichtete und dies in Rankingalgorithmus einfluss besitzen ließ. Auch andere Search Engines bezogen bei Folgezeit die Verlinkungsstruktur bspw. als der Linkpopularität in ihre Algorithmen mit ein.