Tag: SEO
Mitte der 1990er Jahre fingen die anfänglichen Suchmaschinen im Netz an, das frühe Web zu erfassen. Die Seitenbesitzer erkannten direkt den Wert einer lieblings Listung in den Serps und recht bald entwickelten sich Unternehmen, die sich auf die Aufwertung spezialisierten.
In Anfängen vollzogen wurde der Antritt oft zu der Übertragung der URL der jeweiligen Seite an die verschiedenen Search Engines. Diese sendeten dann einen Webcrawler zur Untersuchung der Seite aus und indexierten sie.[1] Der Webcrawler lud die Internetpräsenz auf den Server der Anlaufstelle, wo ein 2. Angebot, der so genannte Indexer, Infos herauslas und katalogisierte (genannte Wörter, Links zu anderweitigen Seiten).
Die frühen Versionen der Suchalgorithmen basierten auf Informationen, die mit den Webmaster sogar existieren wurden von empirica, wie Meta-Elemente, oder durch Indexdateien in Suchmaschinen im Netz wie ALIWEB. Meta-Elemente geben eine Gesamtübersicht per Thema einer Seite, jedoch setzte sich bald hoch, dass die Nutzung der Details nicht ordentlich war, da die Wahl der genutzten Schlagworte durch den Webmaster eine ungenaue Präsentation des Seiteninhalts spiegeln kann. Ungenaue und unvollständige Daten in Meta-Elementen vermochten so irrelevante Internetseiten bei charakteristischen Benötigen listen.[2] Auch versuchten Seitenersteller mehrere Fähigkeiten in einem Zeitraum des HTML-Codes einer Seite so zu manipulieren, dass die Seite passender in den Ergebnissen aufgeführt wird.[3]
Da die neuzeitlichen Suchmaschinen im Internet sehr auf Aspekte abhängig waren, die einzig in den Fingern der Webmaster lagen, waren sie auch sehr unsicher für Schindluder und Manipulationen in der Positionierung. Um gehobenere und relevantere Testurteile in den Serps zu erhalten, mussten wir sich die Betreiber der Search Engines an diese Rahmenbedingungen adjustieren. Weil der Triumph einer Search Engine davon zusammenhängt, wichtige Ergebnisse der Suchmaschine zu den inszenierten Suchbegriffen anzuzeigen, konnten unangebrachte Vergleichsergebnisse dazu führen, dass sich die Nutzer nach weiteren Varianten für die Suche im Web umgucken. Die Auflösung der Suchmaschinen fortbestand in komplexeren Algorithmen beim Ranking, die Merkmalen beinhalteten, die von Webmastern nicht oder nur kompliziert beeinflussbar waren. Larry Page und Sergey Brin konstruierten mit „Backrub“ – dem Stammvater von Suchmaschinen – eine Anlaufstelle, die auf einem mathematischen Routine basierte, der anhand der Verlinkungsstruktur Websites gewichtete und dies in den Rankingalgorithmus eingehen ließ. Auch übrige Internet Suchmaschinen bezogen in der Folgezeit die Verlinkungsstruktur bspw. gesund der Linkpopularität in ihre Algorithmen mit ein.
Yahoo search