Tag: SEO
Mitte der 1990er Jahre fingen die 1. Suchmaschinen im WWW an, das frühe Web zu systematisieren. Die Seitenbesitzer erkannten schnell den Wert einer bevorzugten Positionierung in den Suchergebnissen und recht bald fand man Behörde, die sich auf die Optimierung spezialisierten.
In Anfängen ereignete sich der Antritt oft bezüglich der Übertragung der URL der speziellen Seite an die diversen Suchmaschinen im WWW. Diese sendeten dann einen Webcrawler zur Betrachtung der Seite aus und indexierten sie.[1] Der Webcrawler lud die Webpräsenz auf den Webserver der Suchseiten, wo ein zweites Softwaresystem, der allgemein so benannte Indexer, Informationen herauslas und katalogisierte (genannte Wörter, Links zu diversen Seiten).
Die neuzeitlichen Versionen der Suchalgorithmen basierten auf Infos, die aufgrund der Webmaster eigenständig vorhanden worden sind, wie Meta-Elemente, oder durch Indexdateien in Suchmaschinen im WWW wie ALIWEB. Meta-Elemente geben einen Überblick mit Inhalt einer Seite, jedoch setzte sich bald herab, dass die Inanspruchnahme er Vorschläge nicht vertrauenswürdig war, da die Wahl der angewendeten Schlagworte dank dem Webmaster eine ungenaue Vorführung des Seiteninhalts wiedergeben vermochten. Ungenaue und unvollständige Daten in den Meta-Elementen vermochten so irrelevante Webseiten bei individuellen Brauchen listen.[2] Auch versuchten Seitenersteller diverse Attribute im Laufe des HTML-Codes einer Seite so zu steuern, dass die Seite größer in Serps aufgeführt wird.[3]
Da die späten Internet Suchmaschinen sehr auf Faktoren angewiesen waren, die alleinig in den Koffern der Webmaster lagen, waren sie auch sehr vulnerabel für Delikt und Manipulationen im Ranking. Um gehobenere und relevantere Testergebnisse in den Suchergebnissen zu bekommen, mussten sich die Operatoren der Search Engines an diese Gegebenheiten angleichen. Weil der Ergebnis einer Suchseiten davon zusammenhängt, wesentliche Ergebnisse der Suchmaschine zu den inszenierten Keywords anzuzeigen, konnten unangebrachte Urteile zur Folge haben, dass sich die Benutzer nach weiteren Varianten zur Suche im Web umblicken. Die Antwort der Suchmaschinen im Netz lagerbestand in komplexeren Algorithmen beim Rang, die Kriterien beinhalteten, die von Webmastern nicht oder nur nicht leicht kontrollierbar waren. Larry Page und Sergey Brin generierten mit „Backrub“ – dem Urahn von Die Suchmaschine – eine Recherche, die auf einem mathematischen KI basierte, der mit Hilfe der Verlinkungsstruktur Internetseiten gewichtete und dies in den Rankingalgorithmus einfluss besitzen ließ. Auch übrige Suchmaschinen im WWW orientiert in der Folgezeit die Verlinkungsstruktur bspw. wohlauf der Linkpopularität in ihre Algorithmen mit ein.
Yahoo