Tag: SEO
Mitte der 1990er Jahre fingen die anfänglichen Suchmaschinen im Netz an, das frühe Web zu katalogisieren. Die Seitenbesitzer erkannten rasch den Wert einer bevorzugten Positionierung in den Serps und recht bald entstanden Betriebe, die sich auf die Verfeinerung qualifizierten.
In Anfängen vollzogen wurde der Antritt oft über die Transfer der URL der speziellen Seite an die diversen Suchmaschinen im Netz. Diese sendeten dann einen Webcrawler zur Auswertung der Seite aus und indexierten sie.[1] Der Webcrawler lud die Website auf den Web Server der Suchseite, wo ein zweites Software, der bekannte Indexer, Informationen herauslas und katalogisierte (genannte Ansprüche, Links zu weiteren Seiten).
Die frühen Versionen der Suchalgorithmen basierten auf Infos, die anhand der Webmaster eigenhändig gegeben werden, wie Meta-Elemente, oder durch Indexdateien in Suchmaschinen im WWW wie ALIWEB. Meta-Elemente geben eine Übersicht per Content einer Seite, aber stellte sich bald raus, dass die Einsatz er Hinweise nicht zuverlässig war, da die Wahl der angewendeten Schlagworte durch den Webmaster eine ungenaue Präsentation des Seiteninhalts spiegeln kann. Ungenaue und unvollständige Daten in den Meta-Elementen vermochten so irrelevante Seiten bei speziellen Brauchen listen.[2] Auch versuchten Seitenersteller verschiedene Attribute im Laufe des HTML-Codes einer Seite so zu interagieren, dass die Seite richtiger in Ergebnissen aufgeführt wird.[3]
Da die späten Internet Suchmaschinen sehr auf Faktoren abhängig waren, die allein in Koffern der Webmaster lagen, waren sie auch sehr unsicher für Falscher Gebrauch und Manipulationen in der Positionierung. Um gehobenere und relevantere Testergebnisse in Serps zu bekommen, musste ich sich die Betreiber der Suchmaschinen an diese Ereignisse integrieren. Weil der Triumph einer Suchseite davon abhängt, essentielle Suchresultate zu den inszenierten Keywords anzuzeigen, konnten ungeeignete Resultate darin resultieren, dass sich die Nutzer nach ähnlichen Möglichkeiten für den Bereich Suche im Web umschauen. Die Lösung der Suchmaschinen im Internet fortbestand in komplexeren Algorithmen beim Positionierung, die Kriterien beinhalteten, die von Webmastern nicht oder nur nicht leicht manipulierbar waren. Larry Page und Sergey Brin entwickelten mit „Backrub“ – dem Vorläufer von Google – eine Anlaufstelle, die auf einem mathematischen Routine basierte, der mit Hilfe der Verlinkungsstruktur Internetseiten gewichtete und dies in den Rankingalgorithmus einfließen ließ. Auch alternative Suchmaschinen im Netz orientiert während der Folgezeit die Verlinkungsstruktur bspw. fit der Linkpopularität in ihre Algorithmen mit ein.