Tag: SEO
Mitte der 1990er Jahre fingen die anstehenden Search Engines an, das frühe Web zu erfassen. Die Seitenbesitzer erkannten schnell den Wert einer nahmen Listung in Resultaten und recht bald entwickelten sich Unternehmen, die sich auf die Aufwertung qualifitierten.
In Anfängen bis zu diesem Zeitpunkt der Antritt oft zu der Transfer der URL der passenden Seite in puncto unterschiedlichen Suchmaschinen im WWW. Diese sendeten dann einen Webcrawler zur Prüfung der Seite aus und indexierten sie.[1] Der Webcrawler lud die Internetpräsenz auf den Web Server der Search Engine, wo ein 2. Computerprogramm, der sogenannte Indexer, Infos herauslas und katalogisierte (genannte Wörter, Links zu anderweitigen Seiten).
Die späten Varianten der Suchalgorithmen basierten auf Informationen, die mithilfe der Webmaster selber vorgegeben worden sind, wie Meta-Elemente, oder durch Indexdateien in Internet Suchmaschinen wie ALIWEB. Meta-Elemente geben einen Eindruck mit Essenz einer Seite, dennoch registrierte sich bald hervor, dass die Inanspruchnahme der Tipps nicht vertrauenswürdig war, da die Wahl der benutzten Schlüsselworte durch den Webmaster eine ungenaue Abbildung des Seiteninhalts repräsentieren kann. Ungenaue und unvollständige Daten in den Meta-Elementen konnten so irrelevante Websites bei einzigartigen Recherchieren listen.[2] Auch versuchten Seitenersteller verschiedenartige Fähigkeiten innerhalb des HTML-Codes einer Seite so zu interagieren, dass die Seite passender in Resultaten gelistet wird.[3]
Da die frühen Suchmaschinen im WWW sehr auf Merkmalen angewiesen waren, die ausschließlich in Händen der Webmaster lagen, waren sie auch sehr unsicher für Delikt und Manipulationen im Ranking. Um tolle und relevantere Testergebnisse in den Suchergebnissen zu erhalten, musste ich sich die Besitzer der Suchmaschinen im WWW an diese Faktoren einstellen. Weil der Triumph einer Suchseite davon anhängig ist, essentielle Suchergebnisse zu den gestellten Suchbegriffen anzuzeigen, vermochten ungünstige Vergleichsergebnisse zur Folge haben, dass sich die Benützer nach anderen Entwicklungsmöglichkeiten wofür Suche im Web umgucken. Die Auflösung der Suchmaschinen im Internet lagerbestand in komplexeren Algorithmen beim Ranking, die Kriterien beinhalteten, die von Webmastern nicht oder nur kompliziert beherrschbar waren. Larry Page und Sergey Brin konstruierten mit „Backrub“ – dem Stammvater von Google – eine Recherche, die auf einem mathematischen Matching-Verfahren basierte, der anhand der Verlinkungsstruktur Webseiten gewichtete und dies in den Rankingalgorithmus reingehen ließ. Auch übrige Search Engines betreffend zu Beginn der Folgezeit die Verlinkungsstruktur bspw. in Form der Linkpopularität in ihre Algorithmen mit ein.
Yahoo search