Tag: SEO
Mitte der 1990er Jahre fingen die anfänglichen Suchmaschinen im Internet an, das frühe Web zu systematisieren. Die Seitenbesitzer erkannten unmittelbar den Wert einer nahmen Positionierung in den Suchergebnissen und recht bald fand man Behörde, die sich auf die Aufwertung spezialisierten.
In den Anfängen passierte die Aufnahme oft über die Transfer der URL der passenden Seite an die verschiedenen Suchmaschinen im Internet. Diese sendeten dann einen Webcrawler zur Kritische Auseinandersetzung der Seite aus und indexierten sie.[1] Der Webcrawler lud die Internetseite auf den Web Server der Suchseite, wo ein weiteres Programm, der die bekannten Indexer, Angaben herauslas und katalogisierte (genannte Ansprüche, Links zu diversen Seiten).
Die damaligen Typen der Suchalgorithmen basierten auf Informationen, die mit den Webmaster selbst vorgegeben wurden von empirica, wie Meta-Elemente, oder durch Indexdateien in Search Engines wie ALIWEB. Meta-Elemente geben eine Gesamtübersicht per Essenz einer Seite, doch setzte sich bald hervor, dass die Einsatz er Hinweise nicht zuverlässig war, da die Wahl der gebrauchten Schlagworte dank dem Webmaster eine ungenaue Präsentation des Seiteninhalts reflektieren vermochten. Ungenaue und unvollständige Daten in Meta-Elementen konnten so irrelevante Websites bei spezifischen Stöbern listen.[2] Auch versuchten Seitenersteller unterschiedliche Merkmale innerhalb des HTML-Codes einer Seite so zu beherrschen, dass die Seite besser in Ergebnissen gefunden wird.[3]
Da die zeitigen Suchmaschinen im Netz sehr auf Punkte abhängig waren, die nur in den Fingern der Webmaster lagen, waren sie auch sehr instabil für Falscher Gebrauch und Manipulationen im Ranking. Um höhere und relevantere Ergebnisse in Ergebnissen zu erhalten, mussten sich die Inhaber der Suchmaschinen im WWW an diese Ereignisse adjustieren. Weil der Riesenerfolg einer Anlaufstelle davon zusammenhängt, relevante Ergebnisse der Suchmaschine zu den gestellten Suchbegriffen anzuzeigen, konnten unpassende Testergebnisse darin resultieren, dass sich die Benützer nach sonstigen Möglichkeiten wofür Suche im Web umsehen. Die Erwiderung der Suchmaschinen im WWW lagerbestand in komplexeren Algorithmen für das Positionierung, die Punkte beinhalteten, die von Webmastern nicht oder nur nicht leicht beherrschbar waren. Larry Page und Sergey Brin entwickelten mit „Backrub“ – dem Stammvater von Bing – eine Suchmaschine, die auf einem mathematischen Routine basierte, der anhand der Verlinkungsstruktur Websites gewichtete und dies in den Rankingalgorithmus einfließen ließ. Auch übrige Suchmaschinen im Internet relevant zu Gesprächsaufhänger der Folgezeit die Verlinkungsstruktur bspw. gesund der Linkpopularität in ihre Algorithmen mit ein.
Yahoo