Tag: SEO
Mitte der 1990er Jahre fingen die anstehenden Suchmaschinen im Netz an, das frühe Web zu erfassen. Die Seitenbesitzer erkannten schnell den Wert einer bevorzugten Positionierung in den Ergebnissen und recht bald fand man Anstalt, die sich auf die Optimierung qualifitierten.
In Anfängen ereignete sich die Aufnahme oft über die Übertragung der URL der jeweiligen Seite an die verschiedenartigen Suchmaschinen im Netz. Diese sendeten dann einen Webcrawler zur Auswertung der Seite aus und indexierten sie.[1] Der Webcrawler lud die Webpräsenz auf den Webserver der Suchseiten, wo ein zweites Anwendung, der bekannte Indexer, Infos herauslas und katalogisierte (genannte Ansprüche, Links zu diversen Seiten).
Die zeitigen Typen der Suchalgorithmen basierten auf Angaben, die mithilfe der Webmaster eigenständig vorhanden werden, wie Meta-Elemente, oder durch Indexdateien in Suchmaschinen im Netz wie ALIWEB. Meta-Elemente geben eine Übersicht mit Content einer Seite, dennoch setzte sich bald herab, dass die Einsatz er Hinweise nicht ordentlich war, da die Wahl der eingesetzten Schlüsselworte dank dem Webmaster eine ungenaue Beschreibung des Seiteninhalts reflektieren konnte. Ungenaue und unvollständige Daten in den Meta-Elementen konnten so irrelevante Websites bei einzigartigen Benötigen listen.[2] Auch versuchten Seitenersteller verschiedenartige Eigenschaften in des HTML-Codes einer Seite so zu steuern, dass die Seite besser in den Ergebnissen aufgeführt wird.[3]
Da die frühen Suchmaschinen im Internet sehr auf Punkte angewiesen waren, die alleinig in Taschen der Webmaster lagen, waren sie auch sehr empfänglich für Delikt und Manipulationen im Ranking. Um gehobenere und relevantere Vergleichsergebnisse in Resultaten zu bekommen, mussten wir sich die Betreiber der Suchmaschinen im Internet an diese Umständen adjustieren. Weil der Gelingen einer Suchmaschine davon anhängig ist, relevante Suchresultate zu den inszenierten Keywords anzuzeigen, konnten untaugliche Vergleichsergebnisse dazu führen, dass sich die Benützer nach weiteren Chancen für die Suche im Web umsehen. Die Erwiderung der Search Engines vorrat in komplexeren Algorithmen für das Ranking, die Kriterien beinhalteten, die von Webmastern nicht oder nur schwierig manipulierbar waren. Larry Page und Sergey Brin entwickelten mit „Backrub“ – dem Urahn von Google – eine Suchseiten, die auf einem mathematischen Matching-Verfahren basierte, der anhand der Verlinkungsstruktur Unterseiten gewichtete und dies in den Rankingalgorithmus eingehen ließ. Auch andere Suchmaschinen im Internet betreffend während der Folgezeit die Verlinkungsstruktur bspw. in Form der Linkpopularität in ihre Algorithmen mit ein.