Tag: SEO
Mitte der 1990er Jahre fingen die ersten Suchmaschinen im Netz an, das frühe Web zu systematisieren. Die Seitenbesitzer erkannten rasch den Wert einer bevorzugten Positionierung in den Serps und recht bald fand man Behörde, die sich auf die Aufbesserung spezialisierten.
In Anfängen vollzogen wurde die Aufnahme oft über die Übermittlung der URL der geeigneten Seite bei der vielfältigen Suchmaschinen im Internet. Diese sendeten dann einen Webcrawler zur Prüfung der Seite aus und indexierten sie.[1] Der Webcrawler lud die Homepage auf den Web Server der Suchseite, wo ein 2. Softwaresystem, der gern genutzte Indexer, Infos herauslas und katalogisierte (genannte Ansprüche, Links zu sonstigen Seiten).
Die damaligen Modellen der Suchalgorithmen basierten auf Informationen, die aufgrund der Webmaster selber vorhanden worden sind, wie Meta-Elemente, oder durch Indexdateien in Suchmaschinen im Internet wie ALIWEB. Meta-Elemente geben einen Eindruck über den Gegenstand einer Seite, dennoch registrierte sich bald herab, dass die Nutzung er Ratschläge nicht gewissenhaft war, da die Wahl der angewendeten Schlüsselworte durch den Webmaster eine ungenaue Darstellung des Seiteninhalts widerspiegeln vermochten. Ungenaue und unvollständige Daten in Meta-Elementen vermochten so irrelevante Websites bei charakteristischen Benötigen listen.[2] Auch versuchten Seitenersteller verschiedenartige Merkmale im Laufe des HTML-Codes einer Seite so zu beherrschen, dass die Seite überlegen in Ergebnissen gefunden wird.[3]
Da die zeitigen Suchmaschinen im WWW sehr auf Gesichtspunkte angewiesen waren, die bloß in den Koffern der Webmaster lagen, waren sie auch sehr labil für Straftat und Manipulationen in der Positionierung. Um überlegenere und relevantere Ergebnisse in Resultaten zu bekommen, mussten sich die Betreiber der Suchmaschinen im Internet an diese Faktoren einstellen. Weil der Ergebnis einer Suchseite davon abhängig ist, essentielle Suchresultate zu den inszenierten Keywords anzuzeigen, vermochten ungeeignete Testergebnisse darin resultieren, dass sich die Nutzer nach diversen Optionen wofür Suche im Web umblicken. Die Antwort der Search Engines lagerbestand in komplexeren Algorithmen für das Rang, die Kriterien beinhalteten, die von Webmastern nicht oder nur mühevoll manipulierbar waren. Larry Page und Sergey Brin entwarfen mit „Backrub“ – dem Stammvater von Bing – eine Suchseiten, die auf einem mathematischen KI basierte, der anhand der Verlinkungsstruktur Unterseiten gewichtete und dies in den Rankingalgorithmus einfluss besitzen ließ. Auch zusätzliche Suchmaschinen im Netz bezogen pro Folgezeit die Verlinkungsstruktur bspw. fit der Linkpopularität in ihre Algorithmen mit ein.
Yahoo