Tag: SEO
Mitte der 1990er Jahre fingen die ersten Search Engines an, das frühe Web zu systematisieren. Die Seitenbesitzer erkannten direkt den Wert einer nahmen Positionierung in den Ergebnissen und recht bald entwickelten sich Betrieb, die sich auf die Aufwertung spezialisierten.
In Anfängen bis zu diesem Zeitpunkt die Aufnahme oft zu der Transfer der URL der jeweiligen Seite in puncto diversen Search Engines. Diese sendeten dann einen Webcrawler zur Untersuchung der Seite aus und indexierten sie.[1] Der Webcrawler lud die Homepage auf den Webserver der Anlaufstelle, wo ein weiteres Angebot, der die bekannten Indexer, Informationen herauslas und katalogisierte (genannte Wörter, Links zu weiteren Seiten).
Die frühen Modellen der Suchalgorithmen basierten auf Angaben, die durch die Webmaster selbst vorgegeben werden konnten, wie Meta-Elemente, oder durch Indexdateien in Search Engines wie ALIWEB. Meta-Elemente geben einen Gesamteindruck per Gegenstand einer Seite, doch stellte sich bald hoch, dass die Einsatz er Ratschläge nicht gewissenhaft war, da die Wahl der verwendeten Schlüsselworte dank dem Webmaster eine ungenaue Erläuterung des Seiteninhalts sonstige Verben hat. Ungenaue und unvollständige Daten in den Meta-Elementen konnten so irrelevante Unterseiten bei individuellen Benötigen listen.[2] Auch versuchten Seitenersteller unterschiedliche Fähigkeiten im Laufe des HTML-Codes einer Seite so zu manipulieren, dass die Seite passender in Resultaten aufgeführt wird.[3]
Da die neuzeitlichen Suchmaschinen im Internet sehr auf Faktoren abhängig waren, die allein in den Fingern der Webmaster lagen, waren sie auch sehr anfällig für Schindluder und Manipulationen im Ranking. Um überlegenere und relevantere Testergebnisse in den Ergebnissen zu bekommen, mussten sich die Anbieter der Suchmaschinen im Internet an diese Ereignisse integrieren. Weil der Riesenerfolg einer Suchseite davon abhängig ist, wichtigste Suchresultate zu den inszenierten Keywords anzuzeigen, vermochten untaugliche Testergebnisse zur Folge haben, dass sich die Benutzer nach weiteren Chancen bei dem Suche im Web umsehen. Die Erwiderung der Suchmaschinen im WWW fortbestand in komplexeren Algorithmen beim Ranking, die Faktoren beinhalteten, die von Webmastern nicht oder nur mühevoll beeinflussbar waren. Larry Page und Sergey Brin konstruierten mit „Backrub“ – dem Vorläufer von Google – eine Recherche, die auf einem mathematischen KI basierte, der anhand der Verlinkungsstruktur Internetseiten gewichtete und dies in Rankingalgorithmus eingehen ließ. Auch zusätzliche Suchmaschinen im Internet orientiert zu Beginn der Folgezeit die Verlinkungsstruktur bspw. gesund der Linkpopularität in ihre Algorithmen mit ein.
Suchmaschinen