Hilltop-Algorithmus
Der Hilltop-Algorithmus (Hilltop dt. „Bergspitze“) ist ein Berechnungsverfahren, welches eine große Menge verknüpfter Dokumente bewertet und diejenigen bestimmt, die zu einem Suchwort die größte Relevanz haben. Dabei wird bestimmt, ob die betroffene Website zu den Experten- oder Autoritätsseiten gehört. Zusätzlich wird die Relevanz für bestimmte Keywords gewichtet. Sobald bei einer Suchmaschine eine zufällige Suchanfrage zu einem bestimmten Begriff eingegeben wird, so ermittelt die Suchmaschine zunächst die Experten- und Autoritätsseiten, die für die Suchanfrage relevant sind.
Anders als der PageRank-Algorithmus wird nicht der Wert einzelner Dokumente bestimmt, sondern die Verbindungen zwischen einem bestimmten Suchwort und einem Dokument.
Der Hilltop-Algorithmus wurde an der Universität Toronto von den beiden Wissenschaftlern George Mihaila und Krishna Barat, im Hinblick auf die immer wichtiger werdende Suche im Internet nach möglichst relevanten Seiten zu einem Suchwort, entwickelt. Der Algorithmus stellte eine wichtige Neuerung im Bereich der Internetsuche dar, nachdem Google 2003 das Patent für den Hilltop-Algorithmus erworben hatte. Es kann nicht eindeutig bestimmt werden, wie weit Google auf den Hilltop-Algorithmus bei seiner Sucher zurückgreift. Man geht allerdings davon aus, dass der Algorithmus eine wichtige Rolle bei der Ermittlung von Suchergebnissen spielt.
Expertenseiten
Eine Website erlangt dann den Expertenstatus, wenn sie ein bestimmtes Thema betrachtet und über viele ausgehende Links unabhängiger Websites, zu diesem Thema verfügt. Eine Website gilt dann als unabhängig, sobald sie von verschiedenen Autoren und Organisationen erstellt wurde.
Autoritätsseiten
Als Autoritätsseite wird dann eine Website beschrieben, wenn mindestens zwei, möglichst viele, unabhängige Expertenseiten auf die potenzielle Autoritätsseite verweisen. Folgende Kriterien müssen Expertenseiten erfüllen:
- Es darf keine Beziehung zwischen den verweisenden Expertenseiten bestehen.
- Die ersten drei Blöcke der IP-Adresse dürfen nicht identisch sein.
- Der generische Teil des Domain-Namen muss sich unterscheiden.
Das Ziel der Suchmaschinenoptimierung ist es einen Autoritäts- oder Expertenstatus zu erreichen.
Berechnungsvorgänge des Hilltop-Algorithmus
Die englische Bezeichnung „hilltop“ (dt. Hügelspitze) beschreibt die Berechnungsmethode des Hilltop-Algorithmus sehr treffend. Rechentechnisch wird nämlich zuerst einmal von Seiten ausgegangen, welche den größten Überblick über ein Themengebiet geben.
Praktisch bedeutet das, dass durch den Hilltop-Algorithmus im ersten Schritt die bereits erwähnten Experten Seiten ermittelt werden. Die Ermittlung der Seiten, welche viele Verbindungen zu unabhängigen Seiten des gleichen Themas haben, erfolgt sehr einfach und meist automatisch im Hintergrund. Nebenbei lassen sich die Experten Seiten einfach aktualisieren, da dies meist eine recht geringe Anzahl ist.
Die Suche nach den Autoritäts-Seiten erfolgt im Anschluss und gestaltet sich im Normalfall wesentlich einfacher, da nur diese Seiten als Autoritäts-Seiten zugelassen werden, auf die mindestens zwei voneinander unabhängige Experten Seiten verweisen.
Verhinderung von Spam durch den Hilltop-Algorithmus
Da die Suchmaschinen Inhalte nicht nach ihrer echten Relevanz überprüfen können, sondern diese nur anhand von Zeichenketten wahrnehmen können, müssen hierfür andere Methoden gewählt werden. Durch den Hilltop-Algorithmus können oberflächliche Inhalte von Suchmaschinen dadurch ausgeschlossen werden, da solche qualitativ minderwertige Seiten in der Regel nicht von besonders vielen Experten Seiten verlinkt werden.
Spam Seiten oder andere Seiten mit qualitativ niedrigem Content fallen durch das Raster beim Hilltop-Algorithmus durch. Normalerweise gibt es nun keine weitere Möglichkeit mehr, als Autoritäts-Seite eingestuft zu werden. Die Relevanz wird sozusagen automatisch als gering bewertet.
Unterschiede zwischen dem Hilltop-Algorithmus und dem PageRank-Algorithmus
Besonders im Hinblick auf das Berechnungsverfahren gibt es wichtige Unterschiede, zwischen dem Hilltop- und dem PageRank-Algorithmus. Sobald es um allgemeine Suchanfragen in großer Häufigkeit zu relativ allgemeinen Suchbegriffen kommt, gilt der Hilltop-Algorithmus als wesentlich exakter. Zusätzlich sind die Suchergebnisse besser abgesichert, durch das Basieren auf unabhängigen Experten Seiten. Diese können auch weniger leicht verfälscht werden.
Sobald es zu sehr speziellen Suchanfragen kommt, stößt der Hilltop-Algorithmus an seine Grenzen. Das liegt daran, dass es im Netz vergleichsweise wenige Seiten gibt, welche solch spezielle Themen bzw. Suchanfragen behandeln. Hingegen legt der PageRank-Algorithmus besonders die Linkpopularität eines Dokuments oder einer Website fest. Nach den neueren Berechnungsmethoden können sogar ganze Blocks, also eine gesamte Domain, festgelegt werden.
Der PageRank-Algorithmus beläuft sich auf das „Zufallssurfer-Modell“, welches sich zwar in vielen Bereichen als zutreffend erweist, allerdings spiegelt der PageRank nur das Interesse anderer Websitebetreiber wider. Das bedeutet, dass auf das individuelle Interesse der User nicht eingegangen wird. Durch viele und regelmäßige Anpassungen relativiert sich dieser Effekt wieder, aber der Einsatz, einiger zusätzlicher Algorithmen, bleibt bestehen. Zu diesen Zusatz-Algorithmen gehören bspw. „TrustRank“ oder „Hub and Authorities“.
Dagegen bietet der Hilltop-Algorithmus mit seinem auf unabhängigen Experten beruhenden Konzept eine, besonders auf den User und dessen Nutzen fokussierte Bewertung. Diese kann auch nicht so leicht unterlaufen, wie bei dem PageRank-Algorithmus.