Wir brauchen keine Ranking-Aufsicht!

Seit einiger Zeit geistert die Idee durch das Netz, Googles Ranking-Algorithmen durch ein neutrales Kontrollgremium auf Manipulationen hin zu überprüfen. Durch eine neuerliche Änderung im Google-Ranking hat die Diskussion wieder ein wenig an Fahrt aufgenommen.

Anlass für diese Kampagne sei die Befürchtung, dass Google seine Marktmacht im Suchmaschinenbereich ausnutzen könnte und gewisse Seiten in der Rangwertung weiter nach oben “schummelt” als sie es eigentlich verdient hätten. Mit anderen Worten: hier wird Search Neutrality gefordert, Suchneutralität, also das Recht auf “neutrale”, unbeeinflusste Suchergebnisse.

Das klingt zwar gut, ganz so wie Net Neutrality/Netzneutralität (= Gleichbehandlung der Datenströme im Internet unabhängig von ihrem Inhalt; eine gute Sache). Aber Search Neutrality geht in die völlig falsche Richtung und vollkommen an den Ansprüchen der Nutzer vorbei.

Was bitteschön sind denn neutrale Ergebnisse? Etwa zufällig gemischte? Wäre den Suchenden damit geholfen, dass ein Treffer mal auf Rang 1, mal auf Rang 9999 steht? Sicher nicht.

Dekonstruktion des Begriffs “Search Neutrality”

Gut, man könnte jetzt sagen: “nehmen wir einfach ein Standard Retrieval-Modell aus der Literatur (z.B. PageRank)” und definieren die Ergebnisse daraus als “neutral”. Doch nicht einmal das lässt sich garantieren, schließlich haben wir nicht definiert, was alles durchsucht werden kann. Im Prinzip müsste alles, aber auch wirklich alles, was so im Internet geschrieben und verlinkt wird, auffindbar sein. Das schafft nicht einmal Google. Allein schon deshalb nicht, weil es auch kostenpflichtige Inhalte gibt, auf die Google keinen Zugriff hat; von geschlossenen Plattformen wie Facebook ganz zu schweigen.

Wir nehmen also erstmal alles, was wir kriegen können. Liefert dann unser Verfahren neutrale Ergebnisse? Mitnichten. PageRank sorgt zwangsläufig dafür, dass populäre (= häufig verlinkte) Inhalte höher gerankt werden als unbekannte. Das macht eigentlich auch Sinn, denn was für viele interessant ist, könnte auch für einen selbst von Belang sein.

Fein. Wir suchen also in Wahrheit keine neutralen Ergebnisse, sondern relevante Ergebnisse, die aufgrund von mathematischen Modellen ermittelt werden, die wiederum auf menschlichem Verhalten (nämlich dem Setzen von Links) basieren.

Aber was ist “relevant”, was ist “gut”? Das, was die Mehrheit sagt? Wäre das demokratisch? Keinesfalls!

Sobald jemand nur im Ansatz daran denkt, Ergebnisse in ein Ranking zu pressen, hängt die “Relevanz” stark vom jeweiligen Kontext ab (d.h. welcher Benutzer wann und wo in welchem Zusammenhang wonach sucht) – es gibt kein universelles Ranking, keine inhärente Dominanz eines beliebigen Treffers über den anderen.

Search Neutrality ist ein Hirngespinst.

Googles Ranking-Zauberkiste

Natürlich verwendet Google in seiner “secret sauce” eine Mischung verschiedenster Verfahren. Mit etlichen Stellschrauben, um gezielt bestimmte Arten von Websites nach oben oder unten zu ranken. Warum? Um die Nutzerschaft glücklich zu machen! Verschlechterte sich Googles Ranking, würden diese in Scharen davonlaufen. Standardverfahren aus dem Textbuch alleine reichen nicht, um sich von der Konkurrenz abzusetzen. Wohlgemerkt, es geht hier hauptsächlich um die obersten fünf bis zehn Treffer pro Anfrage. Dort spielt die Musik. Alles darunter wird nur am Rande als Ergebnis wahrgenommen.

Wer glaubt, diese Parameter werden alle händisch optimiert, der irrt. Klar gibt es Blacklists, mit deren Hilfe Seiten ausgeblendet bzw. nach unten gerankt werden können, aber viele Ranking-Parameter werden heute schon mittels rein statistischem Maschinellen Lernen optimiert, d.h. wiederum mathematische Modelle entscheiden, welche Parameter und Faktoren wichtig sind, um ein möglichst “gutes” Ranking zu erzielen. Trainiert werden solche Verfahren zum Beispiel mit dem Klick-Verhalten der Nutzer: wenn etwa häufiger auf Rang 3 statt 1 geklickt wurde, ist dieser Treffer für die jeweilige Suchanfrage wohl relevanter  – bei der nächsten Suche könnte er so weiter oben stehen. Oder – so hat es Bing kürzlich vorgemacht – das Ranking wird gleich auf Basis der Treffer anderer Suchmaschinen ermittelt.

Dazu kommt, dass es je nach Datenbasis, Rechenzentrum und Nutzergruppe unterschiedliche Trefferlisten geben kann. Mittels “A/B-Tests” probiert Google neue Regeln an einer kleinen Nutzergruppe, ehe sie vollständig ausgerollt werden. Viel Spaß wünsche ich demjenigen, der angesichts der Vielzahl und Fluktuation der möglichen Parameter mit Sicherheit eine “Manipulation” der Treffer beweisen oder ausschließen möchte.

Eine Analogie aus der analogen Welt

Unabhängig von der technischen Dimension läuft es prinzipiell die Frage hinaus, ob man Google oder irgendeiner anderen Suchmaschine überhaupt vorschreiben darf, wie die Trefferlisten auszusehen, wo welche Treffer zu stehen haben. Brauchen wir eine Ranking-Aufsicht, eine Suchmaschinenpolizei?

Wie bei vielen Dingen aus der vermeintlich “virtuellen Welt” Internet, tut man gut daran Parallelen in der altbekannten, “analogen” Realität zu suchen. So kann man überprüfen, ob man nicht vielleicht mit zweierlei Maß misst.

Stellen wir uns doch einfach mal vor, wir hätten so etwas wie “Such-Neutralität” im Supermarkt. Das bedeutet, dass die Aufstellung der Artikel im Ladenregal alleine durch objektive, nachvollziehbare Gesichtspunkte festgelegt wird, um zu gewährleisten, dass beim Einkauf jeder Hersteller und jeder Käufer gleichberechtigt zum Zuge kommt.

Tatsächlich steckt hinter der Produktpositionierung aber knallharte Kalkulation. Einerseits werden Waren auf Augenhöhe stärker wahrgenommen und somit auch häufiger gekauft als diejenigen, für die man sich bücken muss. Deshalb werden diese Plätze für die rentabelsten Produkte reserviert bzw. von Markenherstellern “gepachtet” (gegen Geld bzw. bessere Einkaufskonditionen). Andererseits kann kein Händler sämtliche Produkte aufnehmen, und schon gar nicht gefährliche Produkte von unzuverlässigen Herstellern.

Niemand würde auf die Idee kommen, einem Einzelhändler vorzuschreiben, wo er in seinem Laden bestimmte Produkte aufstellen soll, ob er Eigenmarken den Vorzug gibt oder welche Produkte überhaupt verkauft werden dürfen. Wenn der Warenaufbau nicht so gut ankommt wie gedacht, wenn es nicht die richtigen Produkte zur richtigen Zeit gibt, wenn die Gänge unübersichtlich angeordnet sind und der Laden allgemein unattraktiv wirkt, dann merkt es der Händler an den schwindenden Einnahmen; die Kunden gehen einfach zur Konkurrenz. Es lebe die Marktwirtschaft!

Genauso verhält es sich bei den Suchmaschinen – die Konkurrenz ist nur einen Klick entfernt (schon mal mit Blekko gesucht?).

Wer Suchneutralität fordert, der muss auch konsequenterweise auch Shopping-Neutralität fordern. Wie absurd!

Vorschlag zur Güte: Innovation fördern

Statt Schlecht- oder Gleichmacherei und ewigem Genöle, Google sei auf dem besten Wege ein Informationsmonopol zu schaffen, lege ich – insbesondere der deutschen Politik – ans Herz, sich mehr um die Förderung von Innovationen im Bereich der Suchmaschinen-Entwicklung in Deutschland zu kümmern. Denn was gibt es dabei für den Staat schöneres als florierende Firmen, die im eigenen Lande Steuern zahlen!?

 

Dieser Beitrag wurde unter Allgemein, Politik, Suchmaschinen veröffentlicht. Setze ein Lesezeichen auf den Permalink.

Die Kommentarfunktion ist geschlossen.