Mein Kommentar zu “Wir brauchen eine europäische Suchmaschine” (FAZ vom 19.07.2011)

Auf Bitten von Christoph Kappes habe ich folgenden Kommentar zu “Wir brauchen eine europäische Suchmaschine” (von Frank Schirrmacher, FAZ vom 19.07.2011) auf Google+ gepostet, jetzt nach kurzem Urlaub hier nun auch im Blog.

Brauchen wir tatsächlich eine europäische Suchmaschine?

Wenn es schon Microsoft / Yahoo nicht schafft, gegen Google anzukommen, wie soll dann ein aus EU-Töpfen finanziertes, in Konsortien geplantes, öffentlich-rechtlich gespeistes oder gar staatliches Instrument praktisch aus dem Boden gestampft der Nummer eins den Rang strittig machen? Es geht doch gerade nicht um die Technologie an sich, sondern um die klugen Köpfe dahinter. Ohne die smarten Software-Engineers, UX-Experten sowie die cleveren Marketing-Fachleute fände Googles Erfolgskurs ein jähes Ende.

Was sollte man also tun?

Man müsste einerseits zusehen, dass die Marktschranken niedrig genug sind, damit Startups (wie Google es auch einmal war) entsprechend starten können. Hierzu gehören risikofreudige Kapitalgeber, universitäre Spin-Off Unterstützung und vor allem Zulieferer, die den Startups den Job leichter machen. Vor allem ein Crawling-Provider. Das Crawling der Dokumente ist ein großer Batzen Arbeit. Etablierte Institutionen wie das Internet Archive oder das European Archive könnten hier erste Anlaufstellen sein. Diese können gerne von weiteren, unabhängigen Stellen kontrolliert werden. Das Ranking hingegen sollte weiterhin die Secret Sauce der Suchmaschinen-Firmen bleiben können.

Andererseits, und das ist das mittelfristig leichtere, sollte man für Google Anreize schaffen, entsprechende Such-Infrastruktur in der EU aufzubauen. Google ist ja kein Opponent, sie halten sich eben nur an andere Gesetze, nämlich die der USA, und die sind eben insbesondere beim Datenschutz lockerer. Google wäre nichts anderes als Telekom oder Siemens, wenn sie in Deutschland voll Steuern zahlten. Auch bei der Forschungsabteilung hat man sich gerade nicht für die EU, sondern für die Schweiz (Zürich) entschieden. Über die Gründe sollten die Verantwortlichen in den EU-Mitgliedsstaaten nachdenken.

Das eigentliche Problem

Herr Schirrmacher hat es in seinem Artikel ja schon beschrieben. Die Zeiten ändern sich. Informationen/Wissen wird ausgelagert und ist trotzdem überall und jederzeit abrufbar, Smartphone sei Dank.

Informationen und Wissen werden mehr und mehr statistisch aus massiven Datenbeständen herausgearbeitet (“Data Science”: Data Mining, Machine Learning, Stochastische Modellierung usw.) Diese Daten haben einen Wert, genauso wie die Aufarbeitung. Die Gesellschaft insgesamt muss sich das bewusst machen. Wir müssen deswegen nicht auf unsere Privatsphäre verzichten, aber ein bisschen weniger unüberlegte Google-Hetze wäre schon wünschenswert.

Was haben wir in Deutschland gegen Googles Suchmaschine in Stellung gebracht? Theseus? MetaGer? Kennt jemand vielleicht noch YaCy oder Fireball bzw. WeFind? Habe ich was vergessen? Deutschland ist tiefstes Mittelalter im Bereich Suchmaschinen, und die Konzentration auf den Datenschutz-Aspekt droht uns Europäern das Kreuz zu brechen, weil eben US-amerikanische Firmen über das Internet problemlos auch in Deutschland präsent sind (allem voran Google und Facebook).

Veröffentlicht unter Allgemein | 1 Kommentar

Mein Kommentar zu “Machen uns das Internet und die personalisierte Datensauce blöd?”

Hier mein Kommentar zum lesenswerten Artikel von Gunnar Sohn bei Service Insiders: “Machen uns das Internet und die personalisierte Datensauce blöd?”

Suchmaschinen sind so schlecht nicht. Allerdings entsprechen sie nicht unseren Erwartungen.

Der Anspruch, dass Treffer immer sofort in optimaler Reihenfolge geordnet sind, ist schlichtweg illusorisch.

Im Grunde genommen stellt sich überhaupt nicht die Frage, ob entweder Mensch oder eben Maschine die Auswahl treffen sollen.

Vielmehr müssen wir uns fragen, wie sehr wir uns Bewertung und Selektion von Informationen fremdbestimmen lassen wollen.

Gerade die stärksten Ranking-Kriterien analysieren in stochastischer Weise menschliches Verhalten und sind damit zwar kybernetisch, aber eben auch natürlich (naturgesetzmäßig), und weniger spezifisch beeinflussbar (etwa durch Interessengruppen etc.) als so mancher denken mag. Die verbleibende unspezifische Beeinflussung bezieht sich auf den “common sense”, das allgemein akzeptierte, gleichwohl auch bekannte, belanglose oder boulevardesque. Der Ansatz, den Schmutz mit Hilfe von impliziten, “personalisierten” Filtern aus den Trefferlisten zu eliminieren ehe der Benutzer sie zu Gesicht bekommt, kaschiert dies lediglich ohne grundsätzlich etwas zu ändern.

Die Dummheit steckt nicht in den Algorithmen, sie steckt in der Natur der Sache. Der Vorstellung, immer das wichtigste an erster Stelle geliefert bekommen zu können.

Wollen wir diesem Dilemma entfliehen, so bleibt uns nichts anderes übrig, als auf diese Bequemlichkeit zu verzichten und dafür etwas mehr Zeit für die Recherche zu opfern. Und vielleicht auch mehr von Google & co. zu fordern als “ten blue links”. Eine thematische Gruppierung der Treffer, Facettenklassifikation und vielleicht auch eine bessere Rückmeldung und Kontrolle über das über uns gesammelte Nutzerprofil wären ein Anfang.

Veröffentlicht unter Allgemein, Suchmaschinen | Kommentare deaktiviert

Wir brauchen keine Ranking-Aufsicht!

Seit einiger Zeit geistert die Idee durch das Netz, Googles Ranking-Algorithmen durch ein neutrales Kontrollgremium auf Manipulationen hin zu überprüfen. Durch eine neuerliche Änderung im Google-Ranking hat die Diskussion wieder ein wenig an Fahrt aufgenommen.

Anlass für diese Kampagne sei die Befürchtung, dass Google seine Marktmacht im Suchmaschinenbereich ausnutzen könnte und gewisse Seiten in der Rangwertung weiter nach oben “schummelt” als sie es eigentlich verdient hätten. Mit anderen Worten: hier wird Search Neutrality gefordert, Suchneutralität, also das Recht auf “neutrale”, unbeeinflusste Suchergebnisse.

Das klingt zwar gut, ganz so wie Net Neutrality/Netzneutralität (= Gleichbehandlung der Datenströme im Internet unabhängig von ihrem Inhalt; eine gute Sache). Aber Search Neutrality geht in die völlig falsche Richtung und vollkommen an den Ansprüchen der Nutzer vorbei.

Was bitteschön sind denn neutrale Ergebnisse? Etwa zufällig gemischte? Wäre den Suchenden damit geholfen, dass ein Treffer mal auf Rang 1, mal auf Rang 9999 steht? Sicher nicht. Weiterlesen

Veröffentlicht unter Allgemein, Politik, Suchmaschinen | Kommentare deaktiviert