Payback im Sommerloch: Google, Schirrmacher und des Kaisers neue Kleider

„Man muss das Werkzeug Google, mit dem wir heute alle arbeiten, nicht perhorreszieren. Aber eine europäische, nicht privatwirtschaftliche Suchmaschine, die keiner politischen oder ökonomischen Kontrolle unterliegt, ist vielleicht das wichtigste technologische Projekt der Gegenwart.“ Schrieb Frank „Payback“ Schirrmacher vergangene Woche in der FAZ.

Sein Beitrag sorgte durchaus für Resonanz. Es wurde viel diskutiert, die meisten Beiträge der journalistischen Profis lagen weitgehend neben der Sache, und bei Schirrmachers Thesen rund ums Internet ist ohnehin Vorsicht angesagt, so auch hier, wenn der konservative „Nerd“ (Schirrmacher über Schirrmacher) betont: „China, besorgt um seine Deutungshoheit, hat Baidu.“

Und wir haben – nichts? Warum behauptet Schirrmacher, die europäische Alternative zu Google müsse erst noch erfunden werden? Es gibt sie längst. Die Arbeit des SUMA-EV erwähnt er mit keiner Silbe. Und Schirrmacher interessiert sich bei seinen Überlegungen auch nicht die Bohne für die Frage, was die Suchmaschinentechnologie mit Freiem Wissen zu tun habe.

Man sieht, daß es sehr viel spannender ist, worüber er nicht schreibt, als worüber er sich in gewohnt eloquenter und pirouettenhafter Weise äußert, so mitten im Sommerloch.

Zumal Wolfgang Sander-Beuermann, der seit langem an der Uni Hannover die Metasuchmaschine MetaGer erfolgreich betreibt, bei Spiegel Online darauf hinweist, daß es nicht ausreiche, Google einfach nachzubauen. Er stellt sich vor, die Suche solle demokratisiert werden: „Stattdessen brauchen wir eine Suchmaschinen-Landschaft. Wir müssen den Pluralismus unserer Gesellschaft auch auf technischen Strukturen abbilden. … Jeder soll mitmachen und für kleine Nischen spezielle Suchmaschinen bauen können, die dann viel besser sind als große, vermeintlich alles wissende Angebote. Diese Spezialsuchen, von denen wir tausende für alle Wissensgebiete brauchen, sollen als demokratisch organisierte Struktur vernetzt werden – sowohl im technischen Sinne vernetzt, als auch organisatorisch.“ Suche von unten also, selbstbestimmt und selbstverwaltet, zivilgesellschaftlich organisiert, transparent und übrigens auch dem strengen Postulat des Datenschutzes beim Zugriff auf die Dienste verpflichtet.

Aber das alles paßt anscheinend nicht ins Weltbild des FAZ-Feuilletons. Dort stellt man sich die „europäische Suchmaschine“ eher als eine zentrale Instanz mit „Deutungshoheit“ vor, die dem „Moloch Europa“ entspringt, milliardenschwer, und die dem Bürger nach Altväter Sitte vorgesetzt werde, auf daß sie ihm zum Vorteil gereiche.

Der Schirrmachersche Kaiser hat keine Kleider!

Werbung

7 Kommentare zu „Payback im Sommerloch: Google, Schirrmacher und des Kaisers neue Kleider“

  1. Ich fürchte die Kritik ist etwas akademisch. Der Großteil der Internetnutzer hat meiner Meinung nach momentan etwa so wenig Interesse an Suchmaschinenpluralität wie an den bestehenden europäischen Alternativen zu Google (im Sinne von „ist mir egal“). Ich sehe exalead und Co. persönlich nach kurzem Test auch noch nicht auf Augenhöhe mit dem Marktführer.

  2. Bei der Internetsuche sollte man m. E. zwei Aspekte sauber trennen:

    Da ist zum einen das reine Crawling ( http://en.wikipedia.org/wiki/Web_crawler ). Das macht die Internetinhalte überhaupt erst sichtbar.

    In einem zweiten Schritt werden die Ergebnisse gewichtet und dem Nutzer zur Verfügung gestellt. Bei diesem zweiten Schritt kommen dann alle möglichen kommerziellen Interessen, kulturelle und politische Präferenzen, Zensur usw. zum tragen. Dies ist der wirklich kontroverse Teil.

    Für das umfassende, reine Crawling benötigt man sehr große technische Ressourcen, es ist folglich richtig teuer. Nur eine handvoll großer Unternehmen/Organisationen kann sich das leisten (neben Google sind das Bing/Yahoo sowie hierzulande weniger bekannte Suchmaschinen wie Baidu oder Yandex).

    Google ist beim reinen Crawling mit großem Abstand Klassenbester, Google ist der Goldstandard für Internetsuche, zumindest was das World Wide Web betrifft. Man mag das bedauern, es ist aber so und lässt sich mit vielen Beispielen belegen (zumindest für die „westliche“ Internetwelt; China scheint auch hier ein Universum für sich zu sein).

    Wichtig ist: Die Nutzer sollen sich über die Funktionsweise von Suchmaschinen informieren, lernen und ihr Suchverhalten anpassen; sie dürfen die erste Seite mit Suchergebnissen, die Google liefert, nicht als gottgegeben ansehen.

    (Der Schreiber dieser Zeilen nutzt übrigens Google nur ausnahmsweise und bevorzugt ansonsten alternative Suchmaschinen).

  3. Ich erwähnte das nur, weil ich die Ansätze von Schirrmacher und Sander-Beuermann als allgemein aufgefasst habe. Im wissenschaftlichen Umfeld scheint mit die Idee mit vielen spezialisierten Suchmaschinen sinnvoll und richtig, für die Allgemeinheit aber fast vernachlässigbar.
    Mich würde interessieren: Was gibt es für realistische Szenarien zur Verbesserung der allgemeinen Situation (wenn es denn überhaupt welche gibt). Wo könnte sich die Suche langfristig hinbewegen? Ich könnte mir zum Beispiel auch vorstellen, dass es nicht nur konstruktive Änderungen wie staatlich geförderte Suchangebote geben könnte, sondern auch destruktive, beispielsweise Abschottung in Facebook und anderen, zukünftigen „sozialen Diensten“ oder Verarmung der Ergebnisse durch ein immer geschlosseneres Netz.
    Haben Sie in dieser Hinsicht schon eine Meinung oder Vermutung parat?

    1. Im Jahr 2009 hatte ich diese Meinung.

      Ich möchte das Thema gerne von dieser Seite her angehen: Das Nachschlagen im Web ändert sich ständig. Wir orientieren uns ja heute auch anders als noch vor fünf, sechs Jahren. Meine erste Anlaufstelle als Wikipedianer ist heute natürlich Wikipedia — und dort die Belege und die Weblinks. Das ist also kein blindes Herumsuchen mehr, wie es die meisten beim Googlen machen, die nur über die Suchmaschine in Wikipedia landen, sondern eher ein Nachschlagen. Ich beschäftige mich mit Themen und finde so einen Zugang zu den weiteren Einzelheiten. Zweiter Anlaufpunkt ist die Bibliothek: OPACs, ViFas, Datenbanken. Überhaupt: Das Deep Web. Erst wenn das nicht mehr hilft, denke ich an eine allgemeine Suchmaschine, und dann auch erst mal an eine nichtkommerzielle oder an eine Metasuchmaschine.

      Meine Erfahrungen stimmen mich leider pessimistisch, denn die meisten Leute sind nicht wißbegierig, wenn sie etwas „suchen“. Sie wollen ihre Erwartungen befriedigt bekommen. Wer das am besten kann, belohnt sie bei jedem neuen Besuch, was die Konditionierung weiter verstärkt. Es gibt tatsächlich Leute, die in Facebook oder auf Twitter etwas „suchen“. Natürlich hat das mit Bildung nichts zu tun, es liefert einfach ein Blitzlicht auf aktuelle Online-Diskussionen dort. Sie haben noch Glück, wenn sie auf Facebook auf einen veralteten Wikipedia-Artikel stoßen… Aber ich denke schon, daß es möglich sein könnte, Schülern beispielsweise für die Arbeit in bestimmten Fächern Portale im Netz zu empfehlen, die gute Qualität bieten, darunter auch Spezialsuchmaschinen. Die Schulen und auch die Unis sind die Schaltstellen, wo sich das entscheidet. Ältere Benutzer sind meistens schon zu unflexibel, um sich neu zu orientieren, sei es auf eigenen Wunsch hin oder aufgrund eines Ratschlags.

      Mir wäre nur wichtig, daß Veränderungen, die öffentlich gefördert oder betrieben werden, auch demokratisch legitimiert und kontrolliert sind, daß sie von unten kommen und daß sie funktionieren. Und daß die Benutzer mit jeder Quelle kritisch umzugehen lernen. Aufklärung!

  4. Danke für die Erläuterungen.
    Die Tendenz zur Selbstbestätigung, die Google durch seine Personalisierungsmechanismen auch noch fördert, sehe ich auch als negativ einengend. Ich bin mir auch noch nicht so sicher, was bei den Bemühungen der Verlage, ihre Inhalte zu „schützen“ letztlich herumkommen wird. Viele Leute gehen nur ins Netz, um sich oberflächlich zu aktuellen Themen zu informieren. Umso mehr das eingeschränkt wird, desto mehr leidet auch die Diskussion in Blogs, Foren etc. darunter.
    Ich hoffe mal, dass zukünftige Maßnahmen so durchgeführt werden wie von Ihnen beschrieben und es keinen Rutsch in eine falsche Richtung gibt(wie zum Beispiel momentan beim Fernsehen, das in weiten Teilen nicht mehr zu ertragen ist).

    1. Ich glaube nicht, daß es denjenigen, die sich über das Netz informieren, bewußt ist, daß die Informationen, die sie über Suchmaschinen finden, in den meisten Fällen oberflächlich sind. Gerade darin besteht das Problem. Das meiste ist eben nicht online zu haben, sondern bestenfalls im Deep Web. Auffällig ist auch der Trend bei den OPACs, Elemente der Suchmaschinen-Suche einzubinden. Dadurch werden die Treffer wesentlich unschärfer als früher.

Die Kommentarfunktion ist geschlossen.