Das personalisierte Schema

Lorenz Matzat meint, die neue Auszeichnungssprache schema.org könnte ein großes Webseiten-Sterben auslösen. Unter den totlangweiligen Nachrichten-Websites nämlich, auf denen lediglich Agenturmeldungen nachgetickert werden. Die großen kommerziellen Suchmaschinenbetreiber Google, Bing und Yahoo haben sich darauf verständigt, semantische Informationen, die mithilfe von Schema.org in Webseiten eingebettet wurden, auszuwerten und bei der Erstellung des Suchergebnisses zu berücksichtigen, vor allem um ihre eigene Werbung zu befördern. Die neue Technik wird sich durchsetzen. Die Folge für Websites wird sein: „Ihnen bleibt nichts anderes übrig, als bei schema.org mitzumachen, wenn ihnen die ‚Einschaltquoten‘ wichtig“ ist.

Matzat bringt dies zusammen mit einer weiteren Entwicklung: Schon heute können journalistische Texte vollständig automatisch generiert werden. Sport- und Börsenberichte sind soweit standardisiert, daß es zu ihrer Produktion keiner von Menschen geführten Feder mehr bedarf. Ein Computer ist dazu vollkommen ausreichend. Dadurch ändere sich die Tätigkeit des Online-Journalisten: Seine Aufgabe werde in Zukunft darin bestehen, solche Texte zu redigieren, so daß sie „eine eigene Note“ erhielten und sie in solchen einer Weise anzurichten, daß sie dem Leser mehr zu bieten hätten als das, was die Suchmaschinen bereithielten, die aus den semantischen Daten einen Datencocktail anrichten, der für den Hausgebrauch der meisten ausreichen mag, wenn man bedenkt, daß die BILD-Zeitung weiterhin die am meisten „gelesene“ Zeitung in Deutschland ist.

Der sogenannte Datenjournalismus werde dagegen an Bedeutung gewinnen: Journalisten, die (mehr oder weniger) öffentlich zugängliche Daten sammeln, auswerten und verständlich aufbereiten. Die also mithilfe von Computern das machen, was die Computer heute noch nicht können, aber sehr wahrscheinlich bald auch können werden. Es ist eine Frage der Zeit.

Computer erstellen also Texte, die von anderen Computern gelesen und wiederum zu neuen Texten verarbeitet werden. Diese Texte werden wahrscheinlich auf den Geschmack eines Massenpublikums zugeschnitten sein, alles andere könnte man sich, von kommerziellen Erwägungen ganz abgesehen, kaum vorstellen. Es würde nicht in das Weltbild derjenigen passen, die sich so etwas ausdenken.

Es dürfte auf zwei Arten von Texten hinauslaufen: Am Ende wird es computergenerierte Inhalte geben, die das transportieren, was in den Massenmedien unter der Rubrik „Nachrichten“ läuft. Sie sind heute schon größtenteils belanglos und lohnen deshalb die Lektüre nicht. Sie werden vor allem für Suchmaschinen gemacht, und ihr Zweck besteht darin, soviel Einnahmen durch Werbung wie irgend möglich zu generieren. Und es wird Angebote geben, die von Menschen erstellt werden, um andere Menschen zu informieren, zu unterhalten, zum Nachdenken zu bringen oder einfach, um Schönes zu erschaffen. Sie haben mit dem ganzen Werbekram und auch mit dem großen Geld, das damit einhergeht, überhaupt nichts zu tun, sondern bilden eine eigene Sphäre. Das sind die echten Blogger, die nichtkommerziellen Twitterer, die notwendigerweise keine allzu umfangreiche Gefolgschaft aufweisen werden, es sind Leute, die freie Inhalte schaffen und die, jeder für sich genommen, so kreativ sind, daß diejenigen, die nur den Konsum von vorfabrizierten und standardisierten Formen gelernt haben, ihre Texte nicht mehr verstehen werden. Hoffnungslos altmodische Gesellen.

Wenn es tatsächlich so kommen sollte, stellt sich natürlich die Frage, auf welcher Seite die freien Inhalte von Wikipedia & Co. stehen werden. Ich wäre skeptisch, ob sich die kritische Seite unter den Benutzern hier zugunsten der Qualität durchsetzen würde.

Um sich über ersteres ein besseres Bild machen zu können, empfiehlt es sich, ein Referat zu hören, das Eli Pariser schon im letzten Jahr beim Personal Democracy Forum gehalten hat. Er beschreibt auch in seinem neuem Buch und im Guardian, wie Suchmaschinen und soziale Netzwerke mit personalisierten Suchfunktionen zunehmend selbstreferentielle Konstruktionen des Webs erzeugen, aus denen der Benutzer nicht mehr herausfindet. Er nennt dies eine filter bubble. Der Benutzer dreht sich bei jeder Suchanfrage um sich selbst und kommt aus seinem eigenen Horizont nicht mehr heraus, ohne es zu bemerken und ohne es zu wollen. Die Blase ist einfach da. Sie wird befüllt aus Empfehlungsdiensten aller Art. Neuerdings gibt es auch im OPAC der Frankfurter Universitätsbibliothek so eine Funktion. Dort wird bei den meisten Anfragen außer den gesuchten Büchern noch eine Liste eingeblendet, in der es ganz heiße Tips gibt: „Andere fanden auch interessant …“ In der oben beschriebenen Dichotomie wäre das ein Teil der zuerst genannten, von Computern gemachten Sphäre. „Schema“ ist ein durchaus passender Name für diese brave new world.

10 Kommentare zu „Das personalisierte Schema“

  1. Das Filter-Problem an sich ist nicht neu und nicht erst durch Suchmaschinen oder die „social media“ entstanden.

    Früher wurde die Filter-Funktion u. a. von den Zeitungen ausgefüllt. Ob man nun jahrein, jahraus die taz oder aber die Welt liest, ist für das eigene Weltbild prägend. Das hat nicht nur mit der erklärten politischen Ausrichtung dieser Zeitungen zu tun, sondern mehr noch als alles andere mit der Auswahl der Nachrichten.

    Dass Texte aller Art zunehmend durch Computer erstellt werden können, ist halt ein Aspekt des technischen Fortschritts. Bei Börsen-, Sport- und Wetterberichten kann man es ohne weiteres nachvollziehen, aber ich sehe der Veröffentlichung eines Bandes mit sprachgewaltiger Lyrik entgegen, welche von den Feuilletonisten unisono über den grünen Klee gelobt wird und hinterher stellt sich heraus, dass der Autor ein pffiges Perl-Skript war. Wie reagiert dann der geneigte Leser, wenn ihn die Lektüre tief bewegt hatte?

    Kleiner Exkurs: Es gibt menschliche Aktivitäten, bei welchen der Mensch – nach jetzigem Prognose-Stand – dem Computer noch lange überlegen sein wird: Das japanische Brett-Spiel Go. Im Gegensatz zum Schach können die besten Computer-Programme mit den besten menschlichen Spielern derzeit nicht annähernd mithalten.

  2. Nachtrag:

    Die Begriffe „filter bubble“ und das Referat von Eli Pariser greift auch die Suchmaschine Duckduckgo ( http://en.wikipedia.org/wiki/Duckduckgo ) bzw. deren Betreiber, Gabriel Weinberg, in einer kurzen Präsentation auf:

    http://dontbubble.us

    Ich nutze Duckduckgo ( http://duckduckgo.com ) jetzt seit einigen Wochen als Standardsuchmaschine. Die Ergebnisse kommen von Bing/Yahoo sowie einem eigenen Crawler, ferner bestehen Kooperationen mit u. a. Wolfram Alpha und Blekko.

    1. Nichts gegen die schöne Ente, aber Semager bringt mir mehr. Wir haben Alternativen zur Bubble, also sollten wir sie benutzen. Trotzdem danke sehr für den Tip.

  3. Vielleicht noch einen HInweis zu Google: Man kann auch dort die Personalisierung (und Regionalisierung) völlig unterbinden, indem man in die Such-URL den String &pws=0 integriert.

    Bei Chrome sähe das dann so aus:

    http://www.google.com/search?q=%s&pws=0

    (%s steht für den Suchbegriff)

    Obwohl ich bei Google dauernd eingeloggt bin, finde ich damit noch nicht einmal Seiten auf Deutsch, wenn ich nach „Berlin“ suche.

  4. Zuerst: Vielen Dank einmal mehr für einen höchst interessanten Blogartikel! Es macht immer wieder großen Spaß, hier vorbei zu schauen. 🙂

    Zum Thema

    Der Radiomensch spricht es an. Filter gab es natürlich auch schon vor dem Internet und seinen neuen Möglichkeiten. Beim Lesen habe ich mich bei dem Gedanken ertappt, was sich denn verändern würde, wenn die täglichen Meldungen tatsächlich von einem Nicht-Menschen erzeugt würden. Du schreibst es selber: Der Blick in die Zeitung offenbart an viel zu vielen Stellen eine große Beliebigkeit. Tickermeldungen werden nur so wenig verändert wie irgend möglich. Und das ist dann plötzlich geistiges Eigentum. Wirkliche Analysen sind selten und da, wo sie angeboten werden, muss man sie meist zuerst noch von parteipolitischen und anderen Einflüssen reinigen. In Zukunft wird die Welt der Information sicher noch deutlich fragmentierter werden, denn es gilt: Wir suchen Informationen zu Themen. Die Bindung an einzelne Veröffentlicher wird noch kleiner als jetzt schon.

    Die Blase

    Schon seit gut einem Jahr versuche ich, mich der Personalisierung zu entziehen. Auch hier hat der Radiomensch gute Hinweise gegeben. Es geschehen da Effekte, die sich zunächst beinahe fremd anfühlen und verstören. Suche ich quasi mit Tarnkappe, dann stelle ich schnell fest, dass ich 1) andere Informationen finde und 2) ich brauche mehr Zeit, um an bestimmten Stellen die Informationen zu finden, die ich suche. Und an dieser Stelle befinde ich mich, meiner Meinung nach, an der entscheidenden Wegscheide. Wollen wir uns aus der Bubble heraus bewegen können, um überhaupt auf Neues treffen zu können? Oder ziehen wir es vor, den bequemen Weg zu gehen, der einfacher ist, für den Alltag oft ausreicht, der aber gleichzeitig bedeutet, dass wir immer mehr im eigenen Saft schmoren? Ich glaube, dass viele sich, bewusst oder unbewusst (unbewusst meint hier, dass sie von den hier besprochenen Vorgängen einfach gar nichts wissen) für den beuemen Weg entscheiden.

    Für mich selbst kristallisiert sich mehr und mehr heraus, dass ich meinen Workflow ändern muß: 1) Ich denke darüber nach, was ich suche und wähle 2) dann den entsprechenden Weg (anonyme Suche oder bewusste Suche mit offenem Visier). Eine Einschränkung gibt es da aber auch schon: Google & Co. haben längst damit begonnen, auch Profile für die Nutzer zu erstellen, die eigentlich inkognito surfen wollen. Daraus folgt, dass es technisch aufwendiger wird, sich wirklich zu anonymisieren.

    1. Radiomensch verkennt leider, daß es einen erheblichen Unterschied macht, ob ich mich für eine bestimmte Zeitung als vorwiegende Nachrichtenquelle entscheide oder ob nach und nach alle nennenswerten Verzeichnisse, Datenbanken, Portale… im Internet, die ich abfragen kann, ein Profiling betreiben, das ich nicht ohne weiteres erkennen kann und ohne mich vorher zu fragen, ob ich das eigentlich will. Konsequent zuende gedacht heißt das: Der einzige Weg, dem auszuweichen, wäre die Offline-Recherche. Schon vor zwei Jahren schrieb mir ein Amerikaner am Rande der Nettime-Liste, in seinem Ort gebe es schon lange keine regionalen Zeitungen mehr, und überregionale habe es dort noch nie zu kaufen gegeben. Es bleibe ihm nur noch das Netz zur Information. Daran sieht man die politische Relevanz des Themas. – Siehe übrigens auch diesen Vortrag von Pariser zum selben Thema, ganz ähnlich, aber vllt. rhetorisch besser zugespitzt:

  5. Zu fordern sind zwei Dinge: Transparenz und Wahlfreiheit. Oder um es technisch auszudrücken: Der Nutzer muss wissen, dass es einen Filter gibt und ob dieser ggfls. gerade eingeschaltet ist oder nicht. Und er muss die Möglichkeit haben, den Filter nach seinen Wünschen zu konfigurieren und vor allem, ihn auch ganz auszuschalten zu können.

    Wir müssen aber davon ausgehen, dass der überwiegende Teil der Internetnutzer einen Filter überwiegend entweder stillschweigend voraussetzt oder gar wünscht oder dass ihn die Problematik nicht sonderlich interessiert.

    Wenn ein Mensch, der in Neheim-Hüsten wohnt und gerade einen knurrenden Magen hat, bei Google „Pizza Lieferung“ eingibt, so ist es vemutlich im seinem Sinne, dass die ersten Treffer entsprechende Dienstleister aus seiner Nähe betreffen und nicht Angebote aus Hamburg, Klagenfurt oder Palma de Mallorca.

    Oder einen kulturwissenschaftlichen Text über die Frage, wie Pizza-Lieferdienste die Esskultur beeinflussen.

    Ich habe oben den Hinweis zur völlige Deaktivierung der personalisieten Suche bei Google gebracht: Wenn ich nach „Berlin“ suche, liefern die ersten Treffer nur englischsprachige Ergebnisse, was völlig schlüssig ist: Die, global betrachtet und nach objektiven Kriterien gewichtet, relevantesten Internetseiten über die deutsche Hauptstadt sind nicht auf Deutsch verfasst.

    Im Interesse des (evtl. ausschließlich) deutschsprachigen Internet-Nutzers ist das auch wieder nicht, ein gewisses Maß an Filterung ist gewünscht. Der Nutzer muss das aber vollständig im Griff haben können, so er es denn wünscht.

    Google und Konsorten geht die Wahlfreiheit aber gegen den Strich, denn sie leben davon, den potentiellen Konsumenten möglichst genau zu kennen und einzukreisen, um ihn mit maßgeschneiderter Werbung zu beglücken.

    Im übrigen sei an dieser Stelle erneut der allfällige Hinweis auf Scroogle gestattet:

    http://www.scroogle.org/cgi-bin/scraper.htm

  6. Da hast Du vollkommen Recht. Der Hinweis ist wichtig. Natürlich ist es eine komplett andere Sache, wenn ich freiwillig und (idealerweise) wohl überlegt entscheide, eine bestimmte Quelle zu nutzen, um mich zu informieren. Das wirft eine neue Frage auf, die allerdings ein wenig wegführt vom konkreten Thema. Deshalb stelle ich sie hier nur offen aus. Die Frage lautet: Wie oft entscheiden sich Leute bewusst und wohlüberlegt für eine bestimmte (Nachrichten)Quelle?

    Der Vortrag

    Ich kannte den Vortrag von Eli Pariser schon. Ich habe ihn mir aber trotzdem nochmal angesehen. Er ist beeindruckend, immer wieder. Er zeigt das Problem mit einfachen Worten. Lustigerweise glaube ich noch nicht einmal, dass die Leute, die diese Algorithmen eingeführt haben, von Anfang an im Sinn hatten, uns innerhalb dieses von ihn angesprochenen kleinen Kreises zu belassen. Ich glaube schon, dass man es bei Google & Co. anfangs vor allem einfacher für die Leute machen wollte, die Dinge zu finden, die man suchte. Und natürlich fanden sie es auch gut, dass man mithilfe der Algorithmen Werbung zielgerichterer an den Mann und an die Frau bringen kann. 😉

    Offline Suche als Möglichkeit?

    Ich glaube nicht daran, dass man wieder Offline suchen muss, um sinnhaltig Suchen und vor allem Finden zu können. Ich glaube, dass ein paar grundsätzliche Workflows auch schon gut helfen. Zumal man sich mit einer Offline-Suche auch schon wieder beschränken würde. Die Lösung muss sein, dass wir uns der Gefahren bewusst werden und dann dafür sorgen, dass bestimmte Effekte nicht stattfinden können oder dürfen. Vielleicht erspüren wir durch solche Entwicklungen die Notwendigkeit für Gesetze, die den freien, „nicht vorgekauten“ Zugriff auf Informationen auf bisher nicht gekannte Art und Weise schützen muß. Aber, ich habe das noch nicht zuende gedacht und ich bin auch kein Jurist. Ich maße mir deshalb dazu auch keine schnelle Meinung an, ob wir es wirklich mit etwas Neuem zu tun haben oder ob manche Sachen stattdessen schon einmal da waren, in anderer Form eventuell. Dann müssten wir eventuell nur neu justierte, auf die aktuelle Situaion zugeschnittene Antworten finden.

Die Kommentarfunktion ist geschlossen.