Das personalisierte Schema

von schneeschmelze

Lorenz Matzat meint, die neue Auszeichnungssprache schema.org könnte ein großes Webseiten-Sterben auslösen. Unter den totlangweiligen Nachrichten-Websites nämlich, auf denen lediglich Agenturmeldungen nachgetickert werden. Die großen kommerziellen Suchmaschinenbetreiber Google, Bing und Yahoo haben sich darauf verständigt, semantische Informationen, die mithilfe von Schema.org in Webseiten eingebettet wurden, auszuwerten und bei der Erstellung des Suchergebnisses zu berücksichtigen, vor allem um ihre eigene Werbung zu befördern. Die neue Technik wird sich durchsetzen. Die Folge für Websites wird sein: „Ihnen bleibt nichts anderes übrig, als bei schema.org mitzumachen, wenn ihnen die ‚Einschaltquoten‘ wichtig“ ist.

Matzat bringt dies zusammen mit einer weiteren Entwicklung: Schon heute können journalistische Texte vollständig automatisch generiert werden. Sport- und Börsenberichte sind soweit standardisiert, daß es zu ihrer Produktion keiner von Menschen geführten Feder mehr bedarf. Ein Computer ist dazu vollkommen ausreichend. Dadurch ändere sich die Tätigkeit des Online-Journalisten: Seine Aufgabe werde in Zukunft darin bestehen, solche Texte zu redigieren, so daß sie „eine eigene Note“ erhielten und sie in solchen einer Weise anzurichten, daß sie dem Leser mehr zu bieten hätten als das, was die Suchmaschinen bereithielten, die aus den semantischen Daten einen Datencocktail anrichten, der für den Hausgebrauch der meisten ausreichen mag, wenn man bedenkt, daß die BILD-Zeitung weiterhin die am meisten „gelesene“ Zeitung in Deutschland ist.

Der sogenannte Datenjournalismus werde dagegen an Bedeutung gewinnen: Journalisten, die (mehr oder weniger) öffentlich zugängliche Daten sammeln, auswerten und verständlich aufbereiten. Die also mithilfe von Computern das machen, was die Computer heute noch nicht können, aber sehr wahrscheinlich bald auch können werden. Es ist eine Frage der Zeit.

Computer erstellen also Texte, die von anderen Computern gelesen und wiederum zu neuen Texten verarbeitet werden. Diese Texte werden wahrscheinlich auf den Geschmack eines Massenpublikums zugeschnitten sein, alles andere könnte man sich, von kommerziellen Erwägungen ganz abgesehen, kaum vorstellen. Es würde nicht in das Weltbild derjenigen passen, die sich so etwas ausdenken.

Es dürfte auf zwei Arten von Texten hinauslaufen: Am Ende wird es computergenerierte Inhalte geben, die das transportieren, was in den Massenmedien unter der Rubrik „Nachrichten“ läuft. Sie sind heute schon größtenteils belanglos und lohnen deshalb die Lektüre nicht. Sie werden vor allem für Suchmaschinen gemacht, und ihr Zweck besteht darin, soviel Einnahmen durch Werbung wie irgend möglich zu generieren. Und es wird Angebote geben, die von Menschen erstellt werden, um andere Menschen zu informieren, zu unterhalten, zum Nachdenken zu bringen oder einfach, um Schönes zu erschaffen. Sie haben mit dem ganzen Werbekram und auch mit dem großen Geld, das damit einhergeht, überhaupt nichts zu tun, sondern bilden eine eigene Sphäre. Das sind die echten Blogger, die nichtkommerziellen Twitterer, die notwendigerweise keine allzu umfangreiche Gefolgschaft aufweisen werden, es sind Leute, die freie Inhalte schaffen und die, jeder für sich genommen, so kreativ sind, daß diejenigen, die nur den Konsum von vorfabrizierten und standardisierten Formen gelernt haben, ihre Texte nicht mehr verstehen werden. Hoffnungslos altmodische Gesellen.

Wenn es tatsächlich so kommen sollte, stellt sich natürlich die Frage, auf welcher Seite die freien Inhalte von Wikipedia & Co. stehen werden. Ich wäre skeptisch, ob sich die kritische Seite unter den Benutzern hier zugunsten der Qualität durchsetzen würde.

Um sich über ersteres ein besseres Bild machen zu können, empfiehlt es sich, ein Referat zu hören, das Eli Pariser schon im letzten Jahr beim Personal Democracy Forum gehalten hat. Er beschreibt auch in seinem neuem Buch und im Guardian, wie Suchmaschinen und soziale Netzwerke mit personalisierten Suchfunktionen zunehmend selbstreferentielle Konstruktionen des Webs erzeugen, aus denen der Benutzer nicht mehr herausfindet. Er nennt dies eine filter bubble. Der Benutzer dreht sich bei jeder Suchanfrage um sich selbst und kommt aus seinem eigenen Horizont nicht mehr heraus, ohne es zu bemerken und ohne es zu wollen. Die Blase ist einfach da. Sie wird befüllt aus Empfehlungsdiensten aller Art. Neuerdings gibt es auch im OPAC der Frankfurter Universitätsbibliothek so eine Funktion. Dort wird bei den meisten Anfragen außer den gesuchten Büchern noch eine Liste eingeblendet, in der es ganz heiße Tips gibt: „Andere fanden auch interessant …“ In der oben beschriebenen Dichotomie wäre das ein Teil der zuerst genannten, von Computern gemachten Sphäre. „Schema“ ist ein durchaus passender Name für diese brave new world.