Archiv der Kategorie: Debatte

Wiedervorlage: Der Presseausweis

Der alte Presseausweis ist wieder da. Der Deutsche Presserat und die Innenministerkonferenz (IMK) haben sich darauf geeinigt, die Vergabe der Presseausweise wieder zu reglementieren. Eine ständige Kommission, die zu gleichen Teilen mit Vertretern des Presserats und der IMK besetzt sei, werde darüber entscheiden, welche Berufsverbände den neuen bundeseinheitlichen Ausweis vergeben dürften.

Die Kriterien für die Anerkennung eines Verbands, sozusagen „würdig“ zu sein, den Presseausweis zu erteilen, sind noch nicht bekannt geworden. Aber wenn es ein einheitlicher Ausweis sein soll, wird es mit der Vielfalt bei den Vergabekriterien dann wohl vorbei sein.

Die Kritiker nehmen die Richtung des Prozesses dementsprechend vorweg und mutmaßen, für nebenberufliche Journalisten und Blogger solle es wohl schwerer gemacht werden, einen Ausweis zu erhalten.

Ein Backlash also, wo anderenorts die Blogger Relations blühen. Ein weiteres analoges Rückzugsgefecht, das versucht, das Publizieren und die Angehörigkeit zu den Publizisten wieder exklusiv zu machen, was aber nicht gelingen kann, denn das ist es schon lange nicht mehr.

Folglich wird der neue Presseausweis durch so einen Kurswechsel nicht an Wert gewinnen, sondern, im Gegenteil, an Wert verlieren. In einer Welt ohne Gatekeeper ist am Ende nicht der Ausweis der Nachweis der publizistischen Tätigkeit, sondern das Blog, das Social-Media-Profil oder allgemein: die dementsprechende authentische Aktivität im Netz. Das sogenannte Soziale, für jeden unmittelbar nachvollziehbar, was schreibt er denn, ersetzt einen externen Beleg endgültig. Der Versuch, den Kontrollverlust wett zu machen und die entglittene Deutungshoheit zurück zu gewinnen, wird fehl laufen – wenn es so kommen sollte.

„Das Niedrigste aus den Leuten herausholen, nicht das Anständige“

Le Monde erzählt heute (leider nur für Abonnenten bzw. in der gedruckten Ausgabe vom 1. Dezember 2016 auf Seite 2) von der 89-jährigen Gertrude aus Wien, die in einem Video zur Wahl Van der Bellens bei der österreichischen Bundespräsidentenwahl am kommenden Sonntag aufruft, weil sie die FPÖ aus vielen Gründen als nicht vertrauenswürdig durchschaut hat. Sie versuche, das Niedrigste aus den Leuten herausholen, nicht das Anständige … und das war schon einmal der Fall. Der Appell, der an die Intervention Empört Euch! erinnert, mit der der 93-jährige Stéphane Hessel 2010 zu mehr politischem Engagement aufgerufen hatte, sei auf mehreren Kanälen über drei Millionen mal abgerufen worden. Ursprünglich wurde er von der Kampagne Van der Bellens auf Facebook veröffentlicht. Im Abspann heißt es, Gertrude sei im Alter von 16 Jahren mit ihren Eltern und ihren beiden jüngeren Brüdern nach Auschwitz deportiert worden; sie habe als einzige überlebt. Sie sagt, es sei wahrscheinlich die letzte Wahl, an der sie teilnehmen könne.

Im Deutschlandfunk wies die Chefredakteurin des Standard Alexandra Föderl-Schmid auf die psychologischen Tricks der FPÖ-Politiker hin, die sich bei ihren Auftritten Verfahren aus dem Neuro-Linguistischen Programmieren (NLP) bedienten. Für österreichische Verhältnisse sei dieser Wahlkampf extrem schmutzig gewesen, sagte sie. Er habe Spuren hinterlassen.

Solchen Leuten muß man entgegentreten. Man muß zeigen, daß man sich gegen sie wendet. Und man muß sich dazu auch zusammentun. Christoph Kappes ruft in seinem Blog Gleichgesinnte zu einem Projekt Schmalbart auf, das sich der angekündigten deutschen Ausgabe des rechtsgerichteten Online-Magazins Breitbart entgegenstellen will. Er schreibt: Mein persönlicher Eindruck ist, dass es an Zivilcourage in der bürgerlichen Mitte fehlt – und zwar genau deswegen, weil man in der „Mitte“ eine Normalität von Gesellschaft empfindet, ohne ihre Fragilität zu sehen, und man seit Nine-Eleven und der Finanzkrise das ständige Mitlaufen einer Krise spürt und aus Angst lieber wegschaut.

Mit Open Access gegen die VG-Wort-Verlags-Ausschüttung?

Nachdem die Diskussion um den Anteil, den die Verlage an wissenschaftlichen Publikationen haben, wieder einmal ins Rollen gekommen ist, auch meine 2ct dazu:

Der Anteil, den die Verlage an meinen Veröffentlichungen hatten, war genau null. Insoweit decken sich mein Erfahrungen mit dem, was auch aus anderen Fächern als Jura schon hinreichend beschrieben worden ist. Es gab und gibt nur einen Grund, bei einem Fachverlag zu veröffentlichen: Die Sichtbarkeit der Arbeit im Bibliothekskatalog und die Beachtung durch das Schrifttum und durch die Rechtsprechung. Bundessozialgericht und Bundesverfassungsgericht hätten meine Diss nicht zitiert, wenn sie bei Books on Demand erschienen wäre. Natürlich wäre es dieselbe Arbeit gewesen. Derselbe Text. Aber so sind sie halt, die großen Leute, um es mit Saint-Exupéry zu sagen.

Das einzige, was sich in der Rechtswissenschaft seitdem verändert hat, ist, daß Urteile mittlerweile zunehmend aus proprietären Datenbanken heraus zitiert werden, statt aus Zeitschriften oder amtlichen Entscheidungssammlungen. Um das zu ermöglichen, wurden sie mit amtlichen Randnummern versehen. Und solange die Rechtswissenschaft so funktioniert, kann man eigentlich niemand dazu raten, in dem Fach auf Open Access zu setzen.

Der Wandel wird nicht durch die Autoren kommen, er müßte notwendigerweise von der anderen Seite ausgehen, um den Autoren ein Signal zu setzen. Und warum sollte das so sein? Gerichte und Schrifttum haben dazu keinen Anlaß. Ein Verdienst der Verlage ist das gewiß nicht. Und erst recht kein Grund, ihnen einen Obulus aus den Einnahmen der VG Wort zuzuschachern, wie es die Bundesregierung nun wieder tun will.

Die Diskussion krankt daran, daß sie alle Verlage über einen Kamm schert. Belletristik und Sachbücher, die aufwendig zu lektorieren sind, sind eben ein anderes Geschäft als Wissenschaft, wo überhaupt nichts lektoriert wird. Hier werden wissenschaftliche Texte 1:1 übernommen, der Verlag hat daran überhaupt keinen Anteil. Er sorgt – siehe oben – ausschließlich für die Beachtung des Textes in der Öffentlichkeit des jeweiligen Fachs.

Nachdenken über Sci Hub

Auf der Mailingliste Inetbib ist am Wochenende ein Beitrag über Sci Hub aus Archivalia kontrovers diskutiert worden. Klaus Graf hatte darin der derzeitigen Stand zum Verhältnis von Fernleihe und Open Access zusammengefaßt und dabei auch Portale einbezogen, die weitergehen, als nur Open-Access-Papiere im Rahmen der jeweiligen Lizenz weiterzuverteilen. Repositorien gibt es viele. Sci Hub bietet, wenn ich es richtig verstanden habe, so gut wie alles an, was im Format PDF daherkommt und nicht bei drei auf den Bäumen ist, ohne sich dabei um das Urheberrecht der Autoren und die davon abgeleiteten Verwertungsrechte von Verlagen zu kümmern.

Die Fernleihe, die von den Verlegern immer wieder gern gegen die Zeitschriftenkrise angeführt wird, sei, so Klaus Graf in seinem Beitrag, zumindest in ihrer nordamerikanischen Spielart ILL, nicht attraktiv genug und könne das Unvermögen der chronisch unterfinanzierten Bibliotheken, die Informationsflut zu den Lesern zu bringen, langfristig nicht ausgleichen. Zudem würde sie hierzulande subventioniert – das seien Kosten, die man genaugenommen mit einbeziehen müsse, wenn man ausrechne, wieviel Open Access den Steuerzahler letztlich koste. Wenn alle Wissenschaft Open Access wäre, entfielen auch diese Kosten, und allen wäre gedient. Bis es aber soweit sei, so könnte man es auf den Punkt bringen, müsse man wohl mit grauen Portalen wie Sci Hub leben. Und: Mit Sci Hub ist es wie mit dem Leben: Genießen wir es, solange es geht.

So dauerte es dann auch nicht lange, bis ein Listenteilnehmer den Vorwurf erhob, das sei im Grunde genommen eine Aufforderung, massenhaft Rechtsbruch zu begehen. Er genieße an seinem Leben, dass er aufrecht gehen kann und sich nicht wie ein Dieb wegschleichen müsse. Dagegen erhob sich substantiierter Widerspruch, zumal der damit angegriffene Blogpost mehrfach die Unrechtmäßigkeit der diversen Schattenbibliotheken betont.

Man kann die Diskussion als eine Fallstudie lesen, sowohl auf die Lage der Literaturversorgung als auch auf die Entwicklung des Netzes.

Die vorgenannten Kommentare liefen auf einer Mailingliste ein, der größten bibliothekarischen Liste im deutschsprachigen Raum zwar, aber auf einer Liste, die doch sehr viel enger daherkommt als die Öffentlichkeit, die die Archivalia finden – das Blog ist darüberhinaus für viele lesenswert, auch abseits der Bibliotheksszene. Es gab Widerspruch, aber nicht im Web 2.0, also in den Blogkommentaren, sondern in dem alten Medium der Mailingliste, in deren Archiv man das also nachlesen kann. Und zwar, weil der Blogpost von seinem Autor auch dort angekündigt worden war. Darin wird die fortwährende Fragmentierung der Datennetze deutlich. Zwar hatte Geert Lovink schon 2008, auf dem Höhepunkt des Blog-Booms, in seinem „Berliner“ Buch Zero Comments das Ausbleiben der Kommentare bemerkt. Sie sind aber auch nicht an einen neuen Ort „umgezogen“. Diskutiert wird in Diskutiermedien, und das sind weiterhin Mailinglisten. Jede Nachricht wird an die Teilnehmer persönlich versandt und zugestellt. Twitter spielte bei der Verbreitung des Posts eine gewisse Rolle, so gelangte der Beitrag auf Rivva; dort werden bisher aber nur drei Blogs erwähnt, die das Thema aufgegriffen haben – auch bei ihnen wurde bisher nicht kommentiert.

Man kann diese Diskussionsmüdigkeit im Web 2.0 mit mehreren Trends in Beziehung bringen: mit dem Ekel vor dem Netz im Zuge der Snowden-Affäre, aber auch mit dem allgemeinen Rückzug aus dem Netz infolge der Shitstorms, der Online-Kampagnen und der sonstigen nervtötenden Begleiterscheinungen. Die Blütezeiten des Netzes sind vorbei. Das Pendel schwingt in die andere Richtung, und die Gruppen der Intensivnutzer und der Zurückhaltenden scheiden sich immer deutlicher.

Zum anderen greift Archivalia aber auch einen sehr wesentlichen Trend auf, den man aufmerksam beobachten sollte. Denn Portale wie Sci Hub, von einer Studentin gegründet, und sonstige schwarze Kanäle verweisen auf die Einstellung der Menschen zum Recht.

Wenn es heißt, Sci Hub sei unrechtmäßig, so ist das wahrscheinlich richtig. Aber diese Wertung trifft auf eine Generation, der die Quellen, aus denen sie schöpft, egal geworden sind – und zwar gerade auch im Angesicht der allgemeinen Überwachung. Es wäre aus technischer Sicht überhaupt kein Problem, sie zu stellen, das hat man bei der Verfolgung der Software- und Musik-„Piraterie“ gesehen. Aber vielleicht wird es dazu bei der Literaturversorgung gar nicht kommen, denn die Verlage rudern ja schon lange zurück, etwa indem das „harte DRM“ bei E-Books zunehmend fallengelassen und durch bloße Wasserzeichen ersetzt wird. Den Rest besorgte bei der Musik der Übergang von Download zu Streaming. Dazu wird es auch hier immer mehr kommen. Gerade deswegen muten ja der PDF- und EPUB-Download bei der Onleihe und der Versuch des Marketings der Süddeutschen Zeitung so retro an, im Zuge ihrer Panama-Papers-Kampagne Abonnenten für ihr E-Paper zu gewinnen. Der direkte Zugriff auf Daten aus dem Web und die Flatrate sind die Zukunft, und zwar nicht die Flatrate für eine Zeitung oder Zeitschrift, sondern für so etwas wie Sci Hub, wo man alles aus einer Quelle bekommt. So wie man ja auch bei Google irgendwie alles finden kann. So nehmen die meisten Menschen eben das Internet wahr: Alles aus einer Hand. Verteilte Lösungen schwinden, zentralisierte wachsen. Ein Paradoxon im fragmentierten Netz mit seinen fragmentierten Öffentlichkeiten. Am Ende finden sie sich alle an einen Knoten im Netz wieder. Im Bibliothekswesen überschneidet sich das mit der Erzählung von der Bibliothek von Babel, die am Ende die ganze Welt ist. Und wenn die Verlage das nicht von sich aus einsehen und sich für die Vermarktung zusammentun, werden die Benutzer das eben ganz pragmatisch auf andere Weise herbeiführen.

Am Ende wurde die Pirate Bay kommerzialisiert und aus dem Reich der Schattenwirtschaft ins helle Licht geführt – bevor sie schließlich aus dem allgemeinen Bewußtsein verschwand. Heute kennt sie keiner mehr. So wird es auch mit Sci Hub und Co. kommen. Bloß die Fernleihe, die wird es ganz sicherlich auch neben der normalen Ausleihe und dem Verkauf von Texten weiterhin geben, und das würde ich doch auch hoffen.

Denn eine Welt mit 100-prozentigem Open Access ist wahrscheinlich nicht erreichbar. Und das liegt einfach daran, daß es mehr Prestige mit sich bringt, bei einem externen Verlag zu publizieren als auf dem OA-Server der universitätseigenen Unibibliothek. Nur der Dritte kann die Gewähr dafür bieten, daß der Autor und sein Text ausgewählt worden sind, dort zu erscheinen. Auch wenn das Lektorat mittlerweile vielfach ausfällt: Do-it-yourself und Selfpublishing werden nicht für alle Zwecke und auch nicht für alle Fächer eine gangbare Lösung sein. Bei den Juristen wird jedenfalls weiter ganz viel gedruckt. Es ist kein Zufall, daß sich die Konstanzer Juristen gerade gegen eine Verpflichtung zur Zweitveröffentlichung ihrer Texte gewandt haben. Und auch dieser Bedarf will weiterhin über Bibliotheken verteilt sein. Nur sie können sowohl eine Infrastruktur für proprietäre als auch für offene Medien organisieren und betreiben. Mit der Fernleihe auch ortsübergreifend.

Ob das eine billiger als das andere sein wird, ist am Ende übrigens geschenkt, denn beides wird nebeneinander bestehen. Das Verlagsprodukt wird man ebensowenig verdrängen können wie den Open Access. Die Autoren wie die Benutzer haben sich darauf eingestellt.

E-Book und Book-Book II

Sozusagen im Vorprogramm der Leipziger Buchmesse hat sich Birgit Zimmermann für die Nachrichtenagentur DPA mit dem Abklingen des E-Book-Hypes beschäftigt (via VÖBBLOG).

Zur Erinnerung: Der Hype-Zyklus nach Gartner beschreibt den Verlauf der öffentlichen Aufmerksamkeit für ein neues, innovatives Produkt: Die Kurve beginnt bei den early adopters, steigt dann steil an, bis sie den Gipfel der überzogenen Erwartungen erreicht hat, fällt bis auf ein absolutes Minimum und steigt dann, wenn die late adopters, also der Massenmarkt, endlich aufspringen, auf ein realistisches Niveau, auf dem sich die Nutzung des Guts stabilisiert. Entweder ist es bis dahin akzeptiert worden, oder es verschwindet wieder vom Markt, weil bis dahin allgemein bekannt geworden ist, daß es keinen zusätzlichen Nutzen gegenüber den ursprünglich geweckten Erwartungen bietet.

So ist es auch mit den E-Books gekommen. Der Börsenverein beziffert die Umsätze mit den Buch-Substituten im Zeitraum 2010 bis heute zwischen 0,5 und 4,5 Prozent vom Gesamtmarkt, nimmt davon aber Fach- und Schulbücher sowie Selfpublisher und Abo-Modelle aus. Wenn man diese einbezieht, gelangen die Verlage auf „niedrig zweistellige“ Umsatzanteile – im Vergleich zu einem Viertel in den USA. Als Hauptgrund für diesen Unterschied wird vor allem die Buchpreisbindung genannt, die auch weiterhin für ein dichtes Netz an Buchhandlungen in Deutschland sorge. Außerdem die schöne Ausstattung der Bücher hierzulande.

Das ist eine interessante Wasserstandsmeldung, denn sie deckt sich nicht mit meinem Eindruck als S-Bahn-Fahrer, wo in den letzten Jahren die E-Book-Reader und die Tablets, auf denen unterwegs sehr oft E-Books gelesen werden, zugenommen haben. Die gebrauchten Tablets, übrigens, denn wer möchte schon ein Gerät, das so teuer wie ein billiger Laptop ist, im öffentlichen Nahverkehr, abends gar, offen in der Hand halten, wenn er unterwegs ist. Und der billige Reader taugt nicht lang, wie man hört. Das E-Book – das wäre ein weiteres Monitum an dem Bericht – ist nicht nur zur Urlaubszeit in der Breite angekommen, sondern ganz offensichtlich ganzjährig. Nutzung und Absatz sind eben zwei Paar Schuhe.

Das Vertrauen zu Google

Das Ausmaß der Manipulation, die von den Suchmaschinen ausgeht, zeigt eine Studie, die die amerikanische PR-Firma Edelman gerade veröffentlich hat.

Quartz zufolge glauben die Teilnehmer der Studie einer Nachrichten-Schlagzeile in Google News mehr als derselben Schlagzeile auf einer Nachrichten-Website. Diese Schere habe sich 2013 geöffnet. Unter 33000 Teilnehmern an der Untersuchung aus 28 Ländern hätten 63 Prozent erklärt, sie „vertrauten Suchmaschinen“. Das wird nur noch getoppt von Nachrichten, die man von Freunden erhält (78 Prozent). Wissenschaftler halten dagegen nur 65 Prozent für vertrauenswürdig. Am Ende stehen Journalisten mit 44 Prozent – also Journalisten, deren Beiträge die Leute nicht bei Google News lesen.

Die Unterschiede in den Vertrauensniveaus bei der Mediennutzung werden in der Studie in einem Zusammenhang mit dem Einkommen und den Zukunftserwartungen der Nutzer gesehen. Sie seien ein Zeichen zunehmender Ungleichheit in der Gesellschaft. Die Unterschiede bei der Wahrnehmung der Medien zeige eine sich vergrößernde Kluft zwischen der „informierten Öffentlichkeit“ und der allgemeinen Bevölkerung, die sich seit dem Beginn der Finanzkrise im Jahr 2007 kaum verändert habe. Diese Kluft sei am größten in den USA, in Frankreich und in Indien. Die größte Einkommensungleichheit – jeweils zweistellig – gebe es in den USA, in Frankreich und in Brasilien. Unter diesen Umständen vertraue man am ehesten „einer Person wie man selbst“.

Der Beitrag problematisiert das Ergebnis nicht, sondern meint, dies sei ein Zeichen für das „Marketing-Können“ von Google, das den amerikanischen Suchmaschinen-Markt zu 64 Prozent bediene. Er läßt auch viele weitere Punkte unerwähnt.

Der Text bei Quartz läßt leider auch offen, ob man der Studie selbst trauen kann, über die dort berichtet wird. Sie hat mich bisher nur über Online-Medien erreicht, und „online only“ vertrauen dort nur knapp die Hälfte der Befragten, 53 Prozent (via Newsletter von socialmediawatchblog.org).