The Open Well-Tempered Clavier

Amir Elisha Aharoni weist auf der Mailingliste Wikimedia-l auf ein bemerkenswertes Engegament für freie Inhalte hin, das auch der Westdeutsche Rundfunk schon einmal aufgegriffen hatte. Die Bonner Pianistin Kimiko Ishizaka spielt Klaviermusik ein und veröffentlicht die Aufnahmen (dank Unterstützung durch das MuseScore-Team samt den Noten) unter einer CC-0-Lizenz. Finanziert werden die hochwertigen Produktionen im Wege des Crowdfunding über die Plattform Kickstarter.

Nach den Open Goldberg Variations (2012, com, arch) ist nun am 19. März 2015 ein weiteres Hauptwerk von Johann Sebastian Bach veröffentlicht worden: Heft 1 des Wohltemperierten Klaviers liegt seitdem im verlustfreien Format FLAC auf Wikimedia Commons bereit. Das Open Well-Tempered Clavier wurde auch auf Libre Graphics World vorgestellt. Andere Formate (MP3, AAC, Ogg Vorbis, Apple Lossless) können von der Website der Künstlerin heruntergeladen werden. Wem es möglich ist, möge sich dort mit einem Betrag seiner Wahl erkenntlich zeigen; Libre Graphics World zufolge ist der Download der Dateien (samt Noten und Booklet) aber auch bei der Eingabe von null Euro möglich. Der Download-Link wird per E-Mail versandt.

Als nächstes möchte Kimiko Ishizaka die Préludes von Chopin einspielen.

Zuerst im Wikipedia:Kurier, 21. März 2015.

Werbung

E-Book und Book-Book

Der Markt für E-Books schwächelt mittlerweile. Nach dem Boom folgt derzeit die Wende vor dem Abschwung. Vor diesem Hintergrund berichtete das Börsenblatt (via Perlentaucher) über eine Diskussion zwischen Hype und Hoffnung. Der Markt sei, wie man hört, erfolgreich vor allem bei der sogenannten Genre-Literatur, also bei der Massenware (Krimis und dergleichen), sowie im Segment Wissenschaft. Und die Anbieter teilen sich wohl in zwei Lager: Die pragmatischen Verleger, die sich anpassen an das, was gut läuft, und die Visionäre, die sehen, daß das E-Book technisch auf der Stelle tritt und die nach einer neuen Form für die digitale Ware Buch suchen.

Schon lange wird über die längerfristige Entwicklung der E-Books nachgedacht, vor allem auch im Bildungssektor. Das E-Book werde sich vom analogen Buch emanzipieren, las man da schon vor zwei Jahren, es werde mittelfristig Videos und Audios enthalten und crossmediale Formen von Inhalten ermöglichen. Der einzige wirklich neue Schritt war dann zur Buchmesse 2014 die Öffnung von Sobooks, ein E-Book-Shop, der das Buch selbst in ein Webforum hineinpackte. Das war und ist tatsächlich der erste Versuch, ein Buch vom Web her neu zu denken. Aber will man das denn?

E-Books sind auch heute noch digitale Versionen in den Formaten PDF und EPUB, die aus der „Druckvorstufe“ abgeleitet werden. Der ganze Herstellungsprozeß ist also weiterhin auf Print ausgelegt, das PDF ist identisch mit der Druckvorlage, und EPUB wird nur hieraus umgesetzt. Und der Deutsche Bibliotheksverband weist (via Lesewolke und NRW-Blog) darauf hin, daß das E-Book durch die Weigerung vieler Verlage immer noch nicht gleichwertig zum gedruckten Buch in den Ausleihen angekommen sei. Das Dilemma um die Onleihe läßt grüßen.

Technische Weiterentwicklungen sind nicht absehbar. Was auch nicht weiter verwundert, denn Bücher werden geschrieben. Würden sie gefilmt, wären es Filme, würden sie als Audio produziert, wären es Hörspiele, Hörbücher oder Features. Würde man das alles miteinander kombinieren, wäre es – ja, was für ein Produkt wäre das dann? Immer noch ein Buch? Oder ein Kurs mit verschiedenen Elementen? Und welche Verwertungsgesellschaft wäre dann für so einen Hybriden zuständig, die VG Wort oder die GEMA oder die VG Bild-Kunst, jeweils ganz oder anteilig? Und kein Wort zum Umsatzsteuersatz, bitte!

Die early adopters sind mit Lesegeräten und Pads versorgt, der erste Durst ist gestillt, und die Verbraucher warten ab, was als nächstes kommt. Auch sie, pragmatisch. Gerade mal nachgeschaut: In meinen Regalen stehen – nach monatelangem Räumen – immer noch 756 Book-Books bereit. Und heute morgen habe ich wieder Bücher in der UB bestellt, sie sind schon „abholbereit“.

Zum Büchermachen in digitalen Zeiten siehe auch das Radiofeature von Joachim Büthe im Deutschlandfunk, 13. März 2015.

WLAN-Neusprech

Der Referentenentwurf zur Neuregelung der Störerhaftung für den Netzzugriff über offene WLANs wird seit seiner Veröffentlichung kontrovers diskutiert. Im Beck-Blog hat nun Thomas Hoeren deutliche Worte gefunden. Er stellt den Entwurf in die Tradition des Orwellschen Neusprechs, weil er behauptet, den Ausbau offener WLANs voranzutreiben, während er tatsächlich die Störerhaftung für deren Betreiber drastisch verschärft. Nur wer den Zugang zum WLAN verschlüsselt und sich bestätigen läßt, daß, wer zugreift, verspricht, keine Rechtsverstöße zu begehen, soll in Zukunft von der Haftung im Rahmen des Providerprivilegs noch freigestellt werden. Wer das WLAN nicht geschäftsmäßig betreibt, soll das nur noch dürfen, wenn er die Namen der Benutzer kennt.

Hoeren hält, wie schon vorher Thomas Stadler, den Entwurf wegen Verstoßes gegen die E-Commerce-Richtlinie für rechtswidrig und referiert die neuere Rechtsprechung, die sich gerade zugunsten der Freifunker gewendet hatte, indem diese als Access Provider behandelt werden. Außerdem wirft er die Frage auf, weshalb geschäftsmäßige und nicht-geschäftsmäßige Betreiber von WLANs ungleich behandelt werden sollten. Strengere Regelungen für den Freifunk müßten – beispielsweise im Vergleich zu den Betreibern von WLANs in Hotels oder in Cafés, aber auch in Bibliotheken – durch einen sachlichen Grund gerechtfertigt werden. Dabei ist ein Unterschied zwischen einem WLAN, das auch in den öffentlichen Raum eines Straßencafés hineinfunkt, und einem Freifunknetzwerk kaum feststellbar.

Der Referententwurf kann tatsächlich nur als der Versuch gewertet werden, den kommerziellen Access Providern einen Wettbewerbsvorteil zu verschaffen und das zivilgesellschaftliche Engagement beim Teilen des Internetzugangs nachhaltig zu verhindern, indem die Entwicklung der Rechtsprechung konterkariert wird. Hier treffen sich dann wohl die Interessen von CDU/CSU und SPD zum Thema Wirtschaftsförderung, zum Schaden der Zivilgesellschaft, aber auch allgemein beim Verhindern von Innovationen im digitalen Bereich. Die Vergangenheit soll damit festgezurrt werden. Ein netzpolitischer Schuß in den Fuß. Und der nächste steht bevor, denn auch die Vorratsdatenspeicherung soll ja schon bald neu geregelt werden. Back to the future.

Les chroniques économiques de Thomas Piketty

Nachdem Ulrike Herrmann in der taz zu Anfang des Jahres schon einen Überblick über drei Digests vorgestellt hatte, die das voluminöse Werk des französischen Ökonomen lesbarer machen sollen, stellte sie in der gestrigen Literaturbeilage der taz zur Leipziger Buchmesse den neuen Piketty vor: „Die Schlacht um den Euro“ – 40 kurze Texte, die in der französischen Tageszeitung Libération erschienen sind und die die Zeitspanne von 2008 bis Januar 2015 umfassen, die der Beck-Verlag hinterhergeschoben habe, um erneut Kasse zu machen.

Schon etwas in die Jahre gekommen seien die Texte, das gebe der Autor selbst zu. Herrmann zufolge sei einerseits von dem Werk abzuraten, weil es in den unredigierten Beiträgen zu endlosen Wiederholungen komme. Andererseits sei das Buch aber wegen seiner anschaulichen Beispiele, etwa zum ganzen Ausmaß des deutschen Handelsbilanzüberschusses, doch lesenswert, meint sie. Die sich ansonsten aber von Piketty ein ganz anderes Buch noch wünscht, nämlich ein systematisches Buch, das die deutsche Debatte bereichern könnte, die bisher daran krankt, dass der neoliberale Mainstream dominiert und auswärtige Perspektiven konsequent ignoriert werden.

Na ja. Das wird sicherlich noch etwas auf sich warten lassen. Was aber die unredigierten Beiträge Pikettys angeht, so sind zumindest die neueren unter ihnen frei im Netz zu lesen als Les chroniques économiques de Thomas Piketty, derzeit von 2013 bis Januar 2015 bei Libération – wo man auch sonst immer wieder lesenswerte Texte findet. Man sieht: Auch Piketty ist ein Blogger.

(Wenn die Rezension von Ulrike Herrmann auf der Website der taz erscheint, verlinke ich sie.)

WordPress.com im Classic-Modus

Die Unzufriedenheit über das Herumschrauben an der Oberfläche bei WordPress.com hält nun schon seit dem vergangenen Sommer an. Die Support-Foren von WordPress.com sind voll von Klagen der Benutzer darüber, zumal nach dem unsäglichen neuen Post-Editor jetzt auch noch die Blog-Statistik auf ein iPad-genehmes Mäusekino-Format zurechtgestutzt worden ist.

Auf meine Anfrage hin, wie man das abschalten könne, wurde mir zunächst erklärt, das gehe gar nicht mehr. Auf weitere Nachfrage hin: Mein Wunsch werde an die Entwickler herangetragen. Bis die Benutzerin timethief dankenswerterweise nähere Informationen und bookmarkbare Links zu den gewünschten Seiten zusammenstellte, die ich hiermit weitergebe.

Wer also weiterhin beim Bloggen das klassische WordPress-Interface verwenden möchte, versehe sich entweder mit einer eigenen WordPress-Installation (mittlerweile Standard bei vielen Webspace-Providern) oder bleibe bei WordPress.com und befolge diese Ratschläge:

  • Der Weg zum Dashboard, das WordPress.com immer mehr vor den Benutzern versteckt, führt über den Menüpunkt WP Admin.
  • Der normale WordPress-Post-Editor wird standardmäßig gar nicht mehr angezeigt. Man kann ihn nur noch erreichen, indem man aus dem neuen Post-Editor zum Classic mode umschaltet. Dieser Umweg ist nicht zu umgehen. Das Cookie, das dabei gesetzt wird, sorgt dann dafür, daß bei den nächsten Aufrufen der normale Editor erscheint.
  • Die bekannte Statistikseite findet man weiterhin unter https://wordpress.com/my-stats/.
  • Eine Übersicht über die Benachrichtigungen gibt es auf https://wordpress.com/notifications/.

Die bekannten Funktionsseiten sind also weiterhin vorhanden, sie sind nur über die Oberfläche von WordPress.com nicht mehr direkt anklickbar. Man muß sie als Bookmarks aufrufen oder erst ein Cookie dafür setzen lassen – eine Bevormundung des Users, denn so etwas sollte als Opt-in ausgeführt werden. Zumindest sollte es die Möglichkeit geben, das alles wieder abzuschalten, um die übliche WordPress-Oberfläche verwenden zu können.

Ich fühle mich auf einmal so alt.

Hintergründiges zu Open Access

In zwei Beiträgen in meinem Feedreader wird die Diskussion über Open Access wieder aufgegriffen: Martin Ballaschk schreibt in den SciLogs über einen skurillen Vorgang aus der Welt der Wissenschaftsverlage: Das Haus Elsevier habe Ross Mounce zufolge einen Aufsatz, der ursprünglich bei Wiley unter einer CC-by-nc-nd-Lizenz als Open Access veröffentlicht wurde, über seine Plattform ScienceDirect verkauft (sic!). Man fragt sich, wie dieser dazu kam, dafür Geld auszugeben, und ich vermute, es steckte wohl ein Fehler im System dahinter, wenn man es so nennen möchte. Und die Aufgeregtheit, die hier inszeniert wird, wirkt auch gespielt.

Aber was für ein System ist das denn? Ballaschk weiß: Wissenschaftliche Verlage haben üblicherweise Gewinnmargen jenseits von 35% und zählen damit zu den profitabelsten Industrien, weit entfernt von der Pharma- oder Ölindustrie oder Apple. Elsevier und Wiley haben mit Sicherheit genug Geld, um etwa den reibungslosen Transfer von Lizenzen sicherzustellen, und zwar dauerhaft. Zur Not muss man dafür dann ein oder zwei Personen zusätzlich einstellen. … Dabei verspricht der internationale Trend zu Open Access eine Goldgrube für die Verlage zu werden. Die Autoren bezahlen meistens tausende Euro für jede Veröffentlichung, ein steter Strom an neuen Veröffentlichungen finanziert Kosten für Server, Layout, Software-Aktualisierungen und den Hausmeister. Der Inhalt der Arbeit selbst wurde über die Forschungsförderung bereits vom Steuerzahler finanziert, und Wissenschaftler übernehmen unentgeltlich Begutachtung, Fehlerkorrektur, Lektorat, Bildredaktion und Koordinationstätigkeiten.

Das mit der Goldgrube Open Access bestreitet wiederum Uwe Jochum, und zwar schon länger. Er meint, die Digitalisierung und Archivierung der Arbeiten sei teurer als bisher eingeschätzt, die Kosten würden dabei nur auf einen anderen Träger verschoben, nämlich auf den Betreiber des jeweiligen Servers, auf dem die Arbeit liegt. Das sei zumindest wenn die Arbeiten auf einem öffentlichen Server lägen nicht billiger als über die Verlage zu gehen. Darauf weist Günter K. Schlamp hin – der aber gleichzeitig einen Beitrag von Lambert Heller aus dem Jahr 2012 zitiert, in dem zehn echte Vorteile von Open Access genannt werden, die auch ich allesamt unterschreiben würde.

Schlamp erwähnt, verlinkt aber leider nicht die Kontroverse zwischen Matthias Spielkamp und Uwe Jochum, die sich vor sechs Jahren im immateriblog zutrug. Jochum focht auch damals schon mit dem Florett. Wiedergelesen, ein merkwürdiger Diskurs, der aber ebenfalls viel von den Hintergründen und den Emotionen zeigt, die bei dem Thema immer noch im Spiel sind.