Lesezeichen
 

Wer anderen mit Inkasso droht, muss selber zahlen

Die Webseite Woot!, die jeden Tag ein anderes Produkt vertreibt, ist von Amazon aufgekauft worden. Das fand die Nachrichtenagentur Associated Press so interessant, dass sie dazu eine Meldung veröffentlichte.

Soweit, so normal. Wenn man sich dabei nicht an dem Originalposting vom Woot!-Geschäftsführer Matt Rutledge bedient hätte, das Woot! auf dem eigenen Blog veröffentlicht hatte. Und wenn man nicht zuvor so hart gegen Blogger vorgegangen wäre, die sich bei AP bedienten.

Denn nun hat Woot! eine Rechnung geschickt. Und 17 Dollar 50 von AP verlangt – entsprechend den von der Agentur bei Bloggern angesetzten Sätzen und den insgesamt 17 zitierten Worten. Natürlich nur ein Scherz. Doch mit ernstem Hintergrund: AP nämlich ermahnt seit einiger Zeit Blogger, vom Zitieren aus AP-Nachrichten doch bitteschön Abstand zu nehmen oder aber bei AP wenigstens vorher um Erlaubnis zu fragen. Ganz gleich, wie kurz die Zitate auch sein mögen.

Um das Procedere möglichst einfach zu handhaben, hatte AP sogar ein Formular ins Netz gestellt. Gegen eine geringe Gebühr konnte man dort die Lizenz zum Zitieren erwerben.

Woot! hat nun auf der Grundlage dieses Formulars und des AP-Preisindexes die geforderte Gebühr ermittelt.

Als Kompensation bot Woot! an, AP könne anstelle der Gebühr auch die auf der Woot!-Seite gerade angebotenen Kopfhöhrer kaufen – zwei Paar bitte. Mit recht scharfen Worten bat man allerdings, den Beleg über die beiden Kopfhörer noch bis zum Ende des Tages bei Woot! vorzuzeigen. „Wir gehören jetzt auch zu den großen Playern“, hieß es dazu. „Zwingt uns nicht, die Angelegenheit an ein Inkasso-Büro zu übergeben.“

Bei AP nahm man das weniger humorvoll. Das Blog TechCrunch zitiert aus einer Mail von AP Media Relation Chef Paul Kroford. Der darin die etwas lahme Entschuldigung anbringt, man habe auch schon selbst mit dem Woot!-Chef ein Interview geführt (wenn auch offensichtlich zu anderen Themen). Außerdem deutete er wohl an, dass die hauseigenen Reporter mit der Berichterstattung über das Öl-Loch derzeit ziemlich ausgelastet seien.

Was bei TechCrunch natürlich nur auf höhnische Kommentare trifft. „Hat er wirklich die Ölkarte ausgespielt? Ja hat er“, schreibt der Autor. Um dem Ganzen noch eins drauf zu setzen übernimmt TechCrunch dann noch eine AP-Meldung über das Öl-Leck im Golf. Das müsste ja eigentlich in Ordnung gehen, heißt es dazu. Schließlich hätte man ja darüber gesprochen.

 

Kleine Blogschau zur Scroll-Edition der Welt

Gestern hat die Welt Kompakt ihre „Scroll-Edition“ herausgebracht, die von Bloggern gestaltete Ausgabe ihrer kompakten Tageszeitung. Die Resonanz auf das Experiment fiel gemischt aus, längst nicht alle Blogger sind stolz auf die Arbeit ihrer beteiligten Kollegen. Hier ein Blick in eine kleine Blog-Presseschau:

„Das Experiment ist denke ich gelungen. Die Text(brocken) sind gut, wenn auch mehr einer (kleinen) Wochenzeitung gerecht, als einer Tageszeitung“, findet Thomas Gigold von Medienrauschen.

„Experiment gescheitert“ vermeldet indes Meetix. „Ich frage mich schon seit langer Zeit, wo viele Blogger die Arroganz hernehmen, Journalisten anzugreifen und sie zu verbessern, obwohl diese ihren Beruf von Grund auf gelernt haben und täglich einsetzen.“ Zwei gewichtige Kritikpunkte in dem Blogeintrag lauten: „News von gestern anstatt News von morgen“ und: „Altbekannte Themen neu verpackt“.

Auch das Blog Basic Thinking hält nicht hinter dem Berg mit Kritik, wenn auch zunächst nur unter Bauchschmerzen: „Es fällt mir nicht leicht, diese Zeilen zu schreiben. Zum einen bin ich niemand, der gerne etwas verreißt, wofür sich andere viel Mühe gegeben haben. Weniger nörgeln, mehr machen, ist eigentlich meine Devise“, schreibt der Autor. Und weiter: „Zum anderen diskreditiere ich damit meinen eigenen Berufsstand. Aber Wahrheit bleibt Wahrheit, und die muss gesagt werden.“ Und die lautet: Experiment grandios gescheitert. „Die Expedition hat der deutschen Webszene eher geschadet als genutzt.“

Basic Thinking ist nicht das einzige Blog, das sich vor allem über das besondere Format der Scroll-Editon wundert – ein Querformat nämlich: „Soll ausgerechnet das darauf hinweisen, dass es diesmal eine Internet-gerechte Zeitung ist? Aber wer bitte liest Texte auf diese Weise? Welches Blog hat ein solches Format?“ Insgesamt bleibt Basic Thinking das Layout „die ganze Ausgabe über ein Rätsel. Hat man etwa die Setzer auch nach Hause geschickt und die Blogger ein bisschen mit dem Redaktionssystem spielen lassen?“ Die Texte klebten an den Fotos und würden optisch nahezu davon überlagert.

Es gibt aber auch ein paar positive Gegenmeinungen, die finden: „Lässt sich gut lesen. Würde ich gerne öfter sehen.“

Immer wieder taucht der Kritikpunkt auf, dass der Nachrichtenpart der Blogger-Ausgabe viel zu schwach dahergekommen sei, und die Edition also nicht den Ansprüchen einer tagesaktuellen Zeitung gerecht werden könne. Medienrauschen  – insgesamt zufrieden mit der Textqualität – resümiert es so: „Blogger können mit Journalisten. Nur Leser mit dem Anspruch “Tageszeitung” können noch nicht so gut mit Bloggern …“ Oder wie Gerhard Kürner es ausdrückt: „Für 23 Blogger wurde die Produktion zur Lehrstunde über die Beschränkungen, denen eine gedruckte Tageszeitung unterworfen ist.“

Viele Beteiligte, überwiegend zufrieden mit ihrem Werk, schildern die Arbeit als eine Mischung aus Chaos und Spaß: „Die iPads flogen nur so durch die Gegend, während wir inmitten pulsierender Gehirne saßen und einmal mehr merkten, wie unterschiedlich die Bewohner des Netzes doch so sind und wie vielfältig ihre Intuitionen, Wünsche und Meinungen.“

Und sie gestehen: „War gar nicht so einfach.“

Andere sehen die Schuld für die schwachen Ergebnisse des Experiments eher bei den Strukturen und der mangelnden Gestaltungsfreiheit. Der Beitrag auf Turi2 etwa heißt: „Blogger mit begrenzter Macht.“

Immerhin ringt sich ein weiterer Beteiligter, Alex Kahl alias der Probefahrer, sogar ein paar nette Worte über Journalisten ab: „Eine Sache habe ich für meinen Teil in dem Experiment mal GANZ deutlich gelernt. Eine gehörige Portion Respekt und Demut vor dem Job des Journalisten insbesondere was die nachrichten angeht. Denn ich habe mich freiwillig für das News-Team gemeldet. (…) Hölle, war das ein Stress!“

Und die Autorin von Gesellschaft ist kein Trost hatte einen so tollen Tag mit den Journalisten und Blogger-Kollegen, dass sie großzügig „Watschn“ an die kritischen „Neidblogger“ verteilt: „Ich zieh Euch die Hand so heftig über Eure kleinen, hellen Wangen (weil ihr ja nie rausgeht, ihr kleinen Nerds), dass ihr noch drei Tage rote Striemen im Gesicht haben werdet.“

Deutlich nüchterner schließlich die Zusammenfassung vom Czyslansky-Blog: „Für einige Blogger mag das alles eine nette Redaktionsbesichtigung gewesen sein. (…) Die Springer-Redakteure haben mal einige ‚echte Blogger‘ gesehen und vielleicht feststellen können, dass auch diese des Schreibens durchaus mächtig sind. Weitere Lerneffekte aus diesem ‚Experiment‘ blieben und bleiben wohl aus.“

Dafür gibt es hier einen versöhnlichen Vorschlag zum Schluss: „Eine aktuelle Ausgabe, gemacht in Kooperation von klassischen Redakteuren UND Bloggern wäre wohl eine bessere Alternative gewesen.“

 

Ein Innenminister ist kein Internetminister

Malte Spitz vermisst bei den 14 Thesen von Bundesinnenminister Thomas de Maizière die netzpolitische Weitsicht. Doch er übersieht eines dabei: Ein Innenminister ist ein Innenminister – er war Innenminister und wird Innenminister bleiben. Er ist aber kein Internetminister.

Will heißen: Ein Innenminister wird sich immer nur über binnen- oder verwaltungspolitische Perspektiven äußern. Über Forschung und Wissenschaft wird er nichts sagen, weil das die Kollegin im Forschungsministerium tun sollte. Über Wettbewerb wird er schweigen, weil es Aufgabe des Kollegen im Wirtschaftsministerium ist, darüber nachzudenken. Und für die Zivilgesellschaft ist ganz offiziell die Kollegin im Familienministerium zuständig.

Die Kleinstaaterei der deutschen Netzpolitik ist dem Ressortdenken geschuldet – und letztlich dem offenkundigen Desinteresse der Bundeskanzlerin, sich strategisch zu positionieren. Eine von Malte Spitz geforderte „Internet Governance unter Einbeziehung von Wissenschaft, Wirtschaft und Zivilgesellschaft“ wäre Beritt des Kanzleramts. Doch davor hat sich die Regierung schon unter rot-grüner Ägide gescheut – ebenso vor einer Bündelung der Netzpolitik in einer Hand.

Vermutlich wird Netzpolitik in Deutschland gerne deshalb auf eine Sicherheits- und Angsdebatte reduziert, weil die meisten der innovativen Regulierungsvorschläge zur Netzpolitik aus dem Innenministerium stammen. Warum ist aber von den Ressorts Wissenschaft, Arbeit und Familie („Zivilgesellschaft“) so wenig zu vernehmen?

Vor Äonen gab es einmal eine denkwürdig komplizierte Zusammenarbeit zwischen Forschungs- und Wirtschaftsministerium in Sachen Internetpolitik. Die endete damit, dass man alle laufenden Projekte, die irgendetwas mit Kommunikation und Information zu tun hatte, einfach in einem Aktionsprogramm zusammenschrieb und dieses als Vision Deutschlands für die Internetgesellschaft im 21. Jahrhundert vermarktete. Betrachtet man den jüngsten Bericht, der als „High-Tech-Strategie“ unter Federführung des Wirtschaftsministeriums erstellt wurde, lässt sich unschwer erkennen, dass sich an dieser Aggregationsmethode seither wenig verändert hat.

Natürlich gibt es noch einen IT-Gipfel, der so etwas wie eine nationale Strategie suggeriert – doch er zeichnet sich einfach dadurch aus, dass die Bundeskanzlerin anwesend ist.

Auffallend ist: Das Forschungsministerium agiert immer nur als eine Art Juniorpartner des  Wirtschaftsministeriums oder des Innenministeriums. Es steuert nur ein paar Aspekte bei – etwa zur Internetsicherheit oder zur digitalen Spaltung. Oder es fördert ein wenig Internettechnologien – nicht etwa das „Next Generation Internet„, sondern nur Future-Internet-Projekte, in dem sich dann kleinere Projekte tummeln dürfen. Um das deutsch-französische Suchmaschinenprojekt Quaero, das bereits nach wenigen Monaten still und leise zu einem Semantic-Web-Projekt namens Theseus eingedampft wurde, ist es überdies recht still geworden.

Ob darin ein politisches Versäumnis der Forschungsministerin liegt, sei dahinzustellen. Denn es gibt in Deutschland nur wenige Unternehmen und Wissenschaftler, die mit ihren Projekten auf internationaler Ebene einen Impact zeigen. In internationalen Standardisierungsgremien wie der Internet Engineering Task Force (IETF) spielen sie keine Rolle. Forscher, die dann doch irgendwie Einfluss haben, sind aber längst nicht mehr an hiesigen Hochschulen beschäftigt. Wohl deshalb fällt das Thema „Standardisierung“ unter die Ägide des Wirtschaftsministeriums, das dieses mehr schlecht als recht begleitet.

Auch in Fragen der Internetverwaltung – Stichwort ICANN und IANA – sind die Deutschen nicht wirklich präsent. Die Ministerien verfügen nicht einmal über eigenes Know-How – deshalb bitten sie externe Experten, sie dort zu vertreten. Das ist an sich nicht kritikwürdig – doch bedenkenswert ist es, dass dieses Engagement in der Wissenschaft, den Unternehmen und der Politik keinen Widerhall findet.

Malte Spitz hat überdies in seinem Rant gegen den Innenminister übersehen, dass auch das Justizministerium ein gewichtiger Player in der Netzpolitik ist. Die nächste Urheberrechtsnovelle wird erheblichen Einfluss auf die Entwicklung von frei verfügbaren Internetinhalten nehmen – Stichwort „Leistungsschutzrecht“. Aber ähnlich wie beim Innenministerium scheinen hier „Angst“ und „Blockade“ die Stichwortgeber zu sein. Netzpolitische Urheberrechtskonzepte wie die der Creative-Commons-Lizenzen oder die Vision eines European Copyright Codes diskutiert die Justizministerin genauso wenig wie der Innenminister sich an das Thema „Open Data“ in der Verwaltung herantraut. Dabei hätten diese gewaltiges Innovationspotenzial.

Schließlich engagiert sich seit jüngster Zeit nun auch das Verbraucherschutzministerium für den Verbraucher- und Datenschutz – in gewisser Konkurrenz zum Innenministerium. Dabei werden dann wiederum gerne  europäische Komponenten des Datenschutzes, die wie das „Safe Harbor Abkommen“  in internationalen Konflikten („Facebook“, „Google“) eine Rolle spielen, ignoriert.

Ein Grund für die deutsche Netzpolitik-Misere mag darin liegen, dass die wichtigen netzpolitischen Fragen längst auf europäischer Ebene diskutiert und entschieden werden. Die Frage der Netzneutralität beispielsweise wurde im letzten Jahr im Zuge des gigantischen Telekom-Pakets verhandelt. Doch in der deutschen Berichterstattung war darüber wenig zu lesen. Auch das Urheberrecht wird vermutlich auf europäischer Ebene seine wesentlichen Ausprägungen erfahren.

Dies wiederum mag auch ein Problem der deutschen Medienlandschaft sein. Dort scheint es irgendwie noch nicht angekommen zu sein, dass über 80 Prozent der politischen Entscheidungen in Brüssel gefällt werden. Entsprechend mau war auch die Reaktion auf die Ernennung von Neelie Kroes als Internet-Kommissarin – und ihre Präsentation einer „digitalen Agenda„. Mit dieser aber sollte sich nicht nur das Europäische Parlament auseinandersetzen, sondern auch eine informierte Öffentlichkeit.

Kurzum: Fehlt in der nationalen Politik das Pendant zu Neelie Kroes, bleibt alles klein klein und strategisch unausgegoren. Es ist daher höchste Zeit für eine konsolidierte Internetpolitik auf nationaler Ebene, die europäisch und international anschlussfähig ist.

P.S. Ansätze dafür gibt es schon – unter anderem auch bei Malte Spitz.

 

Richtungskämpfe im Urheberrecht

Die umstrittenste Neuerung  des Urheberrechts ist das von den Verlegern ersonnene so genannte „Leistungsschutzrecht“. Nebulös forderten die Verleger „geistige Wertschöpfung von Urhebern und Werkmittlern besser zu schützen“. Nachdem Bundesjustizministerin Sabine Leutheusser-Schnarrenberger in ihrer „Berliner Rede zum Urheberrecht“ grundsätzlich Zustimmung zu einem solchen neuen Recht signalisierte, präzisierten die Verlegerverbände VDZ und BDVZ in einem kürzlich dank netzpolitik.org veröffentlichten Eckpunktepapier ihre Vorstellungen:

Um einen effektiven Rechtsschutz zu gewährleisten, sollten nicht nur Teile des Presseerzeugnisses wie einzelne Beiträge, Vorspänne, Bilder und Grafiken geschützt werden. Schutzwürdig sind beispielsweise auch Überschriften, Sätze, Satzteile etc., soweit sie einer systematischen Vervielfältigung, Verbreitung oder öffentlichen Wiedergabe in Verbindung mit dem Titel des Presseerzeugnisses dienen.

Schutzwürdig sind also auch „Überschriften, Sätze, Satzteile, etc.“. Das „etc.“ steht wohl für noch mehr Spielraum in den laufenden Verhandlungen – nicht nur mit dem Ministerium, sondern auch mit den Verbänden, die die Urheber vertreten: die Journalistenverbände.

Eigentlich herrschte zwischen den Verleger- und den Journalistenverbänden DJV und dju/ver.di in Sachen Leistungsschutzrecht bereits eitel Sonnenschein. Hatten doch die Journalistenverbände nichts gegen ein solch neues Recht einzuwenden, wenn es denn nicht nur Verleger-, sondern auch die Urheberinteressen angemessen berücksichtigen würde.

Dieser Konsens ist nun akut bedroht: Denn dass nun auch Satzteile geschützt werden sollen, geht den Journalistenverbänden zu weit. Der DJV-Bundesvorsitzende Michael Konken sagt in einer jetzt veröffentlichten Erklärung:

„Nicht verhandelbar sind für uns die Zitierfreiheit oder sonstige Einschränkungen der Informationsfreiheit, die bereits heute als Schranken im Urheberrecht verankert sind.“

Wenn Verlage Satzteile aus Artikeln schützen lassen wollen, wollen sie verhindern, dass Nachrichteninhalte von anderen Medien übernommen werden. Das ominöse „etc.“ im Text des Eckpunktepapiers könnte daher vielleicht auch so etwas wie ein Schutz aktueller Nachrichten sein. In den USA gibt es den 1918 vom Supreme Court aufgestellten Rechtsgrundsatz der „Hot News“.

Die Hot-News-Doktrin soll einen Informationswert, der den Investitionen in eine Informationsbeschaffung entspricht, über ein zeitlich begrenztes Erstinformationsrecht schützen. Aufwändig recherchierte Geschichten sollen so zunächst nur über den Verlag zu beziehen sein, der sie zuerst veröffentlicht hat. Allerdings lässt die Hot-News-Doktrin offen, nach welchem Zeitraum eine Nachricht frei zitiert werden darf. Lange Zeit wurde der Rechtsgrundsatz daher nicht mehr vor Gericht bemüht. Erst in jüngster Zeit berief sich die Nachrichtenagentur „Dow Jones Newswires“ in einer Klage gegen den Online-Newsdienst Briefing.com wieder auf die Doktrin, der ganze Texte von Dow Jones kopiert hatte. Von Dow Jones ist auch bekannt, dass sie auch die im Kontext von „Fair Use“ legale Verwendung von Snippets abmahnt.

Eigentlich wäre es jetzt Zeit für die Journalistenverbände, den Konsens mit den Verlegerverbänden über ein Leistungsschutzrecht vollständig aufzukündigen, da diese offenbar absurde Forderungen aufstellen, um sich genügend Verhandlungsmasse zu verschaffen. Das Eckpunktepapier zeigt deutlich, dass die Stoßrichtung der Verleger das journalistische Arbeiten einschränken wird. Es kann nicht sein, dass das Schielen auf „gemeinsame Vergütungsregeln“ dazu führt, ein tendenziell innovationsfeindliches Recht einzuführen.

Das Urheberrecht braucht nämlich nicht noch mehr Schranken, sondern im Gegenteil mehr Lockerungen, damit die europäische nicht noch stärker gegenüber der amerikanischen Kreativwirtschaft benachteiligt wird. Diese profitiert seit langem von Fair-Use-Regelungen in Billionenhöhe. Vorschläge in die entgegengesetzte Richtung gibt es auch – nur wird über sie merkwürdigerweise nicht berichtet: So hat eine Gruppe europäischer Rechtswissenschaftler einen schlanken European Copyright Code entworfen. Er soll das angelsächsische Copyright mit dem kontinentaleuropäischen Urheberrecht versöhnen. Zentraler Baustein sind vier Gruppen von Schrankenbestimmungen sowie eine Art Öffnungsklausel mit Fair-Use-Charakter. Das wäre etwas, über das es sich lohnen würde nachzudenken – und zu verhandeln.

 

No-Futurezone

Es ist beschlossen, die Seite Futurezone wird zum 1. Oktober dicht gemacht. Zu ändern ist daran wohl nichts mehr, was bleibt, ist ein Nachruf:

Sperrig waren die Themen, auf die sich das Angebot des österreichischen Rundfunks spezialisiert hatte, kompliziert und schwer vermittelbar: ACTA, Prümer Vertrag, SWIFT, Vorratsdaten – sämtlich europäische Netzpolitik mit erheblichen Auswirkungen, für die sich trotzdem kaum jemand interessierte. Zumindest nicht zu der Zeit, zu der es die wenigen Redakteure dort längst taten. Kritisch, analysierend, erklärend schrieben sie jahrelang auf, was man in den vielen europäischen Gremien mit dem Netz so plante.

Rentabel war die Seite nicht, dafür war die Nische, in der sie lebte, zu klein und zu exotisch, dafür waren die Recherchen zu aufwändig. Einen Erich Möchel tage-, ja wochenlang in Archiven buddeln zu lassen, muss man erst einmal bezahlen wollen. Trotzdem, nein, gerade deswegen hatte das „Zukunftsareal“ einen großartigen Ruf weit über Österreichs Grenzen hinaus. Und schätzungsweise 25.000 Leser am Tag. Das beste, was der ORF im Netz zu bieten hat, war die Meinung vieler Fans.

Es war wohl dieser Erfolg, der der Futurezone nun den Garaus machte. Dem Vernehmen nach – so heißt es, wenn niemand sich traut, das unter seinem Namen zu sagen – war es vor allem die Konkurrenz vom Standard, die darauf drang, die Seite zu schließen. Bei den Verhandlungen um das ORF-Gesetz fand sich Gelegenheit. Es ging dabei um Geld für den öffentlich-rechtlichen Sender und um seine Netzaktivitäten. Er wollte von ersterem mehr, private Verleger fanden, er müsse letztere einschränken. Sie hatten also ein gutes Druckmittel. Der ORF darf in den kommenden Jahren mehr Werbung im Netz machen, dafür stirbt Futurezone.

Wenigstens das Archiv wird gerettet. Derzeit zieht die österreichische Nationalbibliothek es sich auf ihre Rechner. Wer es künftig einsehen will, der muss sich allerdings schon in den dortigen Lesesaal begeben. Im Netz gibt es die Sachen nicht mehr, ein Zugeständnis an die Debatte um Urheberrechtsverletzungen im Internet. Die Themen werden nicht verschwinden, verspricht man beim ORF. Im Rahmen anderer Angebote wolle man sie weiter verfolgen.

Sie werden schwerer zu finden sein, aber vielleicht ist das ja auch in irgendjemandes Interesse.

Nachtrag: Inzwischen gibt es 1000 Unterschriften unter der Petition, die Futurezone einer Genossenschaft zu übergeben.

 

Macht das Internet dümmer oder klüger?

Neue Medien wurden in der Geschichte schon immer ängstlich beäugt. Zwar antworteten sie auf offenkundige Bedürfnisse, sonst hätten sie sich ja nicht durchgesetzt. Aber ob nun die Erfindung des Buchdrucks, des Volkstheaters oder des Romans – die Gruppe der Mahner war nur unwesentlich leiser als die der Fans und Optimisten. Die Vorwürfe rangierten dabei von der Sorge vor der Massenverdummung bis hin zum Nachweis widerwärtiger und schädlicher Konsequenzen, sollte sich die Mehrheit der Menschen dem verführerischen Medium zu sehr hingeben.

Eine ähnliche Debatte wird seit Jahren auch um das Internet geführt und gipfelte 2008 in der Frage von Nicholas Carr, ob Google uns dümmer mache. Das Wall Street Journal hat diese nun noch einmal gestellt. Beziehungsweise war es erneut Nicholas Carr, der seine These in leicht abgewandelter Form dort präsentierte und fragte: „Macht das Internet Dich dümmer?“

Wie schon früher antwortete ihm darauf Clay Shirky mit einem Nein, beziehungsweise dem Text: „Macht das Internet uns schlauer?“. Letztlich hätte die Gesellschaft immer Strukturen ausgebildet, glaubt der amerikanische Netzexperte und Buchautor, die halfen, dem zunächst größer werdenen Chaos und Überangebot an Informationen wieder Herr zu werden. Und dabei Mehrwert zu ernten. Als Beispiel nennt er das Peer-Review-Verfahren, das wissenschaftliche Artikel dem kritischen Blick verschiedener Experten unterzieht, bevor ein Text als verifiziert gilt. Ähnliches passiere auch im Netz – in der Wikipedia etwa, dem Online-Lexikon, das innerhalb von nur zehn Jahren zu der wichtigsten englisch-sprachigen Referenz geworden sei.

Carr dagegen glaubt, das Netz verwandele seine Leser in oberflächliche Denker und zahlreiche Studien belegten das. Carr zählt dann allerhand auf: Verlinkter Text sei unverständlicher als linearer, Multitasking ein Ding der Unmöglichkeit und die ständige Ablenkbarkeit durch Mails und spontane Suchbegehren der Tod jeglicher, konzentrierter Auseinandersetzung mit einem ernsten Thema. Der Mensch verliert durch das Netz mehr und mehr die Fähigkeit, komplexe Systeme zu verstehen.

Die beiden Texte widersprechen sich nicht unbedingt. So könnte man Carrs Verwirrung als gegenwärtige Zustandsbeschreibung akzeptieren, selbst wenn man sie in der Schärfe nicht teilt. Und auf Shirkys Optimismus und darauf setzen, dass sich Strukturen entwickeln werden, mit diesen Ablenkungen und Zerstreuungen klar zu kommen. Carr jedoch glaubt, dass Medien Veränderungen auszulösen vermögen, die unumkehrbar sind. Dass wir so viel Zeit vor Bildschirmen verbringen etwa führe dazu, dass unter unseren kognitiven Fähigkeiten vor allem die visuelle immer stärker ausgeprägt werde.

Stellt sich nur eine Frage: Wer kann beurteilen, ob dass das eine Veränderung zum Schlechteren oder zum Besseren ist?

 

Auf der Suche nach kreativen Spielwiesen

Der Medienwandel ist im Gange – es kriselt allerorten. Im Print-Journalismus brechen die Werbeanzeigen weg, im Online-Journalismus kommen sie aber nur noch zu Bruchteilen an. Dazwischen suchen Verlage wie freie Journalisten händeringend neue Geschäftsmodelle. Drei kritische wie optimistische Texte seien angesichts dessen dringend empfohlen:

Tom Schimmeck denkt über „Glanz und Elend auf der digitalen Galeere“ nach und  kommt – im Glauben an die Notwendigkeit des Journalismus  („Die Komplexität steigt, die Verwirrung wächst. Wir müssen wieder mehr Aufklärung als Zerstreuung liefern.“) – zu dem Schluss:

„Das Internet ist nicht nur Bedrohung, es macht uns alle potentiell zu Medienbesitzern, bietet riesige Möglichkeiten für großen Journalismus – auch jenseits des Geplappers über News aus fünfter Hand.“

Matthias Spielkamp analysiert mit scharfem Blick die Lage des Journalismus in Deutschland und erkennt angesichts der geringen Wertschätzung, die gute Journalisten seitens ihrer Geldgeber erfahren, einen Brain Drain in den Verlagen, der sich letztlich eher negativ auf die Fähigkeiten der Verlage auswirken wird, die Krise auch kreativ zu bewältigen.

Es ist nämlich nicht nur pure Not, die Journalisten vom klassischen Journalismus abbringt – es ist auch die mangelnde Wertschätzung seitens der Verleger, die sich in Dumping-Honoraren ausdrückt. Spielkamp:

„Kürzlich war ich bei einem Treffen des Freischreiber-Verbands, bei dem es darum ging, Ideen für einen Kongress zu entwickeln, bei dem freiberuflichen Journalisten Wege in die Zukunft aufgezeigt werden sollen. Nach der Vorstellungsrunde war klar, dass von den etwa 20 Anwesenden ungefähr zwei Drittel ihr Geld nicht nur mit Journalismus verdienen. Nicht, weil sie nicht könnten, sondern weil sie nicht mehr wollen. Denn die Verlage sollten und können davon ausgehen, dass es genau diese Kolleginnen und Kollegen sind, die Alternativen dazu haben, Journalisten zu sein. Die mit ihren Fähigkeiten in anderen Branchen reüssieren können, wo sie besser behandelt und besser bezahlt werden. Und die das nur deshalb bisher nicht getan haben, weil sie leidenschaftliche Journalisten und schlechte Geschäftsleute sind. Aber irgendwann ist auch bei ihnen das Maß voll.“

Journalisten könnten sich im Zuge des Medienwandels auch andere Umgebungen als die der Verlage entwickeln, meint Spielkamp:

„Was dem einen staatliche Zensur und Überwachung, also der Mangel an negativer Pressefreiheit, ist dem anderen ein lachhaftes Honorar, gekoppelt mit einem Total-Buyout-Vertrag, also ein Mangel an positiver Pressefreiheit.  Was also dem einen seine Socke, ist dem anderen sein Weblog. Oder sein Spot.us, sein ProPublica, sein Perlentaucher.“

Dabei rechnet er übrigens auch mit dem seit Jahren heftig umstrittenen Punkt 5 des Medienkodex des Netzwerk Recherche ab, der da lautet: „Journalisten machen keine PR“. Für Spielkamp zeigt das

„eine unglaubliche Ignoranz und Arroganz, die sich hinter solch wohlfeilen Kodizes verbirgt, die meist ausschließlich von Gehaltsempfängern gezimmert werden: alle Medien, auch die selbst ernannten Qualitätsmedien, von „FAZ“ über „Süddeutsche Zeitung“ bis hin zu den öffentlich-rechtlichen Rundfunkanstalten, lassen sich ihre Zeitungen und Sendungen verdeckt von den PR-Abteilungen von Daimler und Siemens subventionieren. Wie ich darauf komme? Bei knapp der Hälfte der freiberuflichen Journalisten reichen die Einnahmen aus journalistischer Arbeit nicht aus, um ihren Lebensunterhalt zu bestreiten.

Ulrike Langer zeigt schließlich ganz pragmatisch auf, welche neuen Wertschöpfungsstrukturen sich ausbilden und nimmt sie kritisch unter die Lupe. Patentrezepte sieht sie keine, aber sie empfiehlt:

„Jedes Medium muss auf seine Weise durch Versuche, durch Trial und Error und schamloses Kopieren erfolgreicher Modelle herausfinden, was bei ihm am besten funktioniert. Man muss wahrscheinlich sehr vieles ausprobieren und man muss aus Fehlern lernen.“

In der Tat: Wir brauchen mehr kreative Spielwiesen – und weniger aggregierte  Duplikate.

 

Blogs sind emotionaler

Das „Pew Research Center’s Project for Excellence in Journalism“ hat 29 Wochen lang beobachtet, welche Nachrichten in Blogs, auf Twitter und auf YouTube als Top Story gehandelt wurden. Und kam zu dem Ergebnis, dass es auf jedem Portal andere waren. Nur ein einziges Mal interessierten sich alle drei Kanäle auf ihren ersten Plätzen für das gleiche Thema – zwischen dem 15. und dem 19. Juni 2009 belegten die Proteste gegen die Präsidentschaftswahlen im Iran nahezu alle Aufmacher. Grundsätzlich aber bescheinigen die Wissenschaftler dem Netz in ihrer aktuellen Studie stark divergierende Interessen und daher eine große Fragmentierung.

Auch der Unterschied zu den klassischen Medien ist weiter hoch. Lediglich zwischen traditionellen Nachrichtenseiten und an News orientierten Blogs gibt es eine größere Schnittmenge. Immerhin an 19 von 49 Beobachtungswochen konzentrierten sich die beiden Kanäle auf die gleichen Themen. Besonders auffällig ist etwa, das auf Twitter die Technik-Fraktion besonders stark vertreten ist. 43 Prozent der Tweets haben technologische Fragestellungen zum Inhalt. Zum Vergleich: Es sind in Blogs immerhin noch acht Prozent. Sowohl YouTube als auch traditionelle Medien räumen diesem Thema nur noch ein Prozent ihrer Berichterstattung ein.

Weiteres Ergebnis: Blogs übernehmen zwar gerne Themen aus den Nachrichtenmedien. Dabei fanden die Forscher allerdings heraus, dass sich die Blogger stärker den ideologischen und emotionalen Aspekten der Geschichten zuwenden als das traditionelle Medien zu tun pflegen. Und während Blogger gerne auch über Themen schreiben, die in der Old School-Presse bereits als verbrannt, also veraltet gelten, geschieht das umgekehrt eher selten. Die Wissenschaftler fanden genau eine solche Geschichte, den Clima-Gate-Fall. Den hatten große Medien aus Blogs übernommen, wo er schon lange diskutiert wurde.

Blogs sind dabei alles andere als unpolitisch. Mit 17 Prozent der Berichterstattung nehmen die Themen Politik/Regierung sogar mehr Platz ein als in den alten Medien (15 Prozent). In der Traditions-Presse ist allein die Berichterstattung über Wirtschaft deutlich breiter angelegt als in allen anderen Medien (zehn Prozent, im Vergleich zu sieben Prozent in den Blogs und jeweils ein Prozent auf YouTube und bei Twitter). Und auch für Gesundheit und Medizin interessiert man sich hier stärker. Woran das liegt, haben die Wissenschaftler noch nicht herausgefunden.

Was bleibt, ist eine alte Weisheit: Vielfalt belebt die Medienwelt und die Mischung macht’s.

 

Get the data

Viele Verlage beschäftigen sich derzeit mit der Frage, wie man mehr Geld aus den Inhalten holen kann, die da – wie sie immer wieder gerne lamentieren – unseligerweise kostenlos ins Internet gekippt werden. Kann man machen.

Man kann aber auch wie der britische Guardian Wege suchen, wie man mehr Inhalt aus dem glücklicherweise kostenlosen Internet holen kann: In dem man beispielsweise die Leser fragt, ob sie nicht noch Ideen haben, was alles in den Texten stecken könnte. Open Platform heißt das Projekt, das seit einem Jahr für Entwickler offen war und das nun offiziell gestartet wurde.

Mehr als eine Million Texte können dort nach verschiedenen Kriterien durchsucht und gefiltert werden. Das ist nicht nur ein Archiv. Dank einer Schnittstelle kann das auch automatisiert erfolgen. Anschließend lassen sich die Informationen mit anderen Datenbanken verknüpfen. Im einfachsten Fall kann ein Blogger alle Guardian-Texte auf seiner Seite zeigen, die sein Thema/seine Region betreffen

Warum die Mühe? Die Macher hoffen auf viele Ideen der Nutzer, auf die sie selbst sonst vielleicht nie gekommen wären und stellen dafür das Rohmaterial. Ihr Gewinn ist einerseits Geld – der komplette Zugang kostet, nur der eingeschränkte ist frei. Andererseits aber sind es eben auch diese Ideen, von denen die Zeitung wieder profitieren kann. Es ist auch ein Weg, neue Geschäftsmodelle zu finden, mit denen dann neue Inhalte finanziert werden können.

„Our vision is to weave the Guardian into the fabric of the Internet, to become ‚of‘ the web rather than ‚on‘ the web.“

Teil des Netzes wolle man werden, sich mit seiner Struktur verweben, nicht nur im Netz sein. In diesem Sinne: Get the data!