Auf die Kürze kommt es nicht an

In seinem Blog The Future Buzz möchte Adam Singer einen Mythos wiederlegen: Den von der notwendigen Kürze von Texten im Internet. Er bezieht sich dabei auf einen aktuellen Post seines Bloggerkollegen Rob Birgfeld, der (wie so viele vor ihm) behauptet, dass längere Texte im Netz keinen Erfolg hätten. Und der daraufhin ein paar Regeln für gute Blogposts formuliert.

Zu den Tipps, die Birgfeld für gute Texte gibt, gehört etwa der Hinweis auf kurze Titel und Ankündigungen: Man solle seinen Punkt in 140 Zeichen klarmachen können, Linkadresse inklusive, in Tweetlänge also. Wenn man zudem wünsche, dass jemand den eigenen Hinweis retweete, solle man weitere 15 Zeichen herauswerfen.

Außerdem sollten Blogger ihre Beiträge „vom Kopf auf die Füße stellen“, rät Birgfeld. Soll heißen, schneller auf den Punkt kommen und auf umständliche Einstiege verzichten. Auch Video-Beiträge sollte man so kurz halten wie möglich. Sind sie länger als fünf Minuten sollten sie Hinweise enthalten, an welcher Stelle ein konkretes Thema zur Sprache komme. Im Web, wo alles von Mund zu Mund weitergetragen werde, müssten die Informationen eben auch mundgerecht serviert werden, argumentiert Birgfeld: In kleinen, gut zu kommunizierenden Häppchen eben.

Adam Singer hält diese vermeintlichen Schreibregeln für pure Behauptungen, für die es bis auf weiteres an Beweisen mangele. „Wenn man sich einige der populärsten digitalen Persönlichkeiten im Netz anschaut, wird man hingegen feststellen, dass ihre Texte eher in die Tiefe gehen“, schreibt er.

Die Pflicht zur Kürze scheint eher durch ständige Wiederholung zu einer Regel geworden zu sein, als durch überprüfbare Fakten, glaubt Singer. Entscheidend seien eben gute Einstiege, gute Videos und gute Texte, die dürfen dann eben auch lang sein, und zwar genau so lang, wie ihre Inhalte tragen: „Of course, don’t go longer than you can be interesting.“

Im Netz ließen sich sowohl komplexe als auch simple Ideen verbreiten. Ob diese zwischen Communities weitergetragen würden, hänge nicht davon ab, wie kurz sie seien, sondern ob sie es wert seien, weitererzählt zu werden.

Und in der Tat, wenn man sich die Debatten in und übers Netz so anschaut, hat man nicht das Gefühl, dass sie nun ausgerechnet unter mangelnder Komplexität leiden. Ob nun Jeff Jarvis fragt: „Was würde Google tun?“, Chris Anderson: „The Long Tail“ erklärt oder Nicholas Carr fragt, was das Internet mit unserem Gehirn anstellt, dann passt die Frage zwar in eine Twitterzeile. Aber die Thesen sind groß genug, unzählige Blogs zu füllen.

 

Wie der Cybermob angeblich die Freiheit bedroht

Die Slate-Kolumnisten Ron Rosenbaum und Lee Siegel vom New York Observer haben einen Essayband herausgegeben, in dem sie sich den „New Threats for Freedom“ widmen, den modernen Bedrohungen für die Freiheit also. Dazu gehört ihrer Meinung nach – wie sollte es anders sein – auch das Internet. Das Problem sei der sogenannte „Cyber Mob“. Gemeint sind all die Menschen, die unter dem Schutzmantel der Anonymität ihren dunkelsten Instinkten freien Lauf ließen und herumpöbelten und zankten.

Die Verdienste des Internets hätten eben auch ihre Kosten, moderiert Michael Goodwin seine Gesprächsrunde mit den beiden Autoren auf Big Question Online an. Und die seien vor allem deshalb so gefährlich, weil man sie zunächst gar nicht wahrnehme, bei all dem vermeintlichen Nutzen des Netzes, wie auch Rosenbaum sofort beipflichtet.

Rosenbaum gesteht, das digitale Zeitalter anfangs abgelehnt zu haben. Damals habe er geglaubt, es würden lediglich drei Gruppen von Menschen vom Internet profitieren: Neonazis, Pädophile und Bill Gates. Zumindest mit Bill Gates lag er daneben, wie er inzwischen eingesteht. Doch würden Tarnnamen und falsche Identitäten Menschen Schutz bieten, die diesen Schutz nicht verdienten.

Lee Siegel pflichtet dem bei und warnt noch schärfer als Rosenbaum vor dem „interaktiven Mob“. Was er sagt, klingt kulturpessimistisch: Partizipation führe nur dazu, dass die breite Masse allen ihren Geschmack diktiere. Die Diktatur des Kommentariats, sozusagen.

Jedes kulturelle Zeitalter, so scheint es, führt die gleichen mahnenden Debatten.

Interessant ist vor allem der Versuch, die Positionen der beiden Skeptiker im politischen Umfeld zu verorten. Sie geben sich nämlich in dem Interview keinesfalls sofort als marktliberale Hardliner oder religiöse Hinterwäldler zu erkennen. So beschreibt Ron Rosenbaum, aus welchem Grund er das erste Mal unter den Attacken des Cybermobs zu leiden hatte: als er einen Blogpost gegen die konservative Tea-Party-Bewegung verfasste nämlich.

Und Lee Siegel klagt, der Motor des Internets sei in Wirklichkeit nicht der Wunsch nach mehr Partizipation und Demokratisierung – Werte, die offensichtlich auch er zu teilen wüsste. Nein, der Motor der weiteren Entwicklung des Internets sei vielmehr der Kommerz, die Geschäftsinteressen ganz bestimmter Firmen. Teilweise könnte man ihm in dieser Sorge sogar zustimmen.

Dennoch sind die anderen in ihrem Buch versammelten „Bedrohungen“ sehr aufschlussreich: „Die Regierung“, ist nämlich eine weitere. Es könne nicht ihre Aufgabe sein, für Gerechtigkeit im Leben zu sorgen. „Single Frauen“ sind freiheitsgefährdend, denn seit sie nicht mehr von ihren Männern abhängig seien, würden sie dem Staat auf der Tasche liegen. Weitere Feindbilder sind die Europäische Union, „Die Antireligös-Orthodoxen“, die „partizipative Kultur“ und die „Multikulturalisten“.

Und allein an den diesen Schlagworten zeigt sich der konservative Geist, der diese Anti-Internet-Mob-Positionen offensichtlich nährt.

 

Wunderschöne Datenmengen

Wer sich für die Visualisierung von Datenmengen interessiert, kommt an dem Blog Information is Beautiful von David McCandless nicht vorbei. Das fanden wohl auch die Organisatoren der berühmten TED-Konferenzen, die David McCandless baten, etwas darüber zu erzählen, wie man mit Design in unübersichtlichen Informationsmengen interessante Muster entdecken kann:

 

Wenn Autoren zu Verlegern werden

Weitgehend unbemerkt hat sich in den letzten Jahren auf dem Buchmarkt der USA eine kleine Revolution ereignet: Es werden inzwischen mehr als doppelt so viele Bücher jenseits der traditionellen Verlage veröffentlicht als noch vor drei Jahren.

Zahlen zu dieser Entwicklung in den Jahren 2002 bis 2009 (prognostiziert) liefert der US-amerikanische Bibliografie-Informationsdienst Bowker, in der folgenden Grafik übersichtlich aufbereitet. Bowker unterscheidet dabei zwischen traditionellem und nicht-traditionellem Publishing, wobei letzteres vor allem Print-on-Demand-Angebote sind, also die Titel erst nach der Bestellung ausgedruckt werden. (Für eine statische Ansicht wählt man oben rechts den Button „Säulendiagramm“ und drückt dann den Play-Button):

Ähnliche Zahlen gibt es für Deutschland nicht, weil der Börsenverein des deutschen Buchhandels solche Statistiken nicht erhebt. Anzunehmen ist, dass sich der Markt hierulande ähnlich entwickelt, nur leicht zeitversetzt.

Das liegt zum einen daran, dass immer mehr Internetplattformen diese Dienste für Autoren anbieten. Der Großteil bietet Print-on-Demand, zunehmend gehören aber auch E-Books dazu. Und vor allem im E-Book-Bereich sind die Autorenprovisionen mindestens doppelt so hoch wie im Print-Bereich.

In den USA hat vor allem Amazon das Geschäft mit den E-Books aufgemischt – mit einer Autorentantieme von 70 Prozent. Sie gilt allerdings bislang nur für US-Autoren, die ihr Buch bei Amazon zu einem Höchstpreis von maximal 9,99 Dollar anbieten. Dieses 9,99-Dollar-Diktat von Amazon bestimmt den amerikanischen E-Book-Markt maßgeblich – und führt anders als in Deutschland, wo Verlage sich etwa bei Libreka noch in mühsamen Preisfindungsprozessen befinden, zu erstaunlichen Abverkäufen: Amazon verkauft inzwischen fast doppelt so viele E-Books wie Printwerke gebundene Bücher.

Für die deutschen Verlage ist die Buchpreisbindung noch eine Art Rettungsanker – verhindert sie doch, dass ein Anbieter sich einen Günstigst-Preis ausbedingen kann. Ebenfalls profitieren sie davon, dass Amazon, Apple sowie etliche E-Book-Reader ihre Kataloge noch nicht für einen automatischen Datentransfer seitens der Self-Publishing-Plattformen geöffnet haben.

Dieser momentane Stillstand ist allerdings nur eine Art Schonfrist: Immer mehr Autoren machen sich angesichts der lukrativen Tantiemen im E-Book-Markt auf die Suche nach Selbstvermarktungs-Möglichkeiten. Den Verlagen droht also Ungemach von beiden Seiten, sowohl von den Autoren als auch von den Händlern.

Chancen und Vorteile haben die Verlage, was das Marketing betrifft. Das gilt bei der drohenden Titelschwemme nur umso mehr. Autoren wird es kaum genügen, eine Website zum Buch oder einen Twitter-Account zu führen. Verlage könnten Autoren hier mit Rundum-Paketen unterstützen – von der kollaborativen Manuskripterstellung, über ein professionelle Publishing über Mediengrenzen hinweg bis hin zu neuen, innovativen Vermarktungsmodellen.

 

Google hält Leistungsschutzrecht für gaga

Der Google-Chefjustiziar für Nord- und Osteuropa hat in zehn Punkten aufgeschrieben, warum das Leistungsschutzrecht, das Verlage fordern, gaga und gefährlich ist. Ein langer Text. Hier der Versuch, die einzelnen Abschnitte zu übersetzen zusammenzufassen.

1. Ihr Verlage übertreibt, was Eure Verluste durch das Netz angeht.

2. Ihr müsst Euren Kram ja nicht ins Netz stellen. Aber wenn Ihr es tut, „ist es geradezu abwegig, dafür andere zur Kasse zu bitten“.

3. Es gibt keine Gesetzeslücke sondern höchstens ein paar Probleme bei der Verfolgung von Kopisten.

4. Ein Leistungsschutzrecht käme alle viel zu teuer zu stehen, alles würde mehr kosten.

5. Eure schönen Texte wären weg und nicht im Netz mehr zu finden.

6. Ein Leistungsschutzrecht hilft Journalisten und Journalismus nicht, es macht nur Konzerne reicher.

7. Ein Leistungsschutzrecht braucht Reichweite, damit es Geld bringt. Mehr Reichweite kostenloser Inhalte aber verschlimmert nur Euer Problem, dass Ihr damit nichts verdient.
(Den Punkt verstehe ich nicht, denn wirkt das Recht, werden viele die Inhalte eben nicht mehr nehmen, damit sie nicht zahlen müssen. Die Reichweite sinkt. Entweder hat der Chefjustiziar hier einen Denkfehler gemacht, oder ich bin zu blöd.)

8. Ihr macht Eure Kunden zu Kriminellen.

9. Die einzigen, die wirklich etwas daran verdienen werden, sind die Anwälte, die das seltsame Recht klären und ausfechten müssen.

10. Es nutzt nur den Konzernen. (Hatten wir schon bei 6., steht aber noch mal da.) Und Ihr verbaut Euch die Chance auf neue Geschäftsmodelle – die Ihr dringend braucht.

 

Du sollst dir kein Bildnis machen (vom FBI)

Über einen bizarren Urheberrechtsstreit zwischen dem FBI und Wikipedia berichtet die New York Times: Demnach will die amerikanische Bundespolizei, dass die Enzyklopädie aus dem Artikel über das FBI das Siegel der Behörde löscht. Das dürfe nicht einfach so wiedergeben werden, beklagten sich die Beamten in einem Brief an die Wikimedia-Foundation.

Dummerweise haben sie aber das Gesetz, das dies regelt, falsch verstanden oder falsch ausgelegt, glauben die Anwälte der Foundation. Denn zwar heißt es in Abschnitt 18, Paragraph 701 des United States Code:

Whoever manufactures, sells, or possesses any badge, identification card, or other insignia, of the design prescribed by the head of any department or agency of the United States (…) except as authorized under regulations made pursuant to law, shall be fined under this title or imprisoned not more than six months, or both.

Das aber bedeute, meint der Wikimediaanwalt, dass man sich mit dem Siegel nicht ausweisen dürfe, wenn man kein FBI-Beamter sei und dass man kein Geld damit verdienen dürfe. Jedoch dürfe man es selbstverständlich benutzen, um auf einer gemeinnützigen Seite das FBI darzustellen.

Die von der NYT zitierte Antwort des FBI darauf klingt irgendwie lahm: solche Briefe würden „von Zeit zu Zeit“ verschickt. Wenn man will, kann man als Entschuldigung verstehen.

via.

 

Der amerikanische Militär-Industrie-Komplex in Infografiken

Die Washington Post hat eine Vielzahl von Geheim-Behörden unter die Lupe genommen. Sie veröffentlicht die Ergebnisse jetzt in einem umfangreichen Open-Data-Dossier namens „Top Secret America“.

Das Dossier entspricht den Anforderungen der „Open-Data-Bewegung“, das heißt, die Daten sind so aufbereitet, dass nun Leser mit ihnen umfassende, eigene Analysen anstellen können. Begleitend dazu erschien eine Reihe von Artikeln, die sich unter anderem der geheimnisumwitterten Spionagebehörde NSA widmen.

„Top Secret America“ untersucht insgesamt 45 Behörden und 1931 Unternehmen, die mit als „topsecret“ klassifizierten Aufgaben betraut sind. Diese Behörden haben seit den Terroranschlägen vom 11. September 2001 besonders viel Geld vom Staat erhalten. Mit ihren rund 854.000 Mitarbeitern bilden sie den Kern des amerikanischen Militär-Industrie-Komplexes.

In einer nahezu heroischen Anstrengung recherchierten die Journalisten über zwei Jahre sämtliche verfügbare Daten, analysierten Tausende von Dokumente und unterzogen sie verschiedenen Analysen. So überprüften sie zum Beispiel, welche Behörde mit welchen Unternehmen zu welchen Themen arbeitet. Die Leser können sich über eine grafische Übersichtskarte einzelne Dossiers etwa zur Waffenindustrie erschließen oder die Aktivitäten einzelner Behörden untersuchen. Alles ist miteinander verlinkt.

Auch die Ortsinformationen der Behörden und Unternehmen haben die Journalisten ausgewertet und auf GoogleMaps verortet. Man erkennt die historischen Schwerpunkte des Militär-Industrie-Komplexes in Virginia, Florida, Colorado und Kalifornien.

Das beeindruckende Projekt der Washington Post ist das Ergebnis langjähriger Arbeit. Ein Vorteil der Tageszeitung war dabei sicherlich, dass sie seit dem Watergate-Skandal bereits über ein mehrköpfiges Team für investigative Recherchen verfügt. Mit „Top Secret America“ hat sich die Post nun auch ein Referenzprojekt in Sachen investigativer Datenjournalismus geschaffen.

Man darf gespannt sein, welche weiteren Geschichten jetzt die Datenanalysen der Leser liefern.

 

Merkel klagt, Internet mache Politikern das Leben schwer

Politikvermittlung ist ein schwieriges Geschäft geworden. In einem aktuellen Interview mit der Bunten klagt Bundeskanzlerin Angela Merkel über die „Vielzahl der Informationskanäle“, insbesondere das Internet. Dadurch würde „es immer schwieriger, ein Gesamtmeinungsbild zu erkennen“. Durch den „sehr großen technischen Wandel“ sei es schwerer geworden, „alle Menschen, alle Generationen zu erreichen, denn diese nutzen die einzelnen Medien mittlerweile sehr unterschiedlich“. Und vor allem die jungen Menschen informierten sich ausschließlich über das Internet, „und das oft sehr punktuell“.

Ohne das dumpfe Unbehagen genauer benannt zu haben, wird die Kanzlerin damit all jenen aus der Seele sprechen, die das Internet insgeheim für die Übel der Welt verantwortlich machen. Aber ausgerechnet die Erreichbarkeit ist das Problem des Netzes eigentlich nicht. Und auch die Politiker versuchen in letzter Zeit ja nun permanent, sich in der Überwindung ihres Technikskeptizismus gegenseitig zu überbieten. Und junge Bürger mit Blogs, über Twitter und Video-Kolumnen anzusprechen.

Dass die Öffentlichkeit immer fragmentierter und kleinteiliger wird, ist als Diagnose indes so richtig wie banal. Spontan fielen einem da aber eher positive Attribute ein: Freiheit und Auswahl zum Beispiel. Sicher war es früher einfacher für Politiker, ihre Botschaften zu übermitteln, wenn ohnehin alle gezwungen waren, die gleichen drei Fernsehprogramme zu gucken. Natürlich gehen Gemeinsamkeiten verloren, wenn man nicht mehr davon ausgehen kann, dass der Kollege gestern die gleiche Sonntag-Abend-Unterhaltung im Fernsehen genossen hat. Aber was bringt es, über etwas zu klagen, von dem man genauso sicher weiß, dass man es keinesfalls zurückhaben möchte?

Sehnsucht schwingt mit, wenn sich die Kanzlerin an früher erinnert. „Es ging alles ruhiger zu. Die Menschen unterhielten sich morgens am Arbeitsplatz über die gleichen Themen.“ Auch das ist nicht die Schuld des Internets. Sondern liegt wohl eher daran, dass die Leute keine Zeit mehr haben, es ruhig angehen zu lassen. Weil sie sonst mit ihrer Arbeit nicht fertig würden. Aber wer weiß, vielleicht arbeitet ja ausgerechnet Merkels Koalition an einem Gesetz, dass die 30-Stunden-Woche zur Pflicht erhebt.  An mangelndem Gesprächsstoff am Arbeitsplatz würde das ganz sicher nicht scheitern.

Für die Politik besteht die Beschleunigung ganz zweifellos darin, dass es die Kommentare zu ihren Taten und Worten eben nicht erst in den Abendnachrichten oder in der Presse am nächsten Morgen zu lesen gibt. Sondern dass die ersten Einschätzungen bereits kurz nach oder sogar noch während der Veranstaltung im Netz verbreitet werden. Wo sie auch noch bis in alle Ewigkeit festgehalten bleiben.

Zudem fallen die Kommentare im Netz oft noch viel unmittelbarer, auch emotionaler aus, wie Studien etwa zu den Unterschieden zwischen Blogs und traditionellen Medien belegen. Wer früher verärgert vor sich hin grummelnd die Zeitung zuschlagen musste, oder sich nur lauthals vom Fernsehsessel aus beklagen durfte, kann seinen Frust heute mit wenigen Klicks im Netz verarbeiten. Das ist nicht immer angenehm, weder für Politiker, noch für alle anderen Berufsgruppen, die im Netz bewertet und kommentiert werden können. Dadurch wird ja aber nur der Ärger offenbart, den es früher genauso gab, – nur eben nicht so transparent.

Und ein „Gesamtmeinungsbild“ gab es auch früher nicht. Was sollte das überhaupt sein? Waren früher etwa alle einer Meinung? Nein, divergierende Meinungen wurden früher höchstens weniger wahr genommen und sind jetzt eben sichtbarer.

Im Grunde muss das Internet hier also wieder dafür herhalten, dass ganz andere Dinge falsch laufen. Und dass die Welt sich weiterentwickelt und damit komplizierter wird, ist eine wiederkehrende Klage. Angeblich war früher ja sogar das Wetter besser. Und wie es heißt, viel weniger unberechenbar.

 

Traffic der „Times“ bricht um zwei Drittel ein

Vor noch nicht einmal einem Monat hat die Times für ihren Online-Auftritt auf Paid Content umgestellt. Seitdem muss man sich im Netz registrieren und für ihre Artikel bezahlen. Dadurch hat die Seite 90 Prozent* ihrer Online-Leserschaft verloren, wie heute im Guardian zu lesen ist.

Von 150.000 Lesern, die sich zuvor registriert hatten, entschieden sich schließlich nur noch etwa 15.000 dafür, für die Inhalte zu zahlen. Das zeigt sich auch in den Besucherzahlen. Im März besuchten im Schnitt 1,2 Millionen Leser die Seite, aktuell sind es den Analysen des Guardian nach nur noch 195.000.

Die Zahlen scheinen die Verantwortlichen indes nicht zu überraschen, die Verluste waren einkalkuliert. Außerdem sei den Berechnungen von Dan Sabbagh zufolge – er ist der ehemalige Medien-Korrespondent der Times – ein typischer Times-Print Leser „mindestens 2,5 Mal so wertvoll“ wie ein durchschnittlicher Online-Leser.

Falls die 15.000 zahlenden Leser jeweils zwei Pfund pro Woche in das Angebot investieren, würde die Times in etwa 120.000 Pfund pro Monat einnehmen – zusätzlich zu den Einnahmen aus dem Printgeschäft.

Eine interessante Rechnung. Fragt sich, ob sie aufgeht und damit die Verluste aus den geringeren Werbeeinnahmen auf der Seite ausgeglichen werden können.

* Update vom 21.07.2010: Zahlreiche andere Medien verweisen abweichend vom Bericht des Guardian auf einen Einbruch von lediglich 66 Prozent. Sie beziehen sich damit auf eine etwas ältere Studie, über die auch der Guardian zuvor berichtet hat.

 

ARD und ZDF müssen ihre Archive löschen

Was macht ein Redakteur einer Online-Redaktion der ARD? Schöne Artikel schreiben, könnte man meinen.

Falsch, erzählt Stefan Niggemeier in seinem interessanten Artikel auf den Medienseiten der FAZ. – Er löscht sie!

Tatsächlich sind derzeit viele Mitarbeiter der öffentlich-rechtlichen Rundfunkanstalten damit beschäftigt, eine Klausel des Zwölften Rundfunkstaatsvertrag umzusetzen. Sie ist dazu geschaffen worden, die Tätigkeiten von ARD und ZDF im Netz zu beschränken. Damit die gebührenfinanzierten Sender den privaten Medien online nicht zu viel Wasser abgraben.

Deshalb dürfen einige ihrer Angebote künftig gar nicht mehr im Netz auftauchen, oder müssen jetzt gelöscht werden. Anderen wiederum wird nur noch eine begrenzte Verweildauer zugestanden. Ein wahnsinniger, bürokratischer Aufwand ist die Folge. Die Bewertungskriterien, ob und wie lange ein Text im Netz bleiben darf, sind komplex bis undurchschaubar.

Zum Teil müssen die Sender auch neue Systeme einführen, damit sie Online-Angebote schon bei ihrer Erstellung mit einem Löschdatum versehen können. Das ganze soll bis Ende August umgesetzt sein. „Ich werde von Rundfunkgebühren dafür bezahlt, mit Rundfunkgebühren erstellte Inhalte zu löschen“, zitiert Niggemeier einen verantwortlichen Redakteur.

Niggemeier benennt das Paradox: „Dabei sind sich die Online-Leute einig, dass die Idee einer begrenzten Vorhaltezeit dem Medium Internet widerspricht. Eigentlich ist es ein einziges, unaufhörlich wachsendes Archiv.“

„Ob die privaten Konkurrenten von ARD und ZDF im Internet, die mit den Vorgaben im Rundfunkstaatsvertrag besser vor der gebührenfinanzierten Konkurrenz geschützt werden sollen, vom Entfernen der älteren öffentlich-rechtlichen Inhalte profitieren, ist ebenso zweifelhaft wie die Frage, ob gerade diese Art der Beschränkung öffentlich-rechtlicher Aktivitäten im Netz sinnvoll ist“, schreibt er. „Es ist ein Kompromiss, der eigentlich niemanden glücklich machen kann – Ausdruck der Unfähigkeit der Medienpolitiker, sich auf klare Vorgaben über das zu einigen, was ARD und ZDF erlaubt sein soll und was nicht.“

Seltsam, dass sich dagegen so wenig Widerstand erhebt. Das liegt vielleicht auch daran, dass viele Zeitungs-Macher und private Sender, relevante Wärter der Öffentlichen Meinung also, die gebührenfinanzierte Konkurrenz lieber heute als morgen in noch viel, viel engere Grenzen verweisen würden. Oder, noch besser: Das Prinzip GEZ gerne auch auf ihre eigenen Medieninhalte übertragen sähen.