Lesezeichen
 

Merkel klagt, Internet mache Politikern das Leben schwer

Politikvermittlung ist ein schwieriges Geschäft geworden. In einem aktuellen Interview mit der Bunten klagt Bundeskanzlerin Angela Merkel über die „Vielzahl der Informationskanäle“, insbesondere das Internet. Dadurch würde „es immer schwieriger, ein Gesamtmeinungsbild zu erkennen“. Durch den „sehr großen technischen Wandel“ sei es schwerer geworden, „alle Menschen, alle Generationen zu erreichen, denn diese nutzen die einzelnen Medien mittlerweile sehr unterschiedlich“. Und vor allem die jungen Menschen informierten sich ausschließlich über das Internet, „und das oft sehr punktuell“.

Ohne das dumpfe Unbehagen genauer benannt zu haben, wird die Kanzlerin damit all jenen aus der Seele sprechen, die das Internet insgeheim für die Übel der Welt verantwortlich machen. Aber ausgerechnet die Erreichbarkeit ist das Problem des Netzes eigentlich nicht. Und auch die Politiker versuchen in letzter Zeit ja nun permanent, sich in der Überwindung ihres Technikskeptizismus gegenseitig zu überbieten. Und junge Bürger mit Blogs, über Twitter und Video-Kolumnen anzusprechen.

Dass die Öffentlichkeit immer fragmentierter und kleinteiliger wird, ist als Diagnose indes so richtig wie banal. Spontan fielen einem da aber eher positive Attribute ein: Freiheit und Auswahl zum Beispiel. Sicher war es früher einfacher für Politiker, ihre Botschaften zu übermitteln, wenn ohnehin alle gezwungen waren, die gleichen drei Fernsehprogramme zu gucken. Natürlich gehen Gemeinsamkeiten verloren, wenn man nicht mehr davon ausgehen kann, dass der Kollege gestern die gleiche Sonntag-Abend-Unterhaltung im Fernsehen genossen hat. Aber was bringt es, über etwas zu klagen, von dem man genauso sicher weiß, dass man es keinesfalls zurückhaben möchte?

Sehnsucht schwingt mit, wenn sich die Kanzlerin an früher erinnert. „Es ging alles ruhiger zu. Die Menschen unterhielten sich morgens am Arbeitsplatz über die gleichen Themen.“ Auch das ist nicht die Schuld des Internets. Sondern liegt wohl eher daran, dass die Leute keine Zeit mehr haben, es ruhig angehen zu lassen. Weil sie sonst mit ihrer Arbeit nicht fertig würden. Aber wer weiß, vielleicht arbeitet ja ausgerechnet Merkels Koalition an einem Gesetz, dass die 30-Stunden-Woche zur Pflicht erhebt.  An mangelndem Gesprächsstoff am Arbeitsplatz würde das ganz sicher nicht scheitern.

Für die Politik besteht die Beschleunigung ganz zweifellos darin, dass es die Kommentare zu ihren Taten und Worten eben nicht erst in den Abendnachrichten oder in der Presse am nächsten Morgen zu lesen gibt. Sondern dass die ersten Einschätzungen bereits kurz nach oder sogar noch während der Veranstaltung im Netz verbreitet werden. Wo sie auch noch bis in alle Ewigkeit festgehalten bleiben.

Zudem fallen die Kommentare im Netz oft noch viel unmittelbarer, auch emotionaler aus, wie Studien etwa zu den Unterschieden zwischen Blogs und traditionellen Medien belegen. Wer früher verärgert vor sich hin grummelnd die Zeitung zuschlagen musste, oder sich nur lauthals vom Fernsehsessel aus beklagen durfte, kann seinen Frust heute mit wenigen Klicks im Netz verarbeiten. Das ist nicht immer angenehm, weder für Politiker, noch für alle anderen Berufsgruppen, die im Netz bewertet und kommentiert werden können. Dadurch wird ja aber nur der Ärger offenbart, den es früher genauso gab, – nur eben nicht so transparent.

Und ein „Gesamtmeinungsbild“ gab es auch früher nicht. Was sollte das überhaupt sein? Waren früher etwa alle einer Meinung? Nein, divergierende Meinungen wurden früher höchstens weniger wahr genommen und sind jetzt eben sichtbarer.

Im Grunde muss das Internet hier also wieder dafür herhalten, dass ganz andere Dinge falsch laufen. Und dass die Welt sich weiterentwickelt und damit komplizierter wird, ist eine wiederkehrende Klage. Angeblich war früher ja sogar das Wetter besser. Und wie es heißt, viel weniger unberechenbar.

 

Traffic der „Times“ bricht um zwei Drittel ein

Vor noch nicht einmal einem Monat hat die Times für ihren Online-Auftritt auf Paid Content umgestellt. Seitdem muss man sich im Netz registrieren und für ihre Artikel bezahlen. Dadurch hat die Seite 90 Prozent* ihrer Online-Leserschaft verloren, wie heute im Guardian zu lesen ist.

Von 150.000 Lesern, die sich zuvor registriert hatten, entschieden sich schließlich nur noch etwa 15.000 dafür, für die Inhalte zu zahlen. Das zeigt sich auch in den Besucherzahlen. Im März besuchten im Schnitt 1,2 Millionen Leser die Seite, aktuell sind es den Analysen des Guardian nach nur noch 195.000.

Die Zahlen scheinen die Verantwortlichen indes nicht zu überraschen, die Verluste waren einkalkuliert. Außerdem sei den Berechnungen von Dan Sabbagh zufolge – er ist der ehemalige Medien-Korrespondent der Times – ein typischer Times-Print Leser „mindestens 2,5 Mal so wertvoll“ wie ein durchschnittlicher Online-Leser.

Falls die 15.000 zahlenden Leser jeweils zwei Pfund pro Woche in das Angebot investieren, würde die Times in etwa 120.000 Pfund pro Monat einnehmen – zusätzlich zu den Einnahmen aus dem Printgeschäft.

Eine interessante Rechnung. Fragt sich, ob sie aufgeht und damit die Verluste aus den geringeren Werbeeinnahmen auf der Seite ausgeglichen werden können.

* Update vom 21.07.2010: Zahlreiche andere Medien verweisen abweichend vom Bericht des Guardian auf einen Einbruch von lediglich 66 Prozent. Sie beziehen sich damit auf eine etwas ältere Studie, über die auch der Guardian zuvor berichtet hat.

 

ARD und ZDF müssen ihre Archive löschen

Was macht ein Redakteur einer Online-Redaktion der ARD? Schöne Artikel schreiben, könnte man meinen.

Falsch, erzählt Stefan Niggemeier in seinem interessanten Artikel auf den Medienseiten der FAZ. – Er löscht sie!

Tatsächlich sind derzeit viele Mitarbeiter der öffentlich-rechtlichen Rundfunkanstalten damit beschäftigt, eine Klausel des Zwölften Rundfunkstaatsvertrag umzusetzen. Sie ist dazu geschaffen worden, die Tätigkeiten von ARD und ZDF im Netz zu beschränken. Damit die gebührenfinanzierten Sender den privaten Medien online nicht zu viel Wasser abgraben.

Deshalb dürfen einige ihrer Angebote künftig gar nicht mehr im Netz auftauchen, oder müssen jetzt gelöscht werden. Anderen wiederum wird nur noch eine begrenzte Verweildauer zugestanden. Ein wahnsinniger, bürokratischer Aufwand ist die Folge. Die Bewertungskriterien, ob und wie lange ein Text im Netz bleiben darf, sind komplex bis undurchschaubar.

Zum Teil müssen die Sender auch neue Systeme einführen, damit sie Online-Angebote schon bei ihrer Erstellung mit einem Löschdatum versehen können. Das ganze soll bis Ende August umgesetzt sein. „Ich werde von Rundfunkgebühren dafür bezahlt, mit Rundfunkgebühren erstellte Inhalte zu löschen“, zitiert Niggemeier einen verantwortlichen Redakteur.

Niggemeier benennt das Paradox: „Dabei sind sich die Online-Leute einig, dass die Idee einer begrenzten Vorhaltezeit dem Medium Internet widerspricht. Eigentlich ist es ein einziges, unaufhörlich wachsendes Archiv.“

„Ob die privaten Konkurrenten von ARD und ZDF im Internet, die mit den Vorgaben im Rundfunkstaatsvertrag besser vor der gebührenfinanzierten Konkurrenz geschützt werden sollen, vom Entfernen der älteren öffentlich-rechtlichen Inhalte profitieren, ist ebenso zweifelhaft wie die Frage, ob gerade diese Art der Beschränkung öffentlich-rechtlicher Aktivitäten im Netz sinnvoll ist“, schreibt er. „Es ist ein Kompromiss, der eigentlich niemanden glücklich machen kann – Ausdruck der Unfähigkeit der Medienpolitiker, sich auf klare Vorgaben über das zu einigen, was ARD und ZDF erlaubt sein soll und was nicht.“

Seltsam, dass sich dagegen so wenig Widerstand erhebt. Das liegt vielleicht auch daran, dass viele Zeitungs-Macher und private Sender, relevante Wärter der Öffentlichen Meinung also, die gebührenfinanzierte Konkurrenz lieber heute als morgen in noch viel, viel engere Grenzen verweisen würden. Oder, noch besser: Das Prinzip GEZ gerne auch auf ihre eigenen Medieninhalte übertragen sähen.

 

Wer anderen mit Inkasso droht, muss selber zahlen

Die Webseite Woot!, die jeden Tag ein anderes Produkt vertreibt, ist von Amazon aufgekauft worden. Das fand die Nachrichtenagentur Associated Press so interessant, dass sie dazu eine Meldung veröffentlichte.

Soweit, so normal. Wenn man sich dabei nicht an dem Originalposting vom Woot!-Geschäftsführer Matt Rutledge bedient hätte, das Woot! auf dem eigenen Blog veröffentlicht hatte. Und wenn man nicht zuvor so hart gegen Blogger vorgegangen wäre, die sich bei AP bedienten.

Denn nun hat Woot! eine Rechnung geschickt. Und 17 Dollar 50 von AP verlangt – entsprechend den von der Agentur bei Bloggern angesetzten Sätzen und den insgesamt 17 zitierten Worten. Natürlich nur ein Scherz. Doch mit ernstem Hintergrund: AP nämlich ermahnt seit einiger Zeit Blogger, vom Zitieren aus AP-Nachrichten doch bitteschön Abstand zu nehmen oder aber bei AP wenigstens vorher um Erlaubnis zu fragen. Ganz gleich, wie kurz die Zitate auch sein mögen.

Um das Procedere möglichst einfach zu handhaben, hatte AP sogar ein Formular ins Netz gestellt. Gegen eine geringe Gebühr konnte man dort die Lizenz zum Zitieren erwerben.

Woot! hat nun auf der Grundlage dieses Formulars und des AP-Preisindexes die geforderte Gebühr ermittelt.

Als Kompensation bot Woot! an, AP könne anstelle der Gebühr auch die auf der Woot!-Seite gerade angebotenen Kopfhöhrer kaufen – zwei Paar bitte. Mit recht scharfen Worten bat man allerdings, den Beleg über die beiden Kopfhörer noch bis zum Ende des Tages bei Woot! vorzuzeigen. „Wir gehören jetzt auch zu den großen Playern“, hieß es dazu. „Zwingt uns nicht, die Angelegenheit an ein Inkasso-Büro zu übergeben.“

Bei AP nahm man das weniger humorvoll. Das Blog TechCrunch zitiert aus einer Mail von AP Media Relation Chef Paul Kroford. Der darin die etwas lahme Entschuldigung anbringt, man habe auch schon selbst mit dem Woot!-Chef ein Interview geführt (wenn auch offensichtlich zu anderen Themen). Außerdem deutete er wohl an, dass die hauseigenen Reporter mit der Berichterstattung über das Öl-Loch derzeit ziemlich ausgelastet seien.

Was bei TechCrunch natürlich nur auf höhnische Kommentare trifft. „Hat er wirklich die Ölkarte ausgespielt? Ja hat er“, schreibt der Autor. Um dem Ganzen noch eins drauf zu setzen übernimmt TechCrunch dann noch eine AP-Meldung über das Öl-Leck im Golf. Das müsste ja eigentlich in Ordnung gehen, heißt es dazu. Schließlich hätte man ja darüber gesprochen.

 

Kleine Blogschau zur Scroll-Edition der Welt

Gestern hat die Welt Kompakt ihre „Scroll-Edition“ herausgebracht, die von Bloggern gestaltete Ausgabe ihrer kompakten Tageszeitung. Die Resonanz auf das Experiment fiel gemischt aus, längst nicht alle Blogger sind stolz auf die Arbeit ihrer beteiligten Kollegen. Hier ein Blick in eine kleine Blog-Presseschau:

„Das Experiment ist denke ich gelungen. Die Text(brocken) sind gut, wenn auch mehr einer (kleinen) Wochenzeitung gerecht, als einer Tageszeitung“, findet Thomas Gigold von Medienrauschen.

„Experiment gescheitert“ vermeldet indes Meetix. „Ich frage mich schon seit langer Zeit, wo viele Blogger die Arroganz hernehmen, Journalisten anzugreifen und sie zu verbessern, obwohl diese ihren Beruf von Grund auf gelernt haben und täglich einsetzen.“ Zwei gewichtige Kritikpunkte in dem Blogeintrag lauten: „News von gestern anstatt News von morgen“ und: „Altbekannte Themen neu verpackt“.

Auch das Blog Basic Thinking hält nicht hinter dem Berg mit Kritik, wenn auch zunächst nur unter Bauchschmerzen: „Es fällt mir nicht leicht, diese Zeilen zu schreiben. Zum einen bin ich niemand, der gerne etwas verreißt, wofür sich andere viel Mühe gegeben haben. Weniger nörgeln, mehr machen, ist eigentlich meine Devise“, schreibt der Autor. Und weiter: „Zum anderen diskreditiere ich damit meinen eigenen Berufsstand. Aber Wahrheit bleibt Wahrheit, und die muss gesagt werden.“ Und die lautet: Experiment grandios gescheitert. „Die Expedition hat der deutschen Webszene eher geschadet als genutzt.“

Basic Thinking ist nicht das einzige Blog, das sich vor allem über das besondere Format der Scroll-Editon wundert – ein Querformat nämlich: „Soll ausgerechnet das darauf hinweisen, dass es diesmal eine Internet-gerechte Zeitung ist? Aber wer bitte liest Texte auf diese Weise? Welches Blog hat ein solches Format?“ Insgesamt bleibt Basic Thinking das Layout „die ganze Ausgabe über ein Rätsel. Hat man etwa die Setzer auch nach Hause geschickt und die Blogger ein bisschen mit dem Redaktionssystem spielen lassen?“ Die Texte klebten an den Fotos und würden optisch nahezu davon überlagert.

Es gibt aber auch ein paar positive Gegenmeinungen, die finden: „Lässt sich gut lesen. Würde ich gerne öfter sehen.“

Immer wieder taucht der Kritikpunkt auf, dass der Nachrichtenpart der Blogger-Ausgabe viel zu schwach dahergekommen sei, und die Edition also nicht den Ansprüchen einer tagesaktuellen Zeitung gerecht werden könne. Medienrauschen  – insgesamt zufrieden mit der Textqualität – resümiert es so: „Blogger können mit Journalisten. Nur Leser mit dem Anspruch “Tageszeitung” können noch nicht so gut mit Bloggern …“ Oder wie Gerhard Kürner es ausdrückt: „Für 23 Blogger wurde die Produktion zur Lehrstunde über die Beschränkungen, denen eine gedruckte Tageszeitung unterworfen ist.“

Viele Beteiligte, überwiegend zufrieden mit ihrem Werk, schildern die Arbeit als eine Mischung aus Chaos und Spaß: „Die iPads flogen nur so durch die Gegend, während wir inmitten pulsierender Gehirne saßen und einmal mehr merkten, wie unterschiedlich die Bewohner des Netzes doch so sind und wie vielfältig ihre Intuitionen, Wünsche und Meinungen.“

Und sie gestehen: „War gar nicht so einfach.“

Andere sehen die Schuld für die schwachen Ergebnisse des Experiments eher bei den Strukturen und der mangelnden Gestaltungsfreiheit. Der Beitrag auf Turi2 etwa heißt: „Blogger mit begrenzter Macht.“

Immerhin ringt sich ein weiterer Beteiligter, Alex Kahl alias der Probefahrer, sogar ein paar nette Worte über Journalisten ab: „Eine Sache habe ich für meinen Teil in dem Experiment mal GANZ deutlich gelernt. Eine gehörige Portion Respekt und Demut vor dem Job des Journalisten insbesondere was die nachrichten angeht. Denn ich habe mich freiwillig für das News-Team gemeldet. (…) Hölle, war das ein Stress!“

Und die Autorin von Gesellschaft ist kein Trost hatte einen so tollen Tag mit den Journalisten und Blogger-Kollegen, dass sie großzügig „Watschn“ an die kritischen „Neidblogger“ verteilt: „Ich zieh Euch die Hand so heftig über Eure kleinen, hellen Wangen (weil ihr ja nie rausgeht, ihr kleinen Nerds), dass ihr noch drei Tage rote Striemen im Gesicht haben werdet.“

Deutlich nüchterner schließlich die Zusammenfassung vom Czyslansky-Blog: „Für einige Blogger mag das alles eine nette Redaktionsbesichtigung gewesen sein. (…) Die Springer-Redakteure haben mal einige ‚echte Blogger‘ gesehen und vielleicht feststellen können, dass auch diese des Schreibens durchaus mächtig sind. Weitere Lerneffekte aus diesem ‚Experiment‘ blieben und bleiben wohl aus.“

Dafür gibt es hier einen versöhnlichen Vorschlag zum Schluss: „Eine aktuelle Ausgabe, gemacht in Kooperation von klassischen Redakteuren UND Bloggern wäre wohl eine bessere Alternative gewesen.“

 

Aalglattes iPhone

Neue Technik schafft neue Herausforderungen. Das erlebt beispielsweise gerade die Telekom.

Denn zwar gibt es das neue iPhone4 bei ihr schon zu kaufen, doch wird es nicht wie sonst üblich in den Läden ausgestellt, damit es jeder anfassen und ausprobieren kann. Will man das Gerät sehen, muss man danach fragen, woraufhin ein Mitarbeiter es aus einer verschlossenen Schublade holt und die Nutzung argwöhnisch beäugt. Ein wenig wie bei der Erstpräsentation durch Apple, bei der neben jedem Gerät ein Aufpasser stand.

Der Grund ist banal: Die Rückseite des iPhones besteht wie der Bildschirm nun aus Alkali-Aluminosilikat-Glas, das besonders kratzfest und hart sein soll. Vor allem aber ist es glatt, sodass kein Kleber an ihm haftet. Zumindest nicht der der Telekom.

„Wir können es nicht sichern“, lautet die etwas verschämte Auskunft im T-Punkt, fragt man nach dem Grund der in der Schublade versteckten Geräte. Normalerweise werden die ausgestellten Geräte mit einem Kabel und einem Sicherheitsdongel verbunden, der bei Diebstahlsversuchen piept. Doch die Dongel lassen sich schlicht nicht ans iPhone4 kleben.

Man suche derzeit hastig nach einem besseren Kleber, heißt es. Solange bleiben die Geräte in der Schublade und Kunden können nur die alten 3GS befingern. Oder sich einen Flyer anschauen, auf dem lustigerweise steht: „So viel iPhone gab’s noch nie.“ Zu sehen zumindest gab es noch nie so wenig iPhone.

 

Über die Umerziehung von Google, Facebook, Apple & Co.

Apple, Google und Facebook müssen derzeit mühsam lernen, was europäischer Datenschutz bedeutet. Der Softwarekonzern Microsoft hat diese Erfahrung schon hinter sich und darf als gezähmt gelten. Wie groß aber sind die Chancen, dass dies auch mit den anderen gelingt?

Google befindet sich derzeit mitten im Umdenkprozess: Seine Mitarbeiter, die in der Regel aus den datenschutzbefreiten Zonen universitärer Forschung stammen, machen sich offenbar zu wenig Gedanken um „privacy policies“. Eindrücklich zeigte dies das Google-Buzz-Desaster. Nach monatelangen Tests unter zehntausenden Google-Mitarbeitern war niemandem aufgefallen, wie heftig Buzz die Privatsphäre verletzte. Auch die „Schlamperei“ mit den WLAN-Verkehrsdaten der Streetview-Autos, die wohl irgendwie „unabsichtlich“ zustande gekommen war, weist in die Richtung universitärer Sorglosigkeit.

Das könnte sich angesichts zahlreicher Rechtsverfahren nun ändern. Zwar lassen sich im amerikanische Recht mit „Unabsichtlichkeit“ Schadensersatzansprüche vermeiden. Doch das deutsche Datenschutz- und Strafrecht dürfte weniger kulant sein. Die zu erwartenden Bußgelder werden Google zwar kaum weh tun, doch der bereits ins Monströse gewachsene Image-Schaden umso mehr.

Ob Facebook wirklich umdenken wird, ist noch unklar. Es gab hier und da ein paar Verbesserungen und Straffungen, was die Kontrollmöglichkeiten der Nutzer anbelangt. Doch Facebooks FriendFinder werkelt nach wie vor fröhlich vor sich hin. In den nächsten Tagen wird sich herausstellen, ob der Hamburgische Datenschutzbeauftragte ein Bußgeldverfahren einleitet. Denn die geforderten Änderungswünsche hat das Unternehmen bislang trotzig ignoriert.

Schlampigkeit und Naivität kann man Apple nicht unterstellen. Die jüngste Änderung der Datenschutzrichtlinie, die eine Übermittlung der Standortdaten von iPhone-Nutzern an Partner und Lizenznehmer erlaubt, zielt auf das neue Kerngeschäft von Apple: Die mobile Werbung. Standortdaten peppen Nutzerinfos zu wertvollen Profilen auf – je mehr Daten gesammelt werden, desto leichter lassen sich die Nutzer geldwerten Zielgruppen zuordnen.  Angereichert mit demographischen Zahlen, Wetterdaten, Verkaufszahlen oder sehenswerte Örtlichkeiten lassen sich daraus neue Dienste schneidern, die darauf beruhen Verhalten vorherzusagen.

Zu schade, dass den Datenschützern gerade im Fall Apple die Luft ausgeht. Zwar wettern sie in der Presse gegen das Unternehmen, in der Praxis wird dies aber zunächst keine Folgen nach sich ziehen, da sich niemand des Falls angenommen hat. Offiziell ist im Moment keiner zuständig, weil Apple sein europäisches Geschäft von Irland und Luxemburg aus betreibt.

Aus dem Hause des Bundesdatenschützers Peter Schaar heißt es, dass ein Engagement derzeit nicht geplant sei. Der Hamburgische Landesdatenschützer Johannes Caspar, der schleswig-holsteinische Landesdatenschützer Thilo Weichert und der Berliner Datenschutzbeauftragte Alexander Dix winken wegen akuter Arbeitsüberlastung ab. Und auch sonst scheint sich niemand in die erste Reihe drängeln zu wollen. Die Hoffnung ruht nun auf den irischen und luxemburgischen Behörden.

Es scheint, als seien deutsche Datenschützer angesichts der zahlreichen Baustellen überfordert damit, Konzerne an die Leine zu nehmen. Umso wichtiger wäre es daher, dass die Politik Personal- und Sachmittel aufstockt und nun mehr als wohlfeile Worte aufbringt. Und dass die Unternehmen Datenschutz nicht als Last, sondern als Chance begreifen.

Dass sich eine solche Investition lohnt, kann Microsoft bestätigen. Von dort hört man in Sachen Datenschutzverstöße schon lange nichts mehr – kein Wunder: Das Unternehmen hat in den vergangenen Jahren einiges dazu gelernt, wenn es um Sicherheit und Datenschutz geht. Und Redmond hat dafür auch mit etlichen Datenschutz- und Forschungseinrichtungen kooperiert. Zu den letzten Aufregern gehörte das automatische Update, doch dessen wilde Seiten wurden vom Unabhängigen Landesdatenschutzzentrums in Schleswig-Holstein gezähmt und tragen nun gar ein vermarktbares Datenschutz-Gütesiegel. Es ist Zeit, dass auch Google, Facebook und Apple diese Lektion lernen.

 

Wahre und gefühlte Größe

Wenn man die allgemeine Berichterstattung über die drei dominierenden Technikunternehmen Microsoft, Apple und Google liest, bekommt man schnell den Eindruck, dass Apple und Google prosperierende Konzerne mit einem gigantischen Wachstum sind, während es nur noch eine Frage der Zeit sein kann, bis beim untergehenden Stern Microsoft die Förderbänder still stehen werden.

Doch während gefühlte Temparaturen tatsächlich oft mehr über das Wetter aussagen als real gemessene, ist das bei der Berichterstattung anders. Trotzdem werden in letzter Zeit im Zusammenhang mit diesen Firmen oft mehr Gefühle als handfeste Fakten berichtet.

Microsoft selbst würde das offensichtlich gern ändern und liefert im jüngsten Blogeintrag von Frank X. Shaw einige handfeste Zahlen. Ja, Shaw ist stellvertretender Kommunikations-Chef von Microsoft, somit zuständig dafür, dass das Unternehmen in Berichten gut aussieht. Und er schreibt, er habe natürlich seine Lieblingszahlen ausgesucht. Die Microsoft natürlich zufällig in besonders glänzendem Licht erscheinen lassen.

Doch relativiert seine kleine vergleichende Liste trotz allem ein wenig das Bild der computerisierten Welt.

Ein paar Beispiele:

7.1 Millionen
Voraussichtliche Zahl der verkauften iPad im Jahr 2010.

58 Millionen
Voraussichtliche Zahl der verkauften Netbooks im Jahr 2010.

355 Millionen
Voraussichtliche Zahl der verkauften PCs im Jahr 2010.

unter 10 Prozent
Anteil der Netbooks, auf denen Windows läuft, im Jahr 2008

96%
Anteil der Netbooks, auf denen Windows läuft, im Jahr 2009.

24%
Marktanteil der Linux Server im Jahr 2005

33%
Im Jahr 2005 vorhergesagter Anteil der Linux Server für 2007

21.2%
tatsächlicher Anteil der Linuxxserver im 4. Quartal 2009.

$6.5 Milliarden

Googles Gewinn für das Geschäftsjahr, das im Dezember 2009 endete

$8.2 Milliarden

Apples Gewinn für das Geschäftsjahr, das im September 2009 endete (in Shaws Blog steht 5.7 Milliarden, doch in der Quelle, die er selbst angibt, 8.2)

$14.5 Milliarden

Microsofts Gewinn für das Geschäftsjahr, das im Juni 2009 endete.

Mehr Zahlen hier.

 

Ein Innenminister ist kein Internetminister

Malte Spitz vermisst bei den 14 Thesen von Bundesinnenminister Thomas de Maizière die netzpolitische Weitsicht. Doch er übersieht eines dabei: Ein Innenminister ist ein Innenminister – er war Innenminister und wird Innenminister bleiben. Er ist aber kein Internetminister.

Will heißen: Ein Innenminister wird sich immer nur über binnen- oder verwaltungspolitische Perspektiven äußern. Über Forschung und Wissenschaft wird er nichts sagen, weil das die Kollegin im Forschungsministerium tun sollte. Über Wettbewerb wird er schweigen, weil es Aufgabe des Kollegen im Wirtschaftsministerium ist, darüber nachzudenken. Und für die Zivilgesellschaft ist ganz offiziell die Kollegin im Familienministerium zuständig.

Die Kleinstaaterei der deutschen Netzpolitik ist dem Ressortdenken geschuldet – und letztlich dem offenkundigen Desinteresse der Bundeskanzlerin, sich strategisch zu positionieren. Eine von Malte Spitz geforderte „Internet Governance unter Einbeziehung von Wissenschaft, Wirtschaft und Zivilgesellschaft“ wäre Beritt des Kanzleramts. Doch davor hat sich die Regierung schon unter rot-grüner Ägide gescheut – ebenso vor einer Bündelung der Netzpolitik in einer Hand.

Vermutlich wird Netzpolitik in Deutschland gerne deshalb auf eine Sicherheits- und Angsdebatte reduziert, weil die meisten der innovativen Regulierungsvorschläge zur Netzpolitik aus dem Innenministerium stammen. Warum ist aber von den Ressorts Wissenschaft, Arbeit und Familie („Zivilgesellschaft“) so wenig zu vernehmen?

Vor Äonen gab es einmal eine denkwürdig komplizierte Zusammenarbeit zwischen Forschungs- und Wirtschaftsministerium in Sachen Internetpolitik. Die endete damit, dass man alle laufenden Projekte, die irgendetwas mit Kommunikation und Information zu tun hatte, einfach in einem Aktionsprogramm zusammenschrieb und dieses als Vision Deutschlands für die Internetgesellschaft im 21. Jahrhundert vermarktete. Betrachtet man den jüngsten Bericht, der als „High-Tech-Strategie“ unter Federführung des Wirtschaftsministeriums erstellt wurde, lässt sich unschwer erkennen, dass sich an dieser Aggregationsmethode seither wenig verändert hat.

Natürlich gibt es noch einen IT-Gipfel, der so etwas wie eine nationale Strategie suggeriert – doch er zeichnet sich einfach dadurch aus, dass die Bundeskanzlerin anwesend ist.

Auffallend ist: Das Forschungsministerium agiert immer nur als eine Art Juniorpartner des  Wirtschaftsministeriums oder des Innenministeriums. Es steuert nur ein paar Aspekte bei – etwa zur Internetsicherheit oder zur digitalen Spaltung. Oder es fördert ein wenig Internettechnologien – nicht etwa das „Next Generation Internet„, sondern nur Future-Internet-Projekte, in dem sich dann kleinere Projekte tummeln dürfen. Um das deutsch-französische Suchmaschinenprojekt Quaero, das bereits nach wenigen Monaten still und leise zu einem Semantic-Web-Projekt namens Theseus eingedampft wurde, ist es überdies recht still geworden.

Ob darin ein politisches Versäumnis der Forschungsministerin liegt, sei dahinzustellen. Denn es gibt in Deutschland nur wenige Unternehmen und Wissenschaftler, die mit ihren Projekten auf internationaler Ebene einen Impact zeigen. In internationalen Standardisierungsgremien wie der Internet Engineering Task Force (IETF) spielen sie keine Rolle. Forscher, die dann doch irgendwie Einfluss haben, sind aber längst nicht mehr an hiesigen Hochschulen beschäftigt. Wohl deshalb fällt das Thema „Standardisierung“ unter die Ägide des Wirtschaftsministeriums, das dieses mehr schlecht als recht begleitet.

Auch in Fragen der Internetverwaltung – Stichwort ICANN und IANA – sind die Deutschen nicht wirklich präsent. Die Ministerien verfügen nicht einmal über eigenes Know-How – deshalb bitten sie externe Experten, sie dort zu vertreten. Das ist an sich nicht kritikwürdig – doch bedenkenswert ist es, dass dieses Engagement in der Wissenschaft, den Unternehmen und der Politik keinen Widerhall findet.

Malte Spitz hat überdies in seinem Rant gegen den Innenminister übersehen, dass auch das Justizministerium ein gewichtiger Player in der Netzpolitik ist. Die nächste Urheberrechtsnovelle wird erheblichen Einfluss auf die Entwicklung von frei verfügbaren Internetinhalten nehmen – Stichwort „Leistungsschutzrecht“. Aber ähnlich wie beim Innenministerium scheinen hier „Angst“ und „Blockade“ die Stichwortgeber zu sein. Netzpolitische Urheberrechtskonzepte wie die der Creative-Commons-Lizenzen oder die Vision eines European Copyright Codes diskutiert die Justizministerin genauso wenig wie der Innenminister sich an das Thema „Open Data“ in der Verwaltung herantraut. Dabei hätten diese gewaltiges Innovationspotenzial.

Schließlich engagiert sich seit jüngster Zeit nun auch das Verbraucherschutzministerium für den Verbraucher- und Datenschutz – in gewisser Konkurrenz zum Innenministerium. Dabei werden dann wiederum gerne  europäische Komponenten des Datenschutzes, die wie das „Safe Harbor Abkommen“  in internationalen Konflikten („Facebook“, „Google“) eine Rolle spielen, ignoriert.

Ein Grund für die deutsche Netzpolitik-Misere mag darin liegen, dass die wichtigen netzpolitischen Fragen längst auf europäischer Ebene diskutiert und entschieden werden. Die Frage der Netzneutralität beispielsweise wurde im letzten Jahr im Zuge des gigantischen Telekom-Pakets verhandelt. Doch in der deutschen Berichterstattung war darüber wenig zu lesen. Auch das Urheberrecht wird vermutlich auf europäischer Ebene seine wesentlichen Ausprägungen erfahren.

Dies wiederum mag auch ein Problem der deutschen Medienlandschaft sein. Dort scheint es irgendwie noch nicht angekommen zu sein, dass über 80 Prozent der politischen Entscheidungen in Brüssel gefällt werden. Entsprechend mau war auch die Reaktion auf die Ernennung von Neelie Kroes als Internet-Kommissarin – und ihre Präsentation einer „digitalen Agenda„. Mit dieser aber sollte sich nicht nur das Europäische Parlament auseinandersetzen, sondern auch eine informierte Öffentlichkeit.

Kurzum: Fehlt in der nationalen Politik das Pendant zu Neelie Kroes, bleibt alles klein klein und strategisch unausgegoren. Es ist daher höchste Zeit für eine konsolidierte Internetpolitik auf nationaler Ebene, die europäisch und international anschlussfähig ist.

P.S. Ansätze dafür gibt es schon – unter anderem auch bei Malte Spitz.

 

Richtungskämpfe im Urheberrecht

Die umstrittenste Neuerung  des Urheberrechts ist das von den Verlegern ersonnene so genannte „Leistungsschutzrecht“. Nebulös forderten die Verleger „geistige Wertschöpfung von Urhebern und Werkmittlern besser zu schützen“. Nachdem Bundesjustizministerin Sabine Leutheusser-Schnarrenberger in ihrer „Berliner Rede zum Urheberrecht“ grundsätzlich Zustimmung zu einem solchen neuen Recht signalisierte, präzisierten die Verlegerverbände VDZ und BDVZ in einem kürzlich dank netzpolitik.org veröffentlichten Eckpunktepapier ihre Vorstellungen:

Um einen effektiven Rechtsschutz zu gewährleisten, sollten nicht nur Teile des Presseerzeugnisses wie einzelne Beiträge, Vorspänne, Bilder und Grafiken geschützt werden. Schutzwürdig sind beispielsweise auch Überschriften, Sätze, Satzteile etc., soweit sie einer systematischen Vervielfältigung, Verbreitung oder öffentlichen Wiedergabe in Verbindung mit dem Titel des Presseerzeugnisses dienen.

Schutzwürdig sind also auch „Überschriften, Sätze, Satzteile, etc.“. Das „etc.“ steht wohl für noch mehr Spielraum in den laufenden Verhandlungen – nicht nur mit dem Ministerium, sondern auch mit den Verbänden, die die Urheber vertreten: die Journalistenverbände.

Eigentlich herrschte zwischen den Verleger- und den Journalistenverbänden DJV und dju/ver.di in Sachen Leistungsschutzrecht bereits eitel Sonnenschein. Hatten doch die Journalistenverbände nichts gegen ein solch neues Recht einzuwenden, wenn es denn nicht nur Verleger-, sondern auch die Urheberinteressen angemessen berücksichtigen würde.

Dieser Konsens ist nun akut bedroht: Denn dass nun auch Satzteile geschützt werden sollen, geht den Journalistenverbänden zu weit. Der DJV-Bundesvorsitzende Michael Konken sagt in einer jetzt veröffentlichten Erklärung:

„Nicht verhandelbar sind für uns die Zitierfreiheit oder sonstige Einschränkungen der Informationsfreiheit, die bereits heute als Schranken im Urheberrecht verankert sind.“

Wenn Verlage Satzteile aus Artikeln schützen lassen wollen, wollen sie verhindern, dass Nachrichteninhalte von anderen Medien übernommen werden. Das ominöse „etc.“ im Text des Eckpunktepapiers könnte daher vielleicht auch so etwas wie ein Schutz aktueller Nachrichten sein. In den USA gibt es den 1918 vom Supreme Court aufgestellten Rechtsgrundsatz der „Hot News“.

Die Hot-News-Doktrin soll einen Informationswert, der den Investitionen in eine Informationsbeschaffung entspricht, über ein zeitlich begrenztes Erstinformationsrecht schützen. Aufwändig recherchierte Geschichten sollen so zunächst nur über den Verlag zu beziehen sein, der sie zuerst veröffentlicht hat. Allerdings lässt die Hot-News-Doktrin offen, nach welchem Zeitraum eine Nachricht frei zitiert werden darf. Lange Zeit wurde der Rechtsgrundsatz daher nicht mehr vor Gericht bemüht. Erst in jüngster Zeit berief sich die Nachrichtenagentur „Dow Jones Newswires“ in einer Klage gegen den Online-Newsdienst Briefing.com wieder auf die Doktrin, der ganze Texte von Dow Jones kopiert hatte. Von Dow Jones ist auch bekannt, dass sie auch die im Kontext von „Fair Use“ legale Verwendung von Snippets abmahnt.

Eigentlich wäre es jetzt Zeit für die Journalistenverbände, den Konsens mit den Verlegerverbänden über ein Leistungsschutzrecht vollständig aufzukündigen, da diese offenbar absurde Forderungen aufstellen, um sich genügend Verhandlungsmasse zu verschaffen. Das Eckpunktepapier zeigt deutlich, dass die Stoßrichtung der Verleger das journalistische Arbeiten einschränken wird. Es kann nicht sein, dass das Schielen auf „gemeinsame Vergütungsregeln“ dazu führt, ein tendenziell innovationsfeindliches Recht einzuführen.

Das Urheberrecht braucht nämlich nicht noch mehr Schranken, sondern im Gegenteil mehr Lockerungen, damit die europäische nicht noch stärker gegenüber der amerikanischen Kreativwirtschaft benachteiligt wird. Diese profitiert seit langem von Fair-Use-Regelungen in Billionenhöhe. Vorschläge in die entgegengesetzte Richtung gibt es auch – nur wird über sie merkwürdigerweise nicht berichtet: So hat eine Gruppe europäischer Rechtswissenschaftler einen schlanken European Copyright Code entworfen. Er soll das angelsächsische Copyright mit dem kontinentaleuropäischen Urheberrecht versöhnen. Zentraler Baustein sind vier Gruppen von Schrankenbestimmungen sowie eine Art Öffnungsklausel mit Fair-Use-Charakter. Das wäre etwas, über das es sich lohnen würde nachzudenken – und zu verhandeln.