Die Internet-Enquête hat nach langem Ringen eine Plattform für den „18. Sachverständigen“ eingerichtet. Erwartet wurden „tausende“ engagierter Bürger. Angesichts einer hohen Alphabetisierungsrate sowie einer stetig kleiner werdenden „Digitalen Kluft“ ist das bei einer Bevölkerung von rund 80 Mio. Einwohnern ein eher bescheidenes Ziel. Tausend Sachverständige entsprächen nämlich einer groben Schätzung zufolge einer Beteiligungsrate von 0,0000125 Prozent der Bevölkerung. Eine realistische Zielvorgabe?
Die Resonanz ist bislang recht überschaubar: Gerade beim Thema Datenschutz ließe sich trefflich streiten. Doch tatsächlich meldeten sich nur ganz wenige. Zwei bis drei Stimmen konnten einzelne Themenvorschläge auf sich versammeln. Insgesamt lässt sich damit die Bilanz nach drei Wochen Diskussionszeit mit einem durchschnittlichen Blog vergleichen.
Das Thema „Datenschutz und Persönlichkeitsrechte“ fand insgesamt 101 Mitglieder, mit nur 46 Vorschlägen sowie mageren 48 Kommentaren (wobei ich selbst die Statistik heute morgen, also bereits nach dem offiziellen Redaktionsschluss, um 9 Kommentare geschönt habe). Es gibt im Moment also 1 Kommentar pro Vorschlag. So sieht keine Debatte aus.
Da liefen die drei Debatten zu Netzneutralität, Urheberrecht und Medienkompetenz noch ein wenig reger: Bei der Netzneutralität waren es 188 Mitglieder mit 9 Vorschlägen und 119Kommentaren, beim Urheberrecht283 Mitglieder, 25 Vorschläge, 256 Kommentare. Bei der Medienkompetenz waren es jedoch nur 148 Mitglieder mit 16 Vorschlägen und 92 Kommentaren.
Müßig festzustellen, dass – vorausgesetzt, die Mitglieder doppeln sich nicht – im Moment 720 Mitglieder aktiv sind – und dass dies einer Beteiligungsrate von 0,000009 Prozent entspräche. Das Ziel wurde damit knapp verfehlt. Wirklich irritierend ist es, dass das Engagement mit der Zeit offenbar nicht zu-, sondern abnimmt. Woran kann das liegen?
Ich vermute, dass sich auch Adhocracy wie jedes Blog, jedes Forum erst einmal etablieren muss. Und dass immer wieder Anstrengungen unternommen werden müssen, um die Aufmerksamkeit auf den „18. Sachverständigen“ zu ziehen. Am meisten helfen wohl Verlinkungen, die auf neue Beiträge verweisen. Twitter wäre ein ideales Mobilisierungsinstrument, ist jedoch nicht direkt eingebunden. Verweise der 17 anderen Sachverständigen sowie der Politiker auf die Plattform wären vermutlich auch hilfreich, um die Vernetzung zu verbessern.
Wenig Resonanz findet übrigens auch ein Positionspapier einer Arbeitsgruppe des Dialog Internet des Bundesfamilienministeriums zum eigentlich sehr umstrittenen Thema Jugendschutz, das seit dem 9. Mai im Etherpad-Format kommentierbar ist.
Keine Geschichte wie diese Twittermeldung machte wohl in letzter Zeit so viel Aufheben wie die des Todes von Osama Bin Laden in diesem kleinen Tweet von Keith Urbahn, dem Büroleiter des ehemaligen US-Verteidigungsministers Donald Rumsfeld. In binnen nur zwei Minuten gab es rund 300 Reaktionen auf diesen Tweet. Grund war wohl, dass Urbahn in seinem Followerkreis eine hohe Reputation genießt und die Nachricht für glaubhaft eingestuft wurde.
Die New Yorker Firma Social Flow hat 15 Mio. Tweets analysiert und die dabei entstandene Visualisierung zeigt, wie die Nachricht einschlug – und Brian Stelter, der Digitale-Medien-Reporter der New York Times, dabei keine unwesentliche Rolle spielte. Nicht unwesentlich dürfte die hohe Followerzahl von Stelter gewesen sein: Über 55.000. Die Protagonisten der klassischen Medien können also auch in den sozialen Medien eine wichtige Multiplikationsrolle spielen. (Bürgerjournalisten natürlich auch.)
Zuletzt sei aber auf die Beiträge in ProPublica verwiesen, in dem Marian Wang sich mit der Berichterstattung auseinanderstetzt: Bin Laden Reading Guide: How to Cut Through the Coverage gibt eine kritische Orientierungshilfe mit Links zu den aus Sicht der Autoren besten Beiträgen. Revisiting the Very First, Very Wrong Reports on Bin Laden’s Death hingegen spießt erste Falschberichte auf. Demnach soll Bin Laden in Afghanistan aufgegriffen worden sein bzw. das Ereignis soll bereits eine Woche zuvor stattgefunden haben bzw. eine Drohne soll ihn getötet haben. Gefunden habe ich die Beiträge über den lesenswerten Text von Krystian Woznicki in der Berliner Gazette, der sich mit der sensationslüsternen Art der Berichterstattung befasst.
Der Zwischenbericht für die Enquete-Kommission „Internet und digitale Gesellschaft“ wurde heute online veröffentlicht. Er befasst sich mit den vier Themen „Netzneutralität“, „Datenschutz“, „Urheberrecht“ und „Medienkompetenz“ – und ist lediglich 20 Seiten lang – inclusive Titel- und Leerseiten sowie Anhang.
Abgesehen davon, dass der 18. Experte, die Netzöffentlichkeit, sich mangels einer einsatzfähigen technischen Lösung bislang nicht ausreichend äußern konnte, fehlt das Wesentlichste: Die Schlussfolgerungen, die die Abgeordneten gezogen haben. Zu allen vier Themen heißt es, die Handlungsempfehlungen würden erst noch erarbeitet.
Aber auch der Bericht über das, was man bislang gelernt hat, ist äußerst dünn: Viele Worte über Vorgehensweise und Verfahren, wenig Worte über Inhalte. Zum Thema „Netzneutralität“ wird das, was man aus den Expertenanhörungen gelernt hat, sogar lapidar in dem Satz „Die gewonnenen Erkenntnisse fanden Eingang in die inhaltliche Arbeit der Projektgruppe.“ zusammengefasst.
Die Inhalte selbst werden so neutral wiedergegeben, dass kaum zu erkennen ist, wo es überhaupt etwas zu diskutieren gibt. Es ist also nur eine Art inhaltliche Gliederung des künftigen Berichts, die hier konfliktfrei referiert wird. Unterschiedliche Positionen werden nur formelhaft angedeutet: „Es zeichnet sich aber ab, dass es inhaltliche Punkte gibt, die grundsätzlich strittig bleiben. „
Das ist enttäuschend – vergleicht man dies mit dem Tempo, den die Ethikkommission zum Thema Atomkraft einschlagen will: Sie will innerhalb von drei Monaten zu Schlussfolgerungen kommen. Die Internet-Enquête hatte wesentlich mehr Zeit. Zu erwarten war eigentlich ein Abschluss der vier Themen. Wie die restlichen Themen noch ohne eine zeitliche Verlängerung zu bewältigen sind, ist fraglich.
P.S. Der Bundestag dokumentiert auf dieser Webseite die Resonanz auf die Enquête.
Vor einiger Zeit hatte ich überlegt, was geschieht, wenn Daten in der Cloud verschwinden. Google betreibt eine der größten Clouds weltweit und hat nun zur Reputations- und Vertrauenssteigerung ein Video produziert, das zeigt, wie sicher die Daten bei Google aufgehoben sind:
Empfohlener redaktioneller Inhalt
An dieser Stelle finden Sie externen Inhalt, der den Artikel ergänzt. Sie können sich externe Inhalte mit einem Klick anzeigen lassen und wieder ausblenden.
Das Video hebt vor allem auf die physische Sicherheit der Rechenzentren ab. Die Bilder des Festplattenstanzers sind wirklich recht nett.
Auch wird betont, dass die Daten auf den Festplatten verschlüsselt werden, damit sie nicht von Menschen eingesehen werden. Das suggeriert, dass die Daten vertraulich wären. Sind sie aber nicht. Google behält sich nämlich in seinen AGB vor, die Daten maschinell auszuwerten.
Die logische Sicherheit wird leider nicht weiter thematisiert – wie sicher ist schon die Verschlüsselung der SSL-Verbindungen, wenn das SSL-Zertifikatssystem somarode ist. Das betrifft aber nicht Google allein, sondern alle Cloudanbieter.
Wenn man nicht so genau weiß, ob es sich lohnt, einem Twitter-Account zu folgen, könnte man sich nun über den „Tweet Topic Explorer“ von Jeff Clark einzelne Themenfelder aufdröseln. Der Twitter-Themendurchforster zeigt dominante Begriffe farbig an, wobei die farbige Gruppierung stimmig erscheint. Hier das Farbmusterbild für @zeitonline_dig:
Ein Klick auf das kleine grüne Feld namens Facebook zeigt dann sämtliche Tweets an, die den Begriff enthalten:
Wie bei solchen Tools üblich erscheinen auch hier leider viele, viele Wörter ohne weiteren Hintersinn, doch es ist wie mit jeder Karte: Nicht jedes Detail ist relevant. Der Mehrwert besteht jedenfalls gegenüber der gewöhnlichen Twitter-Suche darin, dass man gezielt einen Account durchsuchen kann. Leider funktioniert das aber nicht für Listen.
Die Spiegel Netzwelt gibt übrigens gleich ein ganz anderes, etwas selbstreferenzielleres Bild:
Und das ist das Muster unseres Regierungssprechers:
Noch gibt es keine Konvertierungsprogramme, die das Personal beliebter Filme automatisch auf minimalste Pixelgröße bringen kann. Wenn es eines gäbe, würde das Ergebnis etwa für Star Trek (pardon: Raumschiff Enterprise) so aussehen:
Der geneigte Leser, der sich mit Pixelidentifikationen befassen möchte, wird rasch feststellen, dass sich hier gleich mehrere Generationen der Besatzung diverser Enterprise-Versionen wiederfinden. Data jedenfalls steht in vierter Reihe von oben an vierter Stelle von rechts.
Trexels heißt das Projekt passenderweise, für das John Martz 235 Charaktere verpixelt hat.
Japan ist drei Wochen nach der verheerenden Naturkatastrophe immer noch in den Schlagzeilen, doch die Aufmerksamkeit schwindet allmählich. Auch der Fokus verändert sich. Der Blick der professionellen Katastrophenkommunikation weicht einem, der in das private Leben der Menschen reicht.
So gibt es nun erste Berichte aus der Sperrzone rund um den havarierten Atomkomplex in Fukushima, die auf ruhige, aber umso erschütterndere Weise zeigen, wie die Katastrophe in den Alltag der Menschen einbrach.
Das Wall Street Journal veröffentlichte einen E-Mail-Austausch eines Tepco-Arbeiters mit einem Kollegen in Tokyo. In der ersten E-Mail schreibt er: „Wenn wir jetzt in der Hölle sind, können wir uns nur noch in Richtung Himmel schleppen.“ In einer weiteren Mail berichtet er, dass die meisten Kollegen durch die Katastrophe obdachlos geworden sind. Er selbst kämpfe seit dem Erdbeben ohne Pause und Schlaf gegen eine Verschlimmerung der Lage an. Während das Erdbeben eine Naturkatastrophe sei, könne Tepco jedoch für die Kontamination verantwortlich gemacht werden. Die Stimmung sei so angespannt, dass man nahe daran sei, Tepco auch die Schuld für das Erdbeben zu geben. Er schreibt: „Everyone is away from their hometown and does not know when they can return. We don’t know who to turn to and direct our concern and anger. This is the current reality.“
Ein APF News-Team begab sich vor wenigen Tagen in die 20-Kilometer-Sperrzone, um die Situation dort zu dokumentieren: Während das Navigationsgerät intakte Straßenzüge der Stadt Odakaku Minami Souma in der Präfektur Fukushima anzeigt und mit Normalität suggerierender Stimme durch das Chaos lotst, laufen zurückgelassene Hunde erwartungsvoll auf das Auto der Reporter zu. Eingesperrte Rinder stehen ohne Futter und
Wasser in ihrem Dreck. Ein älteres Ehepaar lebt noch in seinem Haus und kümmert sich um den greisen Vater – während die gesamte Nachbarschaft verwaist ist.
Man muss kein Japanisch verstehen, um die verzweifelte Lage erkennen zu können. APF News hat innerhalb der Sperrzone noch weitere Beiträge gedreht und daraus eine Art Foto-Reisetagebuch gemacht.
In Notunterkünften harren viele bei wenig Essen aus – während sich in Tokyo die Versorgungslage zu normalisieren scheint, berichtet eine Augenzeugin der Nachrichtenagentur Reuters.
Es gibt auch erste Heldengeschichten, die Mut machen. Wie die des Mannes, der sich mit einem Taucheranzug in die Flut aus Wasser, Wrackteilen und Müll stürzte, um seine Frau aus dem überfluteten Haus zu retten.
Und wie ein surrealer Traum muss der Viermaster Kaiwo Maru II im vom Tsunami größtenteils zerstörten Onahama-Hafen auf die erschöpften Tepco-Arbeiter wirken. Etwa fünf Kilometer vom Atomkraftwerk Fukushima-Daichi entfernt, bietet das Schiff eine Erholungsmöglichkeit – mit Essen, Bett und warmer Dusche. Die Kaiwo Maru II ist wie die Gorch Fock ein Segelschulschiff. Seit dem 21. März ist es in Onahama und soll dort so lange bleiben, bis das Essen an Bord zu Neige geht.
Stündlich, minütlich ändert sich in Japan jetzt die Lage. Für die Betroffenen sind Nachrichten über das Atomkraftwerk Fukushima-1 wichtig, noch wichtiger sind jedoch Informationen darüber, wo sie in ihrer Umgebung am schnellsten Hilfe finden. Wo gibt es Unterkunft, wo gibt es etwas zu essen?
In Japan wurde nun die Ushahidi-Plattform aufgesetzt, um den Katastrophenopfern zu helfen. Ushahidi wurde 2008 in Kenia entwickelt, um die Unruhen nach den Wahlen zu dokumentieren. Das Wort bedeutet „Zeuge“ und die Plattform hat es sich zur Aufgabe gemacht, lokale Entwicklungen zu dokumentieren. Jeder Bürger kann mit seinem Handy Informationen beitragen.
Die Daten werden im Crowdsourcing-Verfahren von vielen Freiwilligen erhoben und in verschiedene Kategorien wie etwa „Vertrauenswürdige Berichte“, „Zustand der Infrastruktur“, „Versorgung“, „Gefahrenzone“ oder „Andere Sprachen“ eingeordnet. Aber auch Daten des Wetterdienstes zu den neuesten Erdbeben werden automatisiert eingelesen. Das ist wichtig, da es nahezu ununterbrochen zu mehr oder weniger schweren Nachbeben kommt. So kann Hilfe geleistet – aber auch ein minutiöser Überblick über die Entwicklung behalten werden:
Die Ushahidi-Daten können wiederum über offene Schnittstellen in andere Dienste importiert werden, zum Beispiel in diese Krisenkarte des Geodatenunternehmens Esri, die die Daten in einem Mashup zusammen mit RSS-Nachrichtentickern, Erdbebendaten, Twitter- und Youtubeinformationen anzeigt. Die Youtube-Einträge sind allerdings in vielen Fällen nicht treffend lokalisiert, auch die Nachrichtenmeldungen passen noch nicht ganz. Dafür dass die Karte aber erst vor wenigen Tagen eingerichtet wurde, bietet sie eine gute Orientierung.
Ein Klick auf den Link, der in die oben ausgewählten Ushahidi-Meldung eingefügt wurde, führt beispielsweise weiter zu einem Mobildienst, der über die Einbindung von GoogleMaps anzeigt, an welchen Orten es Verpflegung und Unterkunft gibt:
Schon länger habe ich mir keine Google-Buzz-Posts mehr angesehen. Ein Grund war wohl dieser stete Strom an duplizierten Twitter- und Google-Reader-Meldungen, die ich anderenorts ja auch schon registiert habe. Heute fasste ich mir ein Herz und guckte wieder rein – und siehe da: Google hat die Einstellung zu jedem Beitrag so erweitert, dass man den Twitter- oder Google-Reader oder Blog-Stream der Nutzer gezielt ausblenden kann.
Das habe ich nun bei all denjenigen gemacht, denen ich über meinen RSS-Reader oder per Twitter bereits folge. Und siehe da: Von rund 400 Posts, die übrigens bis auf einen einzigen nicht kommentiert worden waren, blieben nur noch vier Beiträge übrig, die nicht automatisch eingestellt worden waren. Und von diesen vier Beiträgen war auch nur einer für kommentierungswürdig befunden worden. Hier der automatisch generierte Beitrag, der kommentiert wurde:
Wahrscheinlich war es keine gute Idee, Google Buzz mit einem Hauruck-Verfahren bei Millionen Nutzern einzuführen – und dann nicht sehr zügig mit verschiedenen Kontroll-Optionen nachzubessern. Wahrscheinlich bestand der größte Fehler darin, das Einspeisen von Feeds monatelang ungefiltert zuzulassen. Google Buzz eignet sich einfach nicht als Feed-Aggregator. Wer über 100 Nutzern folgt wie ich, wird nur wenig kommentieren wollen. Doch gerade in den Kommentaren liegt der Mehrwert von Google Buzz.
Die nahe liegende Frage ist natürlich: Ist Buzz tot? Und wird Google auch diesen Dienst wie schon Google Wave bald entsorgen? Immerhin brachte Techcrunch anlässlich des 1. Geburtstags von Google Buzz ein als Gag gedachtes Zitat des Business Angels Jason Calacanis. Calacanis hatte kurz nach Einführung des Dienstes gejubelt, dass Google nun das um den Faktor zehn bessere Facebook an den Start gebracht habe. Und dass Facebook damit die Hälfte seines Werts eingebüßt habe. Was für eine Fehleinschätzung.
Oder wird es ein Revival geben, wenn die Nutzer ihre Ausblend-Optionen entdecken? Ich glaube es eigentlich nicht. Denn das Social Web zerfleddert sich in zu viele Streams. Der RSS-Reader wird damit zur zentralen Plattform. Und der linkt nicht auf Google Buzz oder eine andere Aggregationsplattform, sondern auf den Originalbeitrag. Dass die Kommunikation damit an ihren Ursprung zurückkehrt, ist eigentlich nur richtig.
Google Buzz hätte damit nur noch als Konferenztool gute Chance. Entsprechend konfigurieren lässt es sich ja. Aber das wiederum ist etwas aufwändig. Wahrscheinlich ist es einfach so, dass Google seinen Fokus längst auf andere, auf dediziert lokale Dienste wie HotPot und Latitude gerichtet hat. Dort werden nämlich die lokalen Werbeeinnahmen sprudeln.