Lesezeichen
 

Datenjournalisten aller Länder, vereinigt euch!

Denn es gibt einen reizvollen Preis zu gewinnen, den ersten Data Journalism Award (DJA) ausgerufen vom Global Editors Network, dem European Journalism Center und Google. Insgesamt stehen 45.000 Euro zur Verfügung, die in drei Preiskategorien vergeben werden.

Arbeiten aus dem Bereich des datengetriebenen investigativen Journalismus (Data-driven investigative journalism) werden ebenso ausgezeichnet wie Datenvisualisierungen und datenbasierte Erzählformen (Data visualisation & storytelling) und datengestützte Anwendungen für das Netz und mobile Endgeräte (Data-driven applications (mobile or web)). Projekte können sowohl von Redaktionen und Projektteams, Freelancern als auch von Medienunternehmen und Non-Profit-Organisationen eingereicht werden. Deadline ist der 10. April, 23,59 Uhr. Wichtig ist, dass die eingereichten Projekte zwischen dem 11. April 2011 und dem 10. April 2012 publiziert worden sein müssen. In der Jury sitzt neben Paul Steiger von ProPublica und Peter Barron von Google unter anderem auch Wolfgang Blau, Chefredakteur von Zeit Online.

Alle Projekte müssen übrigens in englischer Sprache verfasst sein oder zumindest mit einer umfangreichen Transkription der Inhalte und einer Übersetzung aller weiteren Elemente (z.B. Benennung von Grafiken oder anderen Visualisierungselementen) versehen werden.

Das sollten jedoch alles keine Hinderungsgründe sein, auch einige der ambitionierten deutschsprachigen Projekte der letzten Monate einzureichen. Deshalb an dieser Stelle auch die Frage an die Leserinnen und Leser von Zeit Online: Welche Projekte halten Sie für preiswürdig? Wir werden einige von ihnen, soweit noch nicht geschehen, hier vorstellen.

 

 

 

 

Zeitgeschichte in Daten. Wie sich Großbritannien unter der Iron Lady veränderte

Erinnerungen sind nie authentisch. Erfolge und Niederlagen erfahren mit wachsendem zeitlichen Abstand erstaunliche Transformationen. Aus einer unappetitlichen Schmach wird im Laufe der Jahre und Jahrzehnte gerne ein heroisches Scheitern. Aus banalem Tagwerk wird schon mal ein hart errungener Triumph. Kein Wunder also, dass auch politische Retrospektiven immer umstritten bleiben. War Helmuth Schmidt tatsächlich der hellsichtigste unter den deutschen Nachkriegsregierungschefs? Oder ragt nicht doch der ungeliebte Wiedervereinigungskanzler Helmut Kohl für alle Zeiten uneinholbar heraus – Trotz aller Spendenaffären und Familientragödien? Die Deutung derartiger Leistungen wird immer von politischen, sozialen und gegenwartsgeprägten Standpunkten aus vorgenommen – und bleiben dementsprechend Interpretationen.

Es verwundert also nicht, dass die Bemühungen wachsen, auch die Analyse zeitgeschichtlicher Ereignisse mit Hilfe von Datenkorrelationen und Datenanalysen zu objektivieren. Wir sprachen an dieser Stelle beispielsweise schon von neuen Formen der Geschichtsschreibung unter dem Schlagwort Data Driven History. Gemeint ist der Versuch, durch die Auswertung historischer Datensätze etablierte Geschichtsbilder zu vervollständigen oder im besten Fall sogar zu erschüttern. Die Auswertungsstrategien erstrecken sich dabei von der Korrelation der Zahl historischer Fundstellen oder Umfang der Funde prähistorischer Artefakte bis hin zu sprachanalytischen Auswertungen von Begriffskonjunkturen in Dokumenten zurückliegender Jahrhunderte.

Das Data Blog des britischen Guardian hat sich nun mit den Spuren beschäftigt, die die Iron Lady, Margaret Thatcher, im Vereinigten Königreich hinterließ. Das Ganze ist natürlich streng datenbasiert. Anlass ist der Start des Kinofilms The Iron Lady, in dem Meryl Streep die mittlerweile an Demenz erkrankte Margaret Thatcher darstellt. Die Produktion hatte in Großbritannien für heftige Debatten gesorgt. Neben der Frage, ob es angemessen ist, ein sogennantes Biopic, also die Verfilmung einer Lebensgeschichte, über Sein und Wirken einer lebende Persönlichkeit zu produzieren, die sich vermutlich nicht mehr mit all ihren geistigen Kräften zur Wehr setzen kann, ist die Bewertung zurückliegender politischer Leistungen Kern der gesellschaftlichen Auseinandersetzung.

Keine Wunder also, dass der Guardian bemüht war, die Leistungen der ehemaligen Regierungschefin mit neuen Methoden sichtbar zu machen beziehungsweise in Frage zu stellen. In einer ganzen Reihe von Infografiken zeigt das Data Blog Team des Guardian, wie sich Großbritannien in der Regierungszeit Margaret Thatchers veränderte. Zu den interessantesten Visualisierungen der Vergangenheit gehören dabei unter anderem Darstellungen der Heirats- und Scheidungsquote. Während die Zahl der Trennungen mehr oder weniger konstant blieb, weist die Statistik einen eindeutigen Rückgang an Hochzeiten auf. Das führt umgehend zu weiteren Fragen: Ist der Regress auf die abschreckende Wirkung der Eisernen Lady auf heiratswillige Männer zurückzuführen oder einfach nur eine Erscheinung der zunehmend unverbindlicheren Lebensstile in einer post- oder sogar postpostmodernen Gesellschaft?

 

 

Die Arbeitslosenquote wiederum besitzt eine ganz eigene Dramaturgie. In den knapp eineinhalb Jahrzehnten ihrer Regentschaft konnte Margaret Thatcher alles vorweisen, was man Politikern vorwirft oder wofür man ihnen typischerweise dankt. Erst ging die Quote der Erwerbslosen dramatisch nach oben, dann wieder dramatisch nach unten. Bleibt also die Frage, wie groß das Verdienst beziehungsweise das Verschulden ist.

 

Ein eher wirres Bild zeigt die Visualisierung der Konjunkturdaten. Die Ausschläge sind stark. In beide Richtungen.

 

 

Die Preisentwicklung, insbesondere die Immobilienpreise, dagegen sprechen eine eindeutige Sprache. Ihr Anstieg ist steil, sehr steil. Nicht gerade das, was sich Mieter und Häuslebauer wünschen. Aber natürlich ideal für all jene, die schon Grund und Haus beziehungsweise Häuser besitzen.

 

 

Klar wird also anhand dieser Beispiele, das alles weiter unklar ist – trotz der Anschaulichkeit der Vergangenheit durch Datenvisualisierung. Die Bewertung politischer Leistungen ist weiter Interpretationssache. Jede Statistik, jede Infografik, jede Visualisierung ist nur soviel wert, wie der Kontext in dem sie auftaucht oder das Wissen, in dessen Licht der Betrachter sie einordnet. Die Wahrheit wird dauerhaft umstritten bleiben. Auch im Zeitalter von Big Data.

 

 

 

 

 

Neue Open-Data-Strategie: Öffentliche Goldmine. EU will schlafenden Schatz von 40 Milliarden Euro heben

Nein, er war nicht dabei. Diesmal jedenfalls nicht. Aber es ging ja auch nicht um so aufmerksamkeitsträchtige Themen wie den Schutz verfolgter Online-Dissidenten in totalitären Regimen. Kein Kampf für die Verfolgten dieser Erde. Keine Schlagzeilen als Retter in der Not. Kein mediales Greenwashing des talentierten Freiherrn zu Guttenberg. Es ging nur um spröde Daten. Die liegen nach Angaben der EU-Kommissarin für die Digitalstrategie des Staatenbundes, Neelie Kroes, in den umfangreichen Archiven und den gewaltigen Datenbanken der öffentlichen Verwaltungen der Europäischen Union. Dort warten sie nun geradezu darauf, von der Öffentlichkeit entdeckt zu werden. Die Rede ist von der Nutzung öffentlicher Daten als Goldmine. So betitelte das Ressort der EU-Kommissarin in dieser Woche die Ankündigung einer neuen Open-Data-Strategie der Europäischen Union.

Die mit dieser neuen Strategie verknüpften wirtschaftlichen Hoffnungen sind alles andere als bescheiden. Ein schlafender Schatz im Wert von 40 Milliarden Euro (in Zahlen: 40.000.000.000) soll den strapazierten Ökonomien des Kontinents neuen Schwung verpassen. Die Vorgehensweise orientiert sich unter anderem an Frankreich und Großbritannien, die seit einiger Zeit positive Erfahrungen mit dem Angebot eigener Open-Data-Portale machen. In Großbritannien ist data.gov.uk bereits seit Jahren öffentlich und auch data.gouv.fr erfreut sich in Frankreich eines regen Interesses. Aus drei Teilen besteht nun die Strategie der EU:

Erstens wird die Kommission mit gutem Beispiel vorangehen und der Öffentlichkeit ihre Informationsschätze kostenlos über ein neues Datenportal zugänglich machen. Zweitens werden überall in der EU gleiche Wettbewerbsbedingungen in Bezug auf offene Daten geschaffen. Drittens werden für diese neuen Maßnahmen 100 Millionen Euro bereitgestellt, die im Zeitraum 2011–2013 für Forschungsarbeiten zu besseren Technologien im Umgang mit diesen Daten ausgegeben werden sollen.

Gerade die Forschung und Entwicklung neuer Technologien dürfte entscheidend für den Erfolg der Strategie sein. Zuletzt hatte Viktor Meyer-Schönberger auf die großen Defizite der Open-Data-Bewegung hingewiesen (Link zum PDF der Meyer Schönberger Studie: Participation and Power Intermediaries of Open Data; ein Interview dazu in Kürze). Seines Erachtens mangelt es vor allem an konzertierten Aktivitäten staatlicher und freier Akteure. Außerdem fehlen die Masterpläne, um wichtige Handlungsfelder systematisch zu erschließen, und es müssten größere Anreize geschaffen werden, um innovative Projekte umzusetzen.

Nun kommt es zunächst darauf an, dass die spärlichen 100 Millionen Euro Entwicklungsbudget auf dem Weg zu den Entwicklerteams und Projektplanern in ganz Europa nicht in den Verwaltungen versickern. Es wäre nicht das erste Mal.

 

Daten und Orte. Die Berliner Ausgabe des internationalen Open Hackday beschäftigt sich mit Geodaten

„Die Koalition wird die Open-Data-Initiative des Landes fortsetzen und ausbauen. Dazu setzt sie sich für eine Prüfung der weitgehenden Offenlegung von öffentlichen Daten (z. B. Geoinformationsdaten) unter Wahrung des persönlichen Datenschutzes ein.“

Mit diesem Zitat aus dem Koalitionsvertrag zwischen SPD und CDU in Berlin lädt ein Artikel im Blog der Open Knowledge Foundation Deutschland zum morgigen Berliner Open Data Hackday ein. (Hier gibt es den Koalitionsvertrag übrigens als PDF). Der Berliner Hackday ist die deutsche Ausgabe des International Open Data Hackathon, der am 3. und 4. Dezember weltweit stattfindet.

Zentren des internationalen Hackathon sind unter anderem in Kanada und Brasilien, weil der Hackathon maßgeblich von dem im kanadischen Vancouver tätigen Open Data Aktivisten David Eaves und der brasilianischen Transparência Hacker Bewegung ins Leben gerufen wurde, sagt Daniel Dietrich. Er ist einer der führenden Köpfe der Open Knowledge Foundation Deutschland.

Nach dem es zuletzt vielfach Kritik an einem Erlahmen der Open Data Bewegung gegeben hatte, wird der weltweite Open Data Hackday zeigen, wie vital die Open-Data-Initiativen in vielen Ländern sind, so Dietrich weiter. Vorbilder des internationalen Open-Data-Events waren die erfolgreichen Music Hackdays der letzten Jahre.

Der Berliner Open-Data-Hackday soll vor allem Akteure der Szene versammeln. Denn aktuell ist nichts wichtiger, als die Kreativen immer wieder zu neuen Teams zusammenzuführen, um möglichst rasch weitere Anwendungen zu entwickeln, die die Relevanz und alltägliche Anwendbarkeit von Open Data zeigen (Der www.opendata-showroom.org liefert übrigens zahlreiche Beispiele bereits vorhandener Applikationen). Um dem Community-Building-Ereignis, so Dietrich, endlich auch eine klare Kontur zu geben, wird der Berliner Open Hackday in diesem Jahr auch ein Leitthema haben. Es geht um Open Data Anwendungen, die mit Geodaten arbeiten. Deshalb lädt die Open Knowledge Foundation auch wie folgt ein:

... zum Open Data Hackday am 03. und 04. Dezember 2011 in Berlin. Wir wollen jeweils den ganzen Tag von 10 Uhr – bis 19 Uhr hacken und uns dabei vor allem die Daten des FIS-Brokers anschauen. Diese können natürlich nach belieben mit anderen Datensätzen z.B. aus dem Berliner Datenportal daten.berlin.de oder dem Katalog für offene Daten www.offenedaten.de oder anderen Fundstellen kombiniert werden….

Im Berliner Stadtteil Kreuzberg wird ab morgen und am Sonntag ab 10 Uhr gehackt, was das Zeug hält. Wer Hackern schon immer mal bei der Arbeit zu sehen wollte oder eigene Fähigkeiten mit denen anderer verbinden möchte, sollte sich in den Hallen von Co-Up einfinden.

 

Bundesapps statt Staatstrojaner

Wie steht es eigentlich um die Nutzung offener Daten hierzulande? Nicht so gut, scheint es. Zumindest kann Eindruck gewinnen, wer man in den vergangenen Tagen die Stellungnahmen zahlreicher deutscher Open-Data-Experten las. Datenjournalist Lorenz Matzat, Vorgänger hier im Data Blog, warnte unlängst vor einer traurigen Zukunft. Zumindest zitierte er in einem Artikel Ende Oktober Chris Taggarts Vortrag auf dem Open Government Data Camp in Warschau. Der unzweideutige Titel: How the Open Data Community Died.

Auch Christiane Schulzki-Haddouti fragte kürzlich im ZDF Hyperland-Blog, ob Deutschland nicht längst alle Chancen verspielt hat, die Dynamik der Open-Data-Bewegung zu nutzen, beziehungsweise in klare Angebote für eine breite Nutzerschaft umzusetzen.

Vielleicht bietet der am Dienstag gestartete Wettbewerb Apps für Deutschland einen Lichtblick. Initiiert vom Open Data Network e.V. sowie der Open Knowledge Foundation und unter der Schirmherrschaft des Bundesinnenministeriums werden ab sofort Open-Data-Anwendungen gesucht.

Behörden in Deutschland erheben, speichern und verarbeiten viele interessante Daten. Dazu gehören Wetterdaten ebenso wie Informationen über die Luftqualität oder über die Verwendung der Steuergelder. Diese Daten sind von öffentlichem Interesse und bergen ein großes Potenzial für unsere Gesellschaft, weil sie Transparenz, Beteiligung, Innovationen und neue Dienstleistungen fördern.

Mit dem Wettbewerb „Apps für Deutschland“ laden wir Designer, Entwickler, Journalisten, Forscher und die breite Öffentlichkeit ein, Anwendungen zu schaffen, um diese Daten nutzbar zu machen.

Die Seite www.opendata-showroom.org liefert dazu die passenden Beispiele, um freie Programmierer und Open-Data-Aktivisten zu inspirieren. Natürlich ließ erste Kritik nicht lange auf sich warten. Allein der Titel Apps4Deutschland sei missverständlich, da Apps häufig eben nicht für Offenheit, sondern für geschlossene Systeme stehen würden.

In der Jury sitzen neben zahlreichen Wissenschaftlern und Repräsentanten der Initiatoren unter anderem auch Vertreter des Bitkom und der Wikimedia. Einsendeschluss für Ideen und Daten ist der 15. Dezemmber 2011, für Anwendungen der 1. Februar 2012.

Als Preise winken übrigens Geldprämien zwischen 500 und 4.000 Euro. Leider deutlich zu wenig, um starke Teams zu motivieren. Hoffentlich dokumentieren diese vielleicht für einzelne Entwickler ansprechenden, aber für ambitionierte Mannnschaften zu geringen Honorarere nicht den Versuch, das Thema Open Data mit Hilfe einer schmalbrüstigen Umarmugsstrategie bewusst klein zu halten. Aber immerhin, es gibt ihn, den bundesweiten Open-Data-Wettbewerb.

 

Weltkarte deutscher Entwicklungshilfe

Vor einigen Wochen fand in Berlin die Open Aid Data Konferenz statt. Die Möglichkeiten der Optimierung von Geldflüssen und Projektausrichtungen in der Entwicklungshilfe wurden diskutiert. Dass Open Data Entwicklungszusammenarbeit verbessern kann, ist seit Längerem klar. Jetzt hat der Open-Data-Aktivist und Macher des Hyperlocalportals Frankfurt-Gestalten.de, Christian Kreutz, für die Open Knowledge Foundation Germany eine Weltkarte deutscher Geldflüsse im Kontext Entwicklungszusammenarbeit erstellt.

Auf dem ZDF-Blog Hyperland erschien daraufhin ein Making-Of der Karte unter dem Titel „Wie ein Daten-Mashup die deutsche Entwicklungshilfe aufschlüsselt„. Hochspannend erklärt die Autorin Christiane Schulzki-Haddouti im Blogpost, wie die Daten erschlossen wurden, welche eklatanten Defizite es bei der Datenbereitstellung noch gibt und welche überraschenden Erkenntnisse das Mash-Up liefert.

Zum Beispiel fließen die mit Abstand meisten Mittel aus deutschen Fördertöpfen nicht nach Afrika, wie man vielleicht mit Blick auf dortige Hungerkatastrophen erwarten könnte, sondern in die sogenannten BRIC-Länder: Brasilien, Russland, Indien und China.

 

Adam, Eva und die anderen gehen steil

Im Jahr 1500 ist die Erfindung des Buchdrucks durch Johannes Gutenberg gerade einmal ein paar Jahrzehnte alt. Gott lebt noch. Die Erschaffung von durchsichtigem Glas wird in Norditalien erstmals möglich. Und zwischen Wien und Brüssel wird eine der frühesten ständigen europäischen Postlinien in Betrieb genommen. Die Weltbevölkerung betrug gerade einmal 500 Millionen Menschen.

Am Montag wurde der siebenmilliardste Mensch geboren. Das jedenfalls gibt UNFPA seit einigen Tagen zu Protokoll. UNFPA ist das United Nations Population Fund. Die BBC hat die dramatische Entwicklung der Weltbevölkerung in eine einfache, aber eindrucksvolle und interaktive Datenvisualisierung übersetzt. Die Entwicklung der Weltbevölkerung der letzten 500 Jahre. Eine steiler, sehr steiler Anstieg.

 

Grassroots in Wuppertal – Offene Verwaltungen auf Landes- und Kommunalebene

In Sachen Open Data gibt es mittlerweile einige spannende Projekte in Deutschland. Zuletzt ging das Open Data Portal Berlin an den Start. Aber wie steht es eigentlich um die Umsetzung der ambitionierten Open-Government-Ideen der vergangenen Jahre? Gerade auf Landes- und Kommunalebene? Am Samstag, 12. November 2011, findet dazu in Wuppertal-Barmen eine regionale Tagung statt. Offene Verwaltung, Open Data, Bürgerbeteiligung und Bürgerhaushalt sind die Themen.

Dass die Veranstaltung in NRW und dort in Wuppertal realisiert wird, ist kein Zufall. Die rot-grüne Minderheitsregierung hat Open Government explizit zu einem ihrer wichtigsten Themen in Sachen Transparenz und digitale Demokratie gemacht. Das Kompetenznetz Bürgerhaushalt in Wuppertal fordert zudem seit Längerem eine aktivere Einbindung der Bürger in kommunale Haushaltsfragen. Hier noch Details aus der Einladung: Weiter„Grassroots in Wuppertal – Offene Verwaltungen auf Landes- und Kommunalebene“

 

Datenprojekt macht die versteckten Milliarden der EU sichtbar

Die Europäische Union ist ein Monstrum. Hunderte Behörden hat sie, Tausende Gremien und mindestens zehntausend unterschiedliche Normen für das Gewicht von Bananen, für die Wärmedämmungen von Hausfassaden oder für Schallschutzbestimmungen von Schwerlastzügen. Neben diesen ungezählten Verordnungen und Richtlinien gibt es mindestens ebenso viele Förderprogramme und Subventionstöpfe.

So jedenfalls die allgemeine Wahrnehmung. Die ist nicht ganz falsch, wie der Strukturfonds zeigt, eines der wichtigsten Instrumente europäischer Planungs- und Steuerungspolitik. Allein der Strukturfonds setzt sich aus fünf Unterfonds zusammen, die so attraktive Titel tragen wie Regionalfonds EFRE inklusive Interreg IV oder Landwirtschaftsfonds ELER inklusive Leader. So etwas kann durchaus von der näheren Beschäftigung abschrecken. Doch beträgt das Gesamtbudget des Strukturfonds mehr als 45 Milliarden Euro. Das ist zu gewaltig, als dass Datenjournalisten diesen Fonds ignorieren sollten.

Was sie natürlich auch nicht tun. So arbeitet Celainn Barr an einem Projekt, dass eben jenen Strukturfonds systematisch untersuchbar macht. Barr arbeitet unter anderem für die britische Non-Profit-Organisation Bureau of Investigative Journalism in London. Als Teil eines Teams des Bureau of Investigative Journalism entwickelte sie das Werkzeug in Kooperation mit der Financial Times.

Eine der eher unerfreulicheren Erkenntnisse: Der Missbrauch von EU-Geldern durch die italienische ‘Ndrangheta ist keine Seltenheit. Millionen gingen an sie. Überhaupt gibt es gelegentlich seltsame Empfänger von europäischen Fördergeldern, beispielsweise die Konzerne Coca-Cola, British American Tobacco und IBM. Andere Projekte, die durchaus sinnvoll erscheinen, wurde wie eine spanische Meerwasser-Entsalzungsanlage gefördert und gebaut, aber nie in Betrieb genommen.

Die EU-Kommission begrüßte das Projekt. Kommissar Johannes Hahn erklärte, die Untersuchung sei ein Beitrag zur öffentlichen Debatte über die europäische Förderpolitik. Zum Thema ungewollte Förderung der Mafia äußerte er sich nicht.

 

Giftiges Geld

Die Lage bleibt diffus: Die Eurokrise dominiert zwar weiterhin die Schlagzeilen, aber die tatsächlichen Konturen der Krise sind oft nur für Fachleute erkennbar. Denn neben Griechenland, dessen Staatsschulden das Land zu erdrücken drohen, sind mittlerweile auch zahlreiche europäische Banken von der Krise betroffen.

So wurde heute bekannt, dass die belgisch-französische Bank Dexia zerschlagen wird. Der belgische Staat wird 100 Prozent des belgischen Anteils der Bank erwerben. Eine weitere Episode in der langen Geschichte vergemeinschafteter Schulden. Denn auch in Belgien rettet auf diese Art und Weise der Steuerzahler das marodierte Geldhaus. Um die Dimension der Dexia-Krise zu veranschaulichen, hatten die Kollegen der französische Zeitung Libération schon vor Tagen eine Infografik veröffentlicht, die die Streubreite der sogenannten toxischen Papiere der Dexia in Frankreich darlegt. Auf der interaktiven Landkarte wird offenkundig, wie bedrohlich die Lage für die Städte und Kommunen jenseits des Rheins werden könnte. Denn die Großbank Dexia ist der größte Kreditgeber für Kommunen und Städte. Sie könnte der Infarkt der Dexia teuer zu stehen kommen, da das Ausmaß der flächendeckenden Kontaminierung durch giftiges Geld atemberaubend ist.