Lesezeichen
 

Datenprojekt macht die versteckten Milliarden der EU sichtbar

Die Europäische Union ist ein Monstrum. Hunderte Behörden hat sie, Tausende Gremien und mindestens zehntausend unterschiedliche Normen für das Gewicht von Bananen, für die Wärmedämmungen von Hausfassaden oder für Schallschutzbestimmungen von Schwerlastzügen. Neben diesen ungezählten Verordnungen und Richtlinien gibt es mindestens ebenso viele Förderprogramme und Subventionstöpfe.

So jedenfalls die allgemeine Wahrnehmung. Die ist nicht ganz falsch, wie der Strukturfonds zeigt, eines der wichtigsten Instrumente europäischer Planungs- und Steuerungspolitik. Allein der Strukturfonds setzt sich aus fünf Unterfonds zusammen, die so attraktive Titel tragen wie Regionalfonds EFRE inklusive Interreg IV oder Landwirtschaftsfonds ELER inklusive Leader. So etwas kann durchaus von der näheren Beschäftigung abschrecken. Doch beträgt das Gesamtbudget des Strukturfonds mehr als 45 Milliarden Euro. Das ist zu gewaltig, als dass Datenjournalisten diesen Fonds ignorieren sollten.

Was sie natürlich auch nicht tun. So arbeitet Celainn Barr an einem Projekt, dass eben jenen Strukturfonds systematisch untersuchbar macht. Barr arbeitet unter anderem für die britische Non-Profit-Organisation Bureau of Investigative Journalism in London. Als Teil eines Teams des Bureau of Investigative Journalism entwickelte sie das Werkzeug in Kooperation mit der Financial Times.

Eine der eher unerfreulicheren Erkenntnisse: Der Missbrauch von EU-Geldern durch die italienische ‘Ndrangheta ist keine Seltenheit. Millionen gingen an sie. Überhaupt gibt es gelegentlich seltsame Empfänger von europäischen Fördergeldern, beispielsweise die Konzerne Coca-Cola, British American Tobacco und IBM. Andere Projekte, die durchaus sinnvoll erscheinen, wurde wie eine spanische Meerwasser-Entsalzungsanlage gefördert und gebaut, aber nie in Betrieb genommen.

Die EU-Kommission begrüßte das Projekt. Kommissar Johannes Hahn erklärte, die Untersuchung sei ein Beitrag zur öffentlichen Debatte über die europäische Förderpolitik. Zum Thema ungewollte Förderung der Mafia äußerte er sich nicht.

 

Giftiges Geld

Die Lage bleibt diffus: Die Eurokrise dominiert zwar weiterhin die Schlagzeilen, aber die tatsächlichen Konturen der Krise sind oft nur für Fachleute erkennbar. Denn neben Griechenland, dessen Staatsschulden das Land zu erdrücken drohen, sind mittlerweile auch zahlreiche europäische Banken von der Krise betroffen.

So wurde heute bekannt, dass die belgisch-französische Bank Dexia zerschlagen wird. Der belgische Staat wird 100 Prozent des belgischen Anteils der Bank erwerben. Eine weitere Episode in der langen Geschichte vergemeinschafteter Schulden. Denn auch in Belgien rettet auf diese Art und Weise der Steuerzahler das marodierte Geldhaus. Um die Dimension der Dexia-Krise zu veranschaulichen, hatten die Kollegen der französische Zeitung Libération schon vor Tagen eine Infografik veröffentlicht, die die Streubreite der sogenannten toxischen Papiere der Dexia in Frankreich darlegt. Auf der interaktiven Landkarte wird offenkundig, wie bedrohlich die Lage für die Städte und Kommunen jenseits des Rheins werden könnte. Denn die Großbank Dexia ist der größte Kreditgeber für Kommunen und Städte. Sie könnte der Infarkt der Dexia teuer zu stehen kommen, da das Ausmaß der flächendeckenden Kontaminierung durch giftiges Geld atemberaubend ist.

 

„Viele hadern noch mit der Idee Open Data“

Der Begriff Open Data hat eine steile Karriere hinter sich. Vor wenigen Jahren konnten höchstens Insider etwas mit der verheißungsvollen Begriffskombination aus „offen“ und „Daten“ anfangen. Heute sieht das anders aus. Die Bereitstellung von Daten, die beispielsweise von öffentlichen Stellen erhoben wurden, könnte zu neuen Anwendungen führen. Der vielfach geforderte „maschinenlesbare“ Staat würde transparenter und bürgerfreundlicher. So wären zum Beispiel Anwendungen denkbar, die Geldflüsse aus Haushaltsmitteln veranschaulichen.

Aus diesen Gründen interessieren sich auch mittlerweile Kommunen und Unternehmen für das Feld. Selbst in den aktuellen Wahlkämpfen taucht das Thema an der Peripherie auf. Aber wo steht die noch immer junge Open-Data-Bewegung? Welche Perspektiven bieten sich ihr? Und was sind ihre größten Herausforderungen, gerade in Deutschland? Das sind die Themen eines Interviews mit Lorenz Matzat. Seit Oktober 2010 schrieb er im Open-Data-Blog. Jetzt zieht er Bilanz. Denn Lorenz Matzat geht von Bord. Neue Projekte stehen auf seiner Agenda.

Das Interview führte Markus Heidmeier, Autor des Leaks-Blogs hier auf ZEIT ONLINE. Nach dem Abgang von Matzat werden das Leaks-Blog und das Open-Data-Blog im Data-Blog vereint. In ihm wird es künftig um das gesamte Spektrum gehen – von Open Data bis Datenjournalismus.

Markus Heidmeier: Springen wir mal ein paar Jahre zurück. Wie bist Du eigentlich mit dem Thema Open-Data und Datenjournalismus in Berührung gekommen?

Lorenz Matzat: Mit einigen Kollegen habe ich 2009 das Projekt wahlversprechen.info umgesetzt. Eine Plattform, auf der die Zuverlässigkeit von Wahlkampfaussagen beobachtet werden kann, Stichwort Crowdsourcing. In dem Zusammenhang verfolgten wir Barack Obamas Wahlkampf in den USA bei dem die Themen Open Data und Open Government eine Rolle spielten. Ende 2009 gründeten wir dann den Verein Open-Data-Network. Zu diesem Zeitpunkt stieß ich dann auch auf das Datablog des Guardian, das seit Frühjahr 2009 läuft.

Heidmeier: Welche Bedeutung hast Du dem anfangs beigemessen, beziehungsweise welche Erfolgschancen hast Du anfangs für Open-Data Konzepte gesehen? Welche Erwartungen waren mit der Bewegung am Anfang verknüpft?

Matzat: Es war naive Euphorie dabei. Es war alles noch sehr unkonkret und abstrakt. Ein Punkt war aber bereits klar zu erkennen: Hier steckt ein enormes gesellschaftliches, mediales aber auch unternehmerisches Potential. Endlich lässt sich mal etwas Sinnvolles mit dem Internet anfangen jenseits von Shopping und schnellem Informationsaustausch.

Weiter„„Viele hadern noch mit der Idee Open Data““

 

Datenjournalismus ist eine große Chance

msnbc hurricane tracker
Der Hurricane-Tracker von MSNBC dokumentiert jeden Sturm in Echtzeit

Seit vergangenem Jahr ist weitläufig bekannt: Onlinejournalismus kann mit großen Datensätzen eine neue Form der Berichterstattung leisten – Stichwort WikiLeaks. Der so genannte Datenjournalismus oder data-driven-journalism hat nützliche Erzählmethoden hervorgebracht. Der umstrittene Julian Assange spricht auch von „wissenschaftlichen Journalismus“, der sich ausschließlich an der Faktenlage sowie den vorliegenden Daten orientiert und die Meinung sowie Wertung des Autors gänzlich zurücktreten lässt. Und schon 2006 legte der programmierende Journalist Adrian Holovaty aus den USA dar, warum sich Nachrichtenseiten im Netz angesichts der wachsenden Datenmenge fundamental ändern sollten.

Jüngst war zu beobachten, wie sinnvoll Datenjournalismus auch in der tagesaktuellen Berichterstattung sein kann: Während der Hurrikan Irene drohte, New York mit voller Wucht zu treffen, boten einige Onlinemedien in den USA interaktive Visualisierungen an. Diese beruhten auf Open Data der US-Wetterbehörde und boten die Möglichkeit, den voraussichtlichen Weg des Hurrikans vorzuzeichnen. Siehe etwa die New York Times (NYT) oder MSNBC (die jeden Sturm verfolgen). Darüber hinaus bot die NYT eine interaktive Karte mit den Evakuierungszonen und zeigte die Folgen des Sturms für die Region.

Weiter„Datenjournalismus ist eine große Chance“

 

Finanzspritze für Datenjournalismus

Scraper Wiki Frontpage
ScraperWiki erhält 280.000 Dollar Förderung durch die Knight Foundation

Vergangenen Mittwoch sind in den USA die Gewinner der Knight News Challenge bekanntgegeben worden. Der Wettbewerb der amerikanischen Knight Foundation fand zum fünften und letzten Mal statt. Unter den Preisträgern sind einige Datenprojekte, die sowohl unter dem Aspekt Open Data als auch unter dem des Datenjournalismus vielversprechend sind. Ein Überblick über fünf der insgeamt 16 Gewinner, auf die sich 4,7 Millionen Dollar Fördergelder aufteilen.

DocumentCloud, das bereits 2009 die Knight News Challenge gewann, erhält ein weiteres Mal Geld. Zahlreiche amerikanische Zeitungen nutzen das System bereits, das einerseits Dokumente automatisch nach bereits im Netz vorhanden Informationen durchsucht. Und andererseits das Organisieren von Dokumenten innerhalb einer Redaktion ermöglicht und deren Veröffentlichung erlaubt (hier z.B. das Geburtszertifikat von Barack Obama). Mit der zweiten Förderung in Höhe von 320.000 Dollar will das Projekt aus dem Umfeld der New York Times ermöglichen, dass Leser einer Zeitung an Dokumenten mitarbeiten können. Das System also als Plattform für Crowdsourcing dienen kann.

Weiter„Finanzspritze für Datenjournalismus“

 

Daten sind der Treibstoff des Journalismus

screenshot texas tribunde
Online-Zeitung Texas Tribune: Viele Besucher kommen wegen der Datenanwendungen

Daten sind ein Rohstoff. Diese Einsicht ist ein geflügeltes Wort, spätestens seit der Werbefachmann Michael Palmer 2006 schrieb: „Daten sind das neue Öl.“ Palmer postulierte im Bild dieser Metapher, dass unbearbeitete Daten wertlos seien. Erst wenn sie bearbeitet würden, entstünden aus ihnen nützliche Produkte, so wie aus Öl Plastik, Dünger oder Benzin gemacht wird.

Im gleichen Jahr schrieb der amerikanische Journalist und Programmierer Adrian Holovaty einen wegweisenden Text mit dem Titel „A fundamental way newspaper sites need to change„.  Seiner Meinung nach sollten sich Zeitungen und andere Medien nicht nur auf Geschichten konzentrieren. Sie sollten viel mehr Informationen unter dem Aspekt betrachten, wie ihr Inhalt sich in strukturierter Form, also in Datenbanken, ablegen lässt. Dann, so Holovaty, könnte aus Geschichten auf Dauer ein Mehrwert abgeschöpft werden. Denn solche strukturierten Informationen können mit anderen Datenbanken verknüpft und automatisiert abgerufen werden. Und mit ihnen können wiederum publizistische Angebote angereichert werden – aufbereitete Daten als Dünger des medialen Feldes.

Weiter„Daten sind der Treibstoff des Journalismus“

 

Influence Networks – Masse macht Einfluss

screenshot influence network
Das Angebot speist sich auch aus der umfrangreichen Datenbank Freebase

Soeben ist Influence Networks gestartet, ein Recherchewerkzeug, um weltweit Beziehungen aufzuzeigen, etwa zwischen Politikern und der Wirtschaft. Wie gesichert die Informationen sind, kann der User bestimmen. Von „Gerücht“ bis „vertrauenswürdig“ reicht die auswählbare Palette der Informationen. Neben Transparency International und dem Projekt OBSWeb der Uni Metz hat auch ZEIT ONLINE die Entwicklung des Angebots mit unterstützt.

Umgesetzt wurde es von der Datenjournalismusagentur OWNI aus Frankreich. Deren Mitarbeiter Nicolas Kayser-Bril sagt: „Alle grundlegenden Informationen entnehmen wir der großen Datenbank Freebase.“ In dieser sind knapp zwei Millionen Menschen eingetragen und sehr viele Industrieuternehmen und Verbände. „Was wir ermöglichen“, sagt Kayser-Brill, „ist den Grad und die Art der Beziehungen zwischen den dort eingetragenen Personen und Firmen sowie Verbänden zu dokumentieren.“

Influence Networks befindet sich noch in einem frühen Stadium. Wirklich viele Verbindungen sind derzeit nicht zu finden. Zum Auftakt hat OWNI sich auf den französischen Atomenergiekonzer Areva und dessen Urangeschäfte in Finnland konzentriert. Wer also nach „Areva“ sucht, erkennt schnell, wie die Plattform funktioniert und was sie leisten kann.

Weiter„Influence Networks – Masse macht Einfluss“

 

BBC schließt „Backstage“ – wegen des großen Erfolges

ebook opendata bbc
Zum Abschluss erschien ein Buch: Hacking the BBC

Ein fünfjähriges Experiment ist zu Ende gegangen. Anfang des Jahres schloss die BBC den Vorhang für ihr Projekt Backstage BBC. Der Blick hinter die Kulissen hat etliche Projekte und Ideen rund um Open Data des britischen öffentlich-rechtlichen Senders hervorgebracht. Eine Retrospektive liegt nun in Form eines kostenlosen eBooks vor.

BBC Backstage war als Sandkasten gedacht, um Ideen rund um die digitale Verarbeitung von Informationen zu testen. So sind etliche Visualisierungen, Services und Schnittstellen entstanden. Dass nun Schluss ist, hat nicht zuletzt mit dem Erfolg des Projektes zu tun. Viele Ideen sind schlicht zur Norm geworden. Vor drei Jahren war es noch eine Innovation, automatisch die neuesten Nachrichten an Twitter schicken zu lassen – heute ist es für die meisten Websites selbstverständlich.

Weiter„BBC schließt „Backstage“ – wegen des großen Erfolges“

 

Informationen zu Dioxin sind gut versteckt

Wie so oft entpuppt sich ein vermeintlich kleiner Vorfall nur als Spitze eines Eisbergs: Was mit einigen Bauernhöfen begann, ist inzwischen ein landesweiter Dioxin-Skandal . Trotzdem ist der Versuch, offene Daten zu diesem Themenkomplex zu finden, nahezu vergeblich.

Dabei wäre es im Fall des mit Dioxin verseuchten Futters von großem Interesse, eine Liste aller betroffenen Betriebe zu bekommen. Für Journalisten, NGO, Vereine oder Verbraucher könnten solche automatisch zu verarbeitenen Informationen hilfreich sein. Etwa um Karten zu erstellen und Zusammenhänge zu verstehen.

Die Frage nach so einer Liste der über 4000 Betriebe wurde offensichtlich auch oft an das Bundesamt für Verbraucherschutz und Lebensmittelsicherheit gestellt. Von dort wird auf die Zuständigkeit der Länder verwiesen. Auf den jeweiligen Websites der Landesministerien könnte ggf. so eine Liste zu finden sein, heißt es.

Weiter„Informationen zu Dioxin sind gut versteckt“

 

Wie Wikileaks inzwischen Transparenz versteht

First Intelligence Agency
Wikileaks Selbstverständnis: Nachrichtendienst der Menschen

Die Geschichte müsse neu geschrieben werde, hatte Wikileaks vor Veröffentlichung der „Embassy Files“ per Twitter verkündet. Eine hohe Erwartung. Das zentrale Problem bei der Bewertung: Wikileaks will mit den 251.000 Dokumenten vorerst nur ein Drittel der Depeschen veröffentlichen, die der Organistation insgesamt vorliegen. Die 500.000 weiteren Schriftstücke würden erst im Laufe der kommenden Monate frei gegeben, heißt es auf der dazugehörigen Website cablegate.wikileaks.org.

Das Themenspektrum und der geographische Bezug seien so weit gefasst, dass man nur mit einer schrittweisen Veröffentlichung dem Material gerecht würde. Als Vorgeschmack verwies Wikileaks auf ein Diagramm, das die Verteilung der wohl insgesamt knapp 770.000 Depeschen in 100 Themen einsortiert. Hier finden die sich als Liste.

Weiter„Wie Wikileaks inzwischen Transparenz versteht“