Lesezeichen
 

Weltkarte deutscher Entwicklungshilfe

Vor einigen Wochen fand in Berlin die Open Aid Data Konferenz statt. Die Möglichkeiten der Optimierung von Geldflüssen und Projektausrichtungen in der Entwicklungshilfe wurden diskutiert. Dass Open Data Entwicklungszusammenarbeit verbessern kann, ist seit Längerem klar. Jetzt hat der Open-Data-Aktivist und Macher des Hyperlocalportals Frankfurt-Gestalten.de, Christian Kreutz, für die Open Knowledge Foundation Germany eine Weltkarte deutscher Geldflüsse im Kontext Entwicklungszusammenarbeit erstellt.

Auf dem ZDF-Blog Hyperland erschien daraufhin ein Making-Of der Karte unter dem Titel „Wie ein Daten-Mashup die deutsche Entwicklungshilfe aufschlüsselt„. Hochspannend erklärt die Autorin Christiane Schulzki-Haddouti im Blogpost, wie die Daten erschlossen wurden, welche eklatanten Defizite es bei der Datenbereitstellung noch gibt und welche überraschenden Erkenntnisse das Mash-Up liefert.

Zum Beispiel fließen die mit Abstand meisten Mittel aus deutschen Fördertöpfen nicht nach Afrika, wie man vielleicht mit Blick auf dortige Hungerkatastrophen erwarten könnte, sondern in die sogenannten BRIC-Länder: Brasilien, Russland, Indien und China.

 

Adam, Eva und die anderen gehen steil

Im Jahr 1500 ist die Erfindung des Buchdrucks durch Johannes Gutenberg gerade einmal ein paar Jahrzehnte alt. Gott lebt noch. Die Erschaffung von durchsichtigem Glas wird in Norditalien erstmals möglich. Und zwischen Wien und Brüssel wird eine der frühesten ständigen europäischen Postlinien in Betrieb genommen. Die Weltbevölkerung betrug gerade einmal 500 Millionen Menschen.

Am Montag wurde der siebenmilliardste Mensch geboren. Das jedenfalls gibt UNFPA seit einigen Tagen zu Protokoll. UNFPA ist das United Nations Population Fund. Die BBC hat die dramatische Entwicklung der Weltbevölkerung in eine einfache, aber eindrucksvolle und interaktive Datenvisualisierung übersetzt. Die Entwicklung der Weltbevölkerung der letzten 500 Jahre. Eine steiler, sehr steiler Anstieg.

 

Grassroots in Wuppertal – Offene Verwaltungen auf Landes- und Kommunalebene

In Sachen Open Data gibt es mittlerweile einige spannende Projekte in Deutschland. Zuletzt ging das Open Data Portal Berlin an den Start. Aber wie steht es eigentlich um die Umsetzung der ambitionierten Open-Government-Ideen der vergangenen Jahre? Gerade auf Landes- und Kommunalebene? Am Samstag, 12. November 2011, findet dazu in Wuppertal-Barmen eine regionale Tagung statt. Offene Verwaltung, Open Data, Bürgerbeteiligung und Bürgerhaushalt sind die Themen.

Dass die Veranstaltung in NRW und dort in Wuppertal realisiert wird, ist kein Zufall. Die rot-grüne Minderheitsregierung hat Open Government explizit zu einem ihrer wichtigsten Themen in Sachen Transparenz und digitale Demokratie gemacht. Das Kompetenznetz Bürgerhaushalt in Wuppertal fordert zudem seit Längerem eine aktivere Einbindung der Bürger in kommunale Haushaltsfragen. Hier noch Details aus der Einladung: Weiter„Grassroots in Wuppertal – Offene Verwaltungen auf Landes- und Kommunalebene“

 

Datenprojekt macht die versteckten Milliarden der EU sichtbar

Die Europäische Union ist ein Monstrum. Hunderte Behörden hat sie, Tausende Gremien und mindestens zehntausend unterschiedliche Normen für das Gewicht von Bananen, für die Wärmedämmungen von Hausfassaden oder für Schallschutzbestimmungen von Schwerlastzügen. Neben diesen ungezählten Verordnungen und Richtlinien gibt es mindestens ebenso viele Förderprogramme und Subventionstöpfe.

So jedenfalls die allgemeine Wahrnehmung. Die ist nicht ganz falsch, wie der Strukturfonds zeigt, eines der wichtigsten Instrumente europäischer Planungs- und Steuerungspolitik. Allein der Strukturfonds setzt sich aus fünf Unterfonds zusammen, die so attraktive Titel tragen wie Regionalfonds EFRE inklusive Interreg IV oder Landwirtschaftsfonds ELER inklusive Leader. So etwas kann durchaus von der näheren Beschäftigung abschrecken. Doch beträgt das Gesamtbudget des Strukturfonds mehr als 45 Milliarden Euro. Das ist zu gewaltig, als dass Datenjournalisten diesen Fonds ignorieren sollten.

Was sie natürlich auch nicht tun. So arbeitet Celainn Barr an einem Projekt, dass eben jenen Strukturfonds systematisch untersuchbar macht. Barr arbeitet unter anderem für die britische Non-Profit-Organisation Bureau of Investigative Journalism in London. Als Teil eines Teams des Bureau of Investigative Journalism entwickelte sie das Werkzeug in Kooperation mit der Financial Times.

Eine der eher unerfreulicheren Erkenntnisse: Der Missbrauch von EU-Geldern durch die italienische ‘Ndrangheta ist keine Seltenheit. Millionen gingen an sie. Überhaupt gibt es gelegentlich seltsame Empfänger von europäischen Fördergeldern, beispielsweise die Konzerne Coca-Cola, British American Tobacco und IBM. Andere Projekte, die durchaus sinnvoll erscheinen, wurde wie eine spanische Meerwasser-Entsalzungsanlage gefördert und gebaut, aber nie in Betrieb genommen.

Die EU-Kommission begrüßte das Projekt. Kommissar Johannes Hahn erklärte, die Untersuchung sei ein Beitrag zur öffentlichen Debatte über die europäische Förderpolitik. Zum Thema ungewollte Förderung der Mafia äußerte er sich nicht.

 

Giftiges Geld

Die Lage bleibt diffus: Die Eurokrise dominiert zwar weiterhin die Schlagzeilen, aber die tatsächlichen Konturen der Krise sind oft nur für Fachleute erkennbar. Denn neben Griechenland, dessen Staatsschulden das Land zu erdrücken drohen, sind mittlerweile auch zahlreiche europäische Banken von der Krise betroffen.

So wurde heute bekannt, dass die belgisch-französische Bank Dexia zerschlagen wird. Der belgische Staat wird 100 Prozent des belgischen Anteils der Bank erwerben. Eine weitere Episode in der langen Geschichte vergemeinschafteter Schulden. Denn auch in Belgien rettet auf diese Art und Weise der Steuerzahler das marodierte Geldhaus. Um die Dimension der Dexia-Krise zu veranschaulichen, hatten die Kollegen der französische Zeitung Libération schon vor Tagen eine Infografik veröffentlicht, die die Streubreite der sogenannten toxischen Papiere der Dexia in Frankreich darlegt. Auf der interaktiven Landkarte wird offenkundig, wie bedrohlich die Lage für die Städte und Kommunen jenseits des Rheins werden könnte. Denn die Großbank Dexia ist der größte Kreditgeber für Kommunen und Städte. Sie könnte der Infarkt der Dexia teuer zu stehen kommen, da das Ausmaß der flächendeckenden Kontaminierung durch giftiges Geld atemberaubend ist.

 

Das Ende der Theorie: Data Driven History

Unter dem großspurigen Titel The End of Theory erklärte Wired-Herausgeber Chris Anderson vor einigen Jahren theoretische Konzepte kurzerhand für überflüssig. Die neuen, nun verfügbaren Datenmengen würden induktive Data-Mining-Verfahren ermöglichen, die nichts anderes wären als die Zukunft wissenschaftlicher Methodologie. Und zwar die einzige. Big Data, das Finden von Mustern in großen Datenbeständen, sei der „direkte Weg zur Wahrheit“.

Bislang ist Andersons Prognose nicht eingetreten, da auch große Datenmengen Modelle brauchen, mit deren Hilfe sie durchsucht werden können. Und da auch bei ihnen bewährte statistische Konstrukte nicht vernachlässigt werden dürfen. So schrieb beispielsweise die Ethnologin Danah Boyd, große Datensätze führten zu falschen Beobachtungen, würden Qualitätskriterien wie die Repräsentativität der Daten missachtet. Zitat: „Bigger Data are Not Always Better Data.“

Trotzdem blieb „Big Data“ in den Naturwissenschaften nicht ohne Wirkung, die Möglichkeiten sind zu faszinierend. Nun hat dieser Gedanke auch die Geisteswissenschaften erreicht. Die rechnerbasierte Verarbeitung großer Datensätze könne revolutionäres Potenzial besitzen, glauben erste Wissenschaftler. Auf der Tagung .hist 2011 – Geschichte im digitalen Wandel hielt der Medienwissenschaftler Theo Röhle von der Universität Paderborn dazu einen anschaulichen Vortrag.

Das Erstaunliche daran: Die Debatte ist alt. In den USA gab es bereits in den 1950er Jahren eine lebhafte Diskussion darum, wie wichtig die Quantifizierung auch in der Geschichtswissenschaft ist. Das Internet nun scheint die klassische Theoriebildung der Historiker auf eine neue Grundlage zu stellen. Beispielsweise durch die Analyse von Worthäufigkeiten in Tageszeitungen. „Data Driven History“ nennt es Röhler und hofft, damit nicht nur über die Moderne mehr zu erfahren, sondern beispielsweise auch über das Mittelalter. Immerhin sind viele Quellen inzwischen in digitaler Form vorhanden.

 

„Interne Daten sind immer noch heilig“

Es gibt zwei bekannte Beispiele für den durchaus erfolgreichen Einsatz von Open Data in der freien Wirtschaft. Aber sie haben kaum Nachfolger gefunden. Open Data ist noch Lichtjahre davon entfernt, ein natürlicher Bestandteil von Open Business zu werden. Was für Städte und Staaten langsam als zukünftige Normalität sichtbar wird – die  Öffnung und Bereitstellung von Daten für neue Anwendungen zur Schaffung neuer Dienste und größerer Transparenz – ist in Wirtschaftsunternehmen noch hochgradig exotisch. Die Ängste sind massiv.

Das glaubt auch Steffen Hück von der Unternehmensberatung 90:10. Er hielt bei der Social Media Week in Berlin einen Vortrag zum Thema Open Business. Im Gespräch am Rande der Konferenz schätzte er die Chancen für Open Data im Kontext von Open Business eher schlecht ein:

Dabei haben einige wenige innovative Ansätze bereits vor Jahren gezeigt, dass neue Strategien auch Profite von Firmen und Konzernen erhöhen können: Die beiden berühmten gewordenen Beispiele sind der Netflixprize und die Goldcorp Challenge. Netflix ist einer der größten Versender von Video-DVDs und gleichzeitig einer der größten Videostreaming-Anbieter der USA. Eines der wichtigsten Verkaufsinstrumente ist das bordeigene Empfehlungssystem. Ähnlich wie bei Amazon, iTunes und anderen Onlinehändlern bietet das Portal dem User mit dem ausgewählten Produkt assoziierte Produkte an. Nachdem die Verkaufszahlen von Netflix jedoch zwischenzeitlich nicht die gewünschte Dynamik zeigten, entschloss sich der DVD-Versender 2009 zu einem ungewöhnlichen Schritt: Netflix veröffentlichte großen Mengen anonymisierter Nutzerdaten. Auf deren Basis sollten freie Programmierer den Empfehlungsalgorithmus um mindestens zehn Prozent verbessern. Als Anreiz wurde der Netflixprize wurde ausgelobt. Er ist mit einer satten Million Dollar dotiert. Vergeben wurde der Preis bisher zwar noch nicht, weil die Zehn-Prozent-Hürde noch nicht genommen wurde. Der Algorithmus aber wurde schon deutlich verbessert.

Das andere Beispiel stammt vom kanadischen Bergbauunternehmen Goldcorp. Im Jahr 2000 schienen sich die Goldfunde für das Unternehmen zu erschöpfen. Es verfügte jedoch über ein gewaltiges Terrain und noch wesentlich gewaltigere Datenmengen. Darunter waren insbesondere Daten über die geologische Beschaffenheit des Terrains inklusive etlicher Bohrbefunde und weiterer Tiefenanalysen. Deshalb entschloss sich das Minenunternehmen, die Daten zu veröffentlichen. Der Erfolg war atemberaubend. Die Crowd wertete die bereitgestellten Daten aus und empfahl über 100 mögliche Orte für weitere Goldfunde. Mehr als die Hälfte dieser Orte waren den Goldcorp-Ingenieuren noch nicht aufgefallen. In der Folge konnte Goldcorp das Areal zu wesentlich günstigeren Konditionen erschließen.

 

Einsichten ins Schweizer Parlament

In Österreich hat die Open Data Bewegung bereits einiges in Bewegung gebracht. Der Open-Data-Katalog der Stadt Wien wurde 2011 wiederholt ausgezeichnet. In Berlin ging unlängst das Open Data Portal data.berlin.de ans Netz. Da wollen auch die Schweizer nicht länger zögern.

Um den Rückstand in Sachen Open Data möglichst rasch aufzuholen, wurde für Ende September 2011 ein erstes Open-Data-Camp in Bern ins Leben gerufen. Unter dem Titel makeopendata.ch rufen Aktivisten zur Konferenz. Das bescheidene Motto:

Das erste Open Data Camp der Schweiz bringt Denker und Macher zusammen, um gemeinsam einen Unterschied zu machen.

Aber während die Aktivisten noch an Vorsätzen feilen und Agenden für Konferenzen entwerfen, veröffentlichte die Orell Füssli Wirtschaftsinformationen AG längst den Parlaments Explorer. Eine geradlinige, mit wenigen Mitteln Transparenz schaffende Visualisierung der Nebentätigkeiten und insbesondere Vorstands- und Aufsichtsratsmitgliedschaften der Schweizer Parlamentarier. Das Besondere dabei, die Nebentätigkeiten können unmittelbar per Klick mit den Nebentätigkeiten anderer Parlamentarier verglichen werden.

So lassen sich plötzlich manche Abstimmungskoalitionen mit ungeahnten Hintergründen erschließen. Ein Werkzeug, dass dem deutschen Pendant Abgeordnetenwatch.de gut stehen würde.

Nachtrag: In einer früheren Version des Textes wurde der Urheber der Grafik versehentlich als Buchhandlung bezeichnet. Die Orell Füssli Wirtschaftsinformationen AG hat mit der gleichnamigen Buchhandlung jedoch nichts zu tun. Wir bitten um Entschuldigung.

 

Globalisierte Offenheit

Ein hehres Ziel, 46 Nationen und ein einfaches Prinzip – das sind die Zutaten der Initiative Open Government Partnership. Sie wurde Mitte September am Rande einer UN-Vollversammlung in New York ins Leben gerufen.

Das hehre Ziel: Offenheit als Prinzip von Regierunghandeln soll weltweit gefördert werden. Open Data ist dabei ein konstituierender Baustein. Der brasilianische Staatsminister Jorge Hage ließ sich mit den Worten zitieren: „Wir wollen das große Ideal der Demokratie voranbringen.“

Der transnationale Ansatz soll Bürgern den Zugang zu Daten, Informationen und Wissen erleichtern. Beispielsweise damit sie im Kampf gegen Korruption aktiver werden können oder die Chance haben, Ideen zu entwickeln, um wirtschaftliche Krisen zu meistern.

Neben Brasilien gehören auch die USA zu den ersten Mitgliedern des globalen Projektes. Eines der zentralen Vorhaben der Regierung von Barack Obama in diesem Kontext soll die Einrichtung einer Online-Petitionsplattform sein. Auch der Schutz von Whistelblowern soll angeblich verbessert werden.

Die Ambitionen des Weißen Hauses für mehr Offenheit haben in den vergangenen Monaten allerdings zahlreiche Dämpfer erlitten. So wurde das Budget für das Open-Data-Portal Data.gov erst kürzlich deutlich gekürzt.

Weitere Länder, die die Gründungsurkunde der Open Government Partnership Initiative unterzeichneten, sind beispielsweise Großbritannien, Norwegen, Spanien oder Schweden. Deutschland ist übrigens nicht dabei.

Es wäre in diesem Zusammenhang auch spannend zu erfahren, wie ein derartiges Portal mit angeschlossener Ideen- und Debattenplattform in Griechenland genutzt würde. Wäre es eine Bühne wüster Regierungsbeschimpfungen, oder könnte die Gesellschaft Ideen und Konzepte entwicklen? Vielleicht fehlt Griechenland für derartige Prozesse derzeit aber auch einfach die Zeit.

 

„Mehrwert von Open Data gibt es nur zusammen mit anderen Faktoren“

Claudia Schwegmann founder openaid germany

Claudia Schwegmann hat 2009 OpenAid gegründet – eine Nichtregierungsorganisation, die Transparenz in der Entwicklungszusammenarbeit fördern will. Schwegmann hat selbst einige Jahre in der Entwicklungzusammenarbeit gearbeitet. Im Interview erklärt sie die Hintergründe zu der Konferenz Open Aid Data Ende September in Berlin.

Frau Schwegmann, warum haben Sie Open Aid gegründet?

Claudia Schwegmann: In meiner Arbeit in der Entwicklungszusammenarbeit habe ich mich zuletzt mit der Wirkung von Entwicklungsprojekten befasst. Eine wichtige Voraussetzung für Wirkung ist Feedback. Die Empfänger der Hilfe müssen Rückmeldung über die Qualität der Entwicklungszusammenarbeit geben können. Das ist nur möglich, wenn sie zu einem gewissen Grad die Prozesse und die Planung kennen. Der Mangel an Informationen in der Entwicklungszusammenarbeit war letztlich ausschlaggebend dafür, OpenAid zu gründen. Später bin ich dann auf die 2008 gegründete “International Aid Transparency Initiative” IATI gestoßen, mit der sich OpenAid jetzt schwerpunktmäßig befasst.

Worum geht es bei IATI genau?

Schwegmann: Dieses Frühjahr wurden die IATI-Kriterien für einen Standard für Daten zu Entwicklungsvorhaben schließlich festgeschrieben. In einem maschinenlesbarem Format, als Open Data, sollen fünf grundlegende Informationen über Entwicklungsvorhaben gespeichert werden: Wer ist beteiligt? Worum geht es? Was soll bis wann erreicht werden? Wie lassen sich die Vorhaben einordnen und was sind die finanziellen Details?

Weiter„„Mehrwert von Open Data gibt es nur zusammen mit anderen Faktoren““