Lesezeichen
 

Neue Open-Data-Strategie: Öffentliche Goldmine. EU will schlafenden Schatz von 40 Milliarden Euro heben

Nein, er war nicht dabei. Diesmal jedenfalls nicht. Aber es ging ja auch nicht um so aufmerksamkeitsträchtige Themen wie den Schutz verfolgter Online-Dissidenten in totalitären Regimen. Kein Kampf für die Verfolgten dieser Erde. Keine Schlagzeilen als Retter in der Not. Kein mediales Greenwashing des talentierten Freiherrn zu Guttenberg. Es ging nur um spröde Daten. Die liegen nach Angaben der EU-Kommissarin für die Digitalstrategie des Staatenbundes, Neelie Kroes, in den umfangreichen Archiven und den gewaltigen Datenbanken der öffentlichen Verwaltungen der Europäischen Union. Dort warten sie nun geradezu darauf, von der Öffentlichkeit entdeckt zu werden. Die Rede ist von der Nutzung öffentlicher Daten als Goldmine. So betitelte das Ressort der EU-Kommissarin in dieser Woche die Ankündigung einer neuen Open-Data-Strategie der Europäischen Union.

Die mit dieser neuen Strategie verknüpften wirtschaftlichen Hoffnungen sind alles andere als bescheiden. Ein schlafender Schatz im Wert von 40 Milliarden Euro (in Zahlen: 40.000.000.000) soll den strapazierten Ökonomien des Kontinents neuen Schwung verpassen. Die Vorgehensweise orientiert sich unter anderem an Frankreich und Großbritannien, die seit einiger Zeit positive Erfahrungen mit dem Angebot eigener Open-Data-Portale machen. In Großbritannien ist data.gov.uk bereits seit Jahren öffentlich und auch data.gouv.fr erfreut sich in Frankreich eines regen Interesses. Aus drei Teilen besteht nun die Strategie der EU:

Erstens wird die Kommission mit gutem Beispiel vorangehen und der Öffentlichkeit ihre Informationsschätze kostenlos über ein neues Datenportal zugänglich machen. Zweitens werden überall in der EU gleiche Wettbewerbsbedingungen in Bezug auf offene Daten geschaffen. Drittens werden für diese neuen Maßnahmen 100 Millionen Euro bereitgestellt, die im Zeitraum 2011–2013 für Forschungsarbeiten zu besseren Technologien im Umgang mit diesen Daten ausgegeben werden sollen.

Gerade die Forschung und Entwicklung neuer Technologien dürfte entscheidend für den Erfolg der Strategie sein. Zuletzt hatte Viktor Meyer-Schönberger auf die großen Defizite der Open-Data-Bewegung hingewiesen (Link zum PDF der Meyer Schönberger Studie: Participation and Power Intermediaries of Open Data; ein Interview dazu in Kürze). Seines Erachtens mangelt es vor allem an konzertierten Aktivitäten staatlicher und freier Akteure. Außerdem fehlen die Masterpläne, um wichtige Handlungsfelder systematisch zu erschließen, und es müssten größere Anreize geschaffen werden, um innovative Projekte umzusetzen.

Nun kommt es zunächst darauf an, dass die spärlichen 100 Millionen Euro Entwicklungsbudget auf dem Weg zu den Entwicklerteams und Projektplanern in ganz Europa nicht in den Verwaltungen versickern. Es wäre nicht das erste Mal.

 

Daten und Orte. Die Berliner Ausgabe des internationalen Open Hackday beschäftigt sich mit Geodaten

„Die Koalition wird die Open-Data-Initiative des Landes fortsetzen und ausbauen. Dazu setzt sie sich für eine Prüfung der weitgehenden Offenlegung von öffentlichen Daten (z. B. Geoinformationsdaten) unter Wahrung des persönlichen Datenschutzes ein.“

Mit diesem Zitat aus dem Koalitionsvertrag zwischen SPD und CDU in Berlin lädt ein Artikel im Blog der Open Knowledge Foundation Deutschland zum morgigen Berliner Open Data Hackday ein. (Hier gibt es den Koalitionsvertrag übrigens als PDF). Der Berliner Hackday ist die deutsche Ausgabe des International Open Data Hackathon, der am 3. und 4. Dezember weltweit stattfindet.

Zentren des internationalen Hackathon sind unter anderem in Kanada und Brasilien, weil der Hackathon maßgeblich von dem im kanadischen Vancouver tätigen Open Data Aktivisten David Eaves und der brasilianischen Transparência Hacker Bewegung ins Leben gerufen wurde, sagt Daniel Dietrich. Er ist einer der führenden Köpfe der Open Knowledge Foundation Deutschland.

Nach dem es zuletzt vielfach Kritik an einem Erlahmen der Open Data Bewegung gegeben hatte, wird der weltweite Open Data Hackday zeigen, wie vital die Open-Data-Initiativen in vielen Ländern sind, so Dietrich weiter. Vorbilder des internationalen Open-Data-Events waren die erfolgreichen Music Hackdays der letzten Jahre.

Der Berliner Open-Data-Hackday soll vor allem Akteure der Szene versammeln. Denn aktuell ist nichts wichtiger, als die Kreativen immer wieder zu neuen Teams zusammenzuführen, um möglichst rasch weitere Anwendungen zu entwickeln, die die Relevanz und alltägliche Anwendbarkeit von Open Data zeigen (Der www.opendata-showroom.org liefert übrigens zahlreiche Beispiele bereits vorhandener Applikationen). Um dem Community-Building-Ereignis, so Dietrich, endlich auch eine klare Kontur zu geben, wird der Berliner Open Hackday in diesem Jahr auch ein Leitthema haben. Es geht um Open Data Anwendungen, die mit Geodaten arbeiten. Deshalb lädt die Open Knowledge Foundation auch wie folgt ein:

... zum Open Data Hackday am 03. und 04. Dezember 2011 in Berlin. Wir wollen jeweils den ganzen Tag von 10 Uhr – bis 19 Uhr hacken und uns dabei vor allem die Daten des FIS-Brokers anschauen. Diese können natürlich nach belieben mit anderen Datensätzen z.B. aus dem Berliner Datenportal daten.berlin.de oder dem Katalog für offene Daten www.offenedaten.de oder anderen Fundstellen kombiniert werden….

Im Berliner Stadtteil Kreuzberg wird ab morgen und am Sonntag ab 10 Uhr gehackt, was das Zeug hält. Wer Hackern schon immer mal bei der Arbeit zu sehen wollte oder eigene Fähigkeiten mit denen anderer verbinden möchte, sollte sich in den Hallen von Co-Up einfinden.

 

Bundesapps statt Staatstrojaner

Wie steht es eigentlich um die Nutzung offener Daten hierzulande? Nicht so gut, scheint es. Zumindest kann Eindruck gewinnen, wer man in den vergangenen Tagen die Stellungnahmen zahlreicher deutscher Open-Data-Experten las. Datenjournalist Lorenz Matzat, Vorgänger hier im Data Blog, warnte unlängst vor einer traurigen Zukunft. Zumindest zitierte er in einem Artikel Ende Oktober Chris Taggarts Vortrag auf dem Open Government Data Camp in Warschau. Der unzweideutige Titel: How the Open Data Community Died.

Auch Christiane Schulzki-Haddouti fragte kürzlich im ZDF Hyperland-Blog, ob Deutschland nicht längst alle Chancen verspielt hat, die Dynamik der Open-Data-Bewegung zu nutzen, beziehungsweise in klare Angebote für eine breite Nutzerschaft umzusetzen.

Vielleicht bietet der am Dienstag gestartete Wettbewerb Apps für Deutschland einen Lichtblick. Initiiert vom Open Data Network e.V. sowie der Open Knowledge Foundation und unter der Schirmherrschaft des Bundesinnenministeriums werden ab sofort Open-Data-Anwendungen gesucht.

Behörden in Deutschland erheben, speichern und verarbeiten viele interessante Daten. Dazu gehören Wetterdaten ebenso wie Informationen über die Luftqualität oder über die Verwendung der Steuergelder. Diese Daten sind von öffentlichem Interesse und bergen ein großes Potenzial für unsere Gesellschaft, weil sie Transparenz, Beteiligung, Innovationen und neue Dienstleistungen fördern.

Mit dem Wettbewerb „Apps für Deutschland“ laden wir Designer, Entwickler, Journalisten, Forscher und die breite Öffentlichkeit ein, Anwendungen zu schaffen, um diese Daten nutzbar zu machen.

Die Seite www.opendata-showroom.org liefert dazu die passenden Beispiele, um freie Programmierer und Open-Data-Aktivisten zu inspirieren. Natürlich ließ erste Kritik nicht lange auf sich warten. Allein der Titel Apps4Deutschland sei missverständlich, da Apps häufig eben nicht für Offenheit, sondern für geschlossene Systeme stehen würden.

In der Jury sitzen neben zahlreichen Wissenschaftlern und Repräsentanten der Initiatoren unter anderem auch Vertreter des Bitkom und der Wikimedia. Einsendeschluss für Ideen und Daten ist der 15. Dezemmber 2011, für Anwendungen der 1. Februar 2012.

Als Preise winken übrigens Geldprämien zwischen 500 und 4.000 Euro. Leider deutlich zu wenig, um starke Teams zu motivieren. Hoffentlich dokumentieren diese vielleicht für einzelne Entwickler ansprechenden, aber für ambitionierte Mannnschaften zu geringen Honorarere nicht den Versuch, das Thema Open Data mit Hilfe einer schmalbrüstigen Umarmugsstrategie bewusst klein zu halten. Aber immerhin, es gibt ihn, den bundesweiten Open-Data-Wettbewerb.

 

„Bibliotheken sollten ihre Daten öffnen“

Oldschool: Bei der Planung verlässt sich die Open Bibliographic Data-Arbeitsgruppe auf die Kreidetafel

Adrian Pohl arbeitet seit 2008 im Hochschulbibliothekszentrum des Landes Nordrhein-Westfalen (hbz). Seit Juni 2010 ist er Koordinator der Arbeitsgruppe der Open Knowledge Foundation zu Open Bibliographic Data. Im Interview berichtet Pohl über die Zusammenarbeit mit anderen Aktiven aus Wissenschaft und Bibliothekswelt. Ihr Ziel: der Aufbau einer Infrastruktur für offene bibliographische Daten.

Herr Pohl, worum geht es bei Open Bibliographic Data (OBD)?

Adrian Pohl: Wir orientieren uns an der Open-Access-Bewegung. Deren Idee wird bereits weitgehend in der Bibliothekswelt unterstützt: Ergebnisse öffentlich finanzierter Wissenschaft sollen auch jedem öffentlich zugänglich sein. Bibliotheken sind ebenfalls meist aus öffentlichen Geldern finanziert. Deshalb sollten die von ihnen produzierten Daten auch offen zugänglich und wiederverwendbar sein. Mit den „Prinzipen zu offenen bibliographischen Daten“ haben wir in der Open Knowledge Foundation klare Anforderungen für die Freigabe solcher Daten formuliert, insbesondere im Hinblick auf die Wahl der Lizenz. Bibliotheksdaten können vielen von Nutzen sein.

Wofür zum Beispiel?

Pohl: Sammlungen bibliographischer Daten können als eine Landkarte verstanden werden, die uns Orientierung gibt in der Landschaft unserer literarischen, wissenschaftlichen oder künstlerischen Erzeugnisse.

So können die Daten etwa in der Forschung genutzt werden. Für Historiker beispielsweise könnte die Frage interessant sein, in welchem Jahrhundert zu bestimmten Zeiten wo wichtige Publikationsorte waren. Mit automatisierten Abfragen offener Daten aus Bibliothekskatalogen ließe sich zügig eine Übersicht über die meistgenutzten Publikationsstandorte erstellen. Das ginge weit über das hinaus, was mit normalen Rechercheoptionen möglich ist.

Ein anderes Beispiel: Bibliotheksdaten werden bereits für Anwendungen genutzt, die den urheberrechtlichen Status eines Werkes berechnen, ob es geschützt oder gemeinfrei ist. Mehr freie Daten könnten diese Dienste enorm verbessern. Es lassen sich unzählige weitere Anwendungen denken.

Weiter„„Bibliotheken sollten ihre Daten öffnen““

 

Weltkarte deutscher Entwicklungshilfe

Vor einigen Wochen fand in Berlin die Open Aid Data Konferenz statt. Die Möglichkeiten der Optimierung von Geldflüssen und Projektausrichtungen in der Entwicklungshilfe wurden diskutiert. Dass Open Data Entwicklungszusammenarbeit verbessern kann, ist seit Längerem klar. Jetzt hat der Open-Data-Aktivist und Macher des Hyperlocalportals Frankfurt-Gestalten.de, Christian Kreutz, für die Open Knowledge Foundation Germany eine Weltkarte deutscher Geldflüsse im Kontext Entwicklungszusammenarbeit erstellt.

Auf dem ZDF-Blog Hyperland erschien daraufhin ein Making-Of der Karte unter dem Titel „Wie ein Daten-Mashup die deutsche Entwicklungshilfe aufschlüsselt„. Hochspannend erklärt die Autorin Christiane Schulzki-Haddouti im Blogpost, wie die Daten erschlossen wurden, welche eklatanten Defizite es bei der Datenbereitstellung noch gibt und welche überraschenden Erkenntnisse das Mash-Up liefert.

Zum Beispiel fließen die mit Abstand meisten Mittel aus deutschen Fördertöpfen nicht nach Afrika, wie man vielleicht mit Blick auf dortige Hungerkatastrophen erwarten könnte, sondern in die sogenannten BRIC-Länder: Brasilien, Russland, Indien und China.

 

Adam, Eva und die anderen gehen steil

Im Jahr 1500 ist die Erfindung des Buchdrucks durch Johannes Gutenberg gerade einmal ein paar Jahrzehnte alt. Gott lebt noch. Die Erschaffung von durchsichtigem Glas wird in Norditalien erstmals möglich. Und zwischen Wien und Brüssel wird eine der frühesten ständigen europäischen Postlinien in Betrieb genommen. Die Weltbevölkerung betrug gerade einmal 500 Millionen Menschen.

Am Montag wurde der siebenmilliardste Mensch geboren. Das jedenfalls gibt UNFPA seit einigen Tagen zu Protokoll. UNFPA ist das United Nations Population Fund. Die BBC hat die dramatische Entwicklung der Weltbevölkerung in eine einfache, aber eindrucksvolle und interaktive Datenvisualisierung übersetzt. Die Entwicklung der Weltbevölkerung der letzten 500 Jahre. Eine steiler, sehr steiler Anstieg.

 

Grassroots in Wuppertal – Offene Verwaltungen auf Landes- und Kommunalebene

In Sachen Open Data gibt es mittlerweile einige spannende Projekte in Deutschland. Zuletzt ging das Open Data Portal Berlin an den Start. Aber wie steht es eigentlich um die Umsetzung der ambitionierten Open-Government-Ideen der vergangenen Jahre? Gerade auf Landes- und Kommunalebene? Am Samstag, 12. November 2011, findet dazu in Wuppertal-Barmen eine regionale Tagung statt. Offene Verwaltung, Open Data, Bürgerbeteiligung und Bürgerhaushalt sind die Themen.

Dass die Veranstaltung in NRW und dort in Wuppertal realisiert wird, ist kein Zufall. Die rot-grüne Minderheitsregierung hat Open Government explizit zu einem ihrer wichtigsten Themen in Sachen Transparenz und digitale Demokratie gemacht. Das Kompetenznetz Bürgerhaushalt in Wuppertal fordert zudem seit Längerem eine aktivere Einbindung der Bürger in kommunale Haushaltsfragen. Hier noch Details aus der Einladung: Weiter„Grassroots in Wuppertal – Offene Verwaltungen auf Landes- und Kommunalebene“

 

Datenprojekt macht die versteckten Milliarden der EU sichtbar

Die Europäische Union ist ein Monstrum. Hunderte Behörden hat sie, Tausende Gremien und mindestens zehntausend unterschiedliche Normen für das Gewicht von Bananen, für die Wärmedämmungen von Hausfassaden oder für Schallschutzbestimmungen von Schwerlastzügen. Neben diesen ungezählten Verordnungen und Richtlinien gibt es mindestens ebenso viele Förderprogramme und Subventionstöpfe.

So jedenfalls die allgemeine Wahrnehmung. Die ist nicht ganz falsch, wie der Strukturfonds zeigt, eines der wichtigsten Instrumente europäischer Planungs- und Steuerungspolitik. Allein der Strukturfonds setzt sich aus fünf Unterfonds zusammen, die so attraktive Titel tragen wie Regionalfonds EFRE inklusive Interreg IV oder Landwirtschaftsfonds ELER inklusive Leader. So etwas kann durchaus von der näheren Beschäftigung abschrecken. Doch beträgt das Gesamtbudget des Strukturfonds mehr als 45 Milliarden Euro. Das ist zu gewaltig, als dass Datenjournalisten diesen Fonds ignorieren sollten.

Was sie natürlich auch nicht tun. So arbeitet Celainn Barr an einem Projekt, dass eben jenen Strukturfonds systematisch untersuchbar macht. Barr arbeitet unter anderem für die britische Non-Profit-Organisation Bureau of Investigative Journalism in London. Als Teil eines Teams des Bureau of Investigative Journalism entwickelte sie das Werkzeug in Kooperation mit der Financial Times.

Eine der eher unerfreulicheren Erkenntnisse: Der Missbrauch von EU-Geldern durch die italienische ‘Ndrangheta ist keine Seltenheit. Millionen gingen an sie. Überhaupt gibt es gelegentlich seltsame Empfänger von europäischen Fördergeldern, beispielsweise die Konzerne Coca-Cola, British American Tobacco und IBM. Andere Projekte, die durchaus sinnvoll erscheinen, wurde wie eine spanische Meerwasser-Entsalzungsanlage gefördert und gebaut, aber nie in Betrieb genommen.

Die EU-Kommission begrüßte das Projekt. Kommissar Johannes Hahn erklärte, die Untersuchung sei ein Beitrag zur öffentlichen Debatte über die europäische Förderpolitik. Zum Thema ungewollte Förderung der Mafia äußerte er sich nicht.

 

Giftiges Geld

Die Lage bleibt diffus: Die Eurokrise dominiert zwar weiterhin die Schlagzeilen, aber die tatsächlichen Konturen der Krise sind oft nur für Fachleute erkennbar. Denn neben Griechenland, dessen Staatsschulden das Land zu erdrücken drohen, sind mittlerweile auch zahlreiche europäische Banken von der Krise betroffen.

So wurde heute bekannt, dass die belgisch-französische Bank Dexia zerschlagen wird. Der belgische Staat wird 100 Prozent des belgischen Anteils der Bank erwerben. Eine weitere Episode in der langen Geschichte vergemeinschafteter Schulden. Denn auch in Belgien rettet auf diese Art und Weise der Steuerzahler das marodierte Geldhaus. Um die Dimension der Dexia-Krise zu veranschaulichen, hatten die Kollegen der französische Zeitung Libération schon vor Tagen eine Infografik veröffentlicht, die die Streubreite der sogenannten toxischen Papiere der Dexia in Frankreich darlegt. Auf der interaktiven Landkarte wird offenkundig, wie bedrohlich die Lage für die Städte und Kommunen jenseits des Rheins werden könnte. Denn die Großbank Dexia ist der größte Kreditgeber für Kommunen und Städte. Sie könnte der Infarkt der Dexia teuer zu stehen kommen, da das Ausmaß der flächendeckenden Kontaminierung durch giftiges Geld atemberaubend ist.

 

Das Ende der Theorie: Data Driven History

Unter dem großspurigen Titel The End of Theory erklärte Wired-Herausgeber Chris Anderson vor einigen Jahren theoretische Konzepte kurzerhand für überflüssig. Die neuen, nun verfügbaren Datenmengen würden induktive Data-Mining-Verfahren ermöglichen, die nichts anderes wären als die Zukunft wissenschaftlicher Methodologie. Und zwar die einzige. Big Data, das Finden von Mustern in großen Datenbeständen, sei der „direkte Weg zur Wahrheit“.

Bislang ist Andersons Prognose nicht eingetreten, da auch große Datenmengen Modelle brauchen, mit deren Hilfe sie durchsucht werden können. Und da auch bei ihnen bewährte statistische Konstrukte nicht vernachlässigt werden dürfen. So schrieb beispielsweise die Ethnologin Danah Boyd, große Datensätze führten zu falschen Beobachtungen, würden Qualitätskriterien wie die Repräsentativität der Daten missachtet. Zitat: „Bigger Data are Not Always Better Data.“

Trotzdem blieb „Big Data“ in den Naturwissenschaften nicht ohne Wirkung, die Möglichkeiten sind zu faszinierend. Nun hat dieser Gedanke auch die Geisteswissenschaften erreicht. Die rechnerbasierte Verarbeitung großer Datensätze könne revolutionäres Potenzial besitzen, glauben erste Wissenschaftler. Auf der Tagung .hist 2011 – Geschichte im digitalen Wandel hielt der Medienwissenschaftler Theo Röhle von der Universität Paderborn dazu einen anschaulichen Vortrag.

Das Erstaunliche daran: Die Debatte ist alt. In den USA gab es bereits in den 1950er Jahren eine lebhafte Diskussion darum, wie wichtig die Quantifizierung auch in der Geschichtswissenschaft ist. Das Internet nun scheint die klassische Theoriebildung der Historiker auf eine neue Grundlage zu stellen. Beispielsweise durch die Analyse von Worthäufigkeiten in Tageszeitungen. „Data Driven History“ nennt es Röhler und hofft, damit nicht nur über die Moderne mehr zu erfahren, sondern beispielsweise auch über das Mittelalter. Immerhin sind viele Quellen inzwischen in digitaler Form vorhanden.