Offene Daten – offene Gesellschaft

Autoren Archiv von Lorenz Matzat

“Bibliotheken sollten ihre Daten öffnen”

Von 8. November 2011 um 16:37 Uhr

Oldschool: Bei der Planung verlässt sich die Open Bibliographic Data-Arbeitsgruppe auf die Kreidetafel

Adrian Pohl arbeitet seit 2008 im Hochschulbibliothekszentrum des Landes Nordrhein-Westfalen (hbz). Seit Juni 2010 ist er Koordinator der Arbeitsgruppe der Open Knowledge Foundation zu Open Bibliographic Data. Im Interview berichtet Pohl über die Zusammenarbeit mit anderen Aktiven aus Wissenschaft und Bibliothekswelt. Ihr Ziel: der Aufbau einer Infrastruktur für offene bibliographische Daten.

Herr Pohl, worum geht es bei Open Bibliographic Data (OBD)?

Adrian Pohl: Wir orientieren uns an der Open-Access-Bewegung. Deren Idee wird bereits weitgehend in der Bibliothekswelt unterstützt: Ergebnisse öffentlich finanzierter Wissenschaft sollen auch jedem öffentlich zugänglich sein. Bibliotheken sind ebenfalls meist aus öffentlichen Geldern finanziert. Deshalb sollten die von ihnen produzierten Daten auch offen zugänglich und wiederverwendbar sein. Mit den “Prinzipen zu offenen bibliographischen Daten” haben wir in der Open Knowledge Foundation klare Anforderungen für die Freigabe solcher Daten formuliert, insbesondere im Hinblick auf die Wahl der Lizenz. Bibliotheksdaten können vielen von Nutzen sein.

Wofür zum Beispiel?

Pohl: Sammlungen bibliographischer Daten können als eine Landkarte verstanden werden, die uns Orientierung gibt in der Landschaft unserer literarischen, wissenschaftlichen oder künstlerischen Erzeugnisse.

So können die Daten etwa in der Forschung genutzt werden. Für Historiker beispielsweise könnte die Frage interessant sein, in welchem Jahrhundert zu bestimmten Zeiten wo wichtige Publikationsorte waren. Mit automatisierten Abfragen offener Daten aus Bibliothekskatalogen ließe sich zügig eine Übersicht über die meistgenutzten Publikationsstandorte erstellen. Das ginge weit über das hinaus, was mit normalen Rechercheoptionen möglich ist.

Ein anderes Beispiel: Bibliotheksdaten werden bereits für Anwendungen genutzt, die den urheberrechtlichen Status eines Werkes berechnen, ob es geschützt oder gemeinfrei ist. Mehr freie Daten könnten diese Dienste enorm verbessern. Es lassen sich unzählige weitere Anwendungen denken.

Weiter…

Kategorien: Dateninterview

“Mehrwert von Open Data gibt es nur zusammen mit anderen Faktoren”

Von 21. September 2011 um 14:14 Uhr

Claudia Schwegmann founder openaid germany

Claudia Schwegmann hat 2009 OpenAid gegründet – eine Nichtregierungsorganisation, die Transparenz in der Entwicklungszusammenarbeit fördern will. Schwegmann hat selbst einige Jahre in der Entwicklungzusammenarbeit gearbeitet. Im Interview erklärt sie die Hintergründe zu der Konferenz Open Aid Data Ende September in Berlin.

Frau Schwegmann, warum haben Sie Open Aid gegründet?

Claudia Schwegmann: In meiner Arbeit in der Entwicklungszusammenarbeit habe ich mich zuletzt mit der Wirkung von Entwicklungsprojekten befasst. Eine wichtige Voraussetzung für Wirkung ist Feedback. Die Empfänger der Hilfe müssen Rückmeldung über die Qualität der Entwicklungszusammenarbeit geben können. Das ist nur möglich, wenn sie zu einem gewissen Grad die Prozesse und die Planung kennen. Der Mangel an Informationen in der Entwicklungszusammenarbeit war letztlich ausschlaggebend dafür, OpenAid zu gründen. Später bin ich dann auf die 2008 gegründete “International Aid Transparency Initiative” IATI gestoßen, mit der sich OpenAid jetzt schwerpunktmäßig befasst.

Worum geht es bei IATI genau?

Schwegmann: Dieses Frühjahr wurden die IATI-Kriterien für einen Standard für Daten zu Entwicklungsvorhaben schließlich festgeschrieben. In einem maschinenlesbarem Format, als Open Data, sollen fünf grundlegende Informationen über Entwicklungsvorhaben gespeichert werden: Wer ist beteiligt? Worum geht es? Was soll bis wann erreicht werden? Wie lassen sich die Vorhaben einordnen und was sind die finanziellen Details?

Weiter…

Kategorien: Dateninterview

Datenjournalismus ist eine große Chance

Von 8. September 2011 um 09:48 Uhr
msnbc hurricane tracker

Der Hurricane-Tracker von MSNBC dokumentiert jeden Sturm in Echtzeit

Seit vergangenem Jahr ist weitläufig bekannt: Onlinejournalismus kann mit großen Datensätzen eine neue Form der Berichterstattung leisten – Stichwort WikiLeaks. Der so genannte Datenjournalismus oder data-driven-journalism hat nützliche Erzählmethoden hervorgebracht. Der umstrittene Julian Assange spricht auch von „wissenschaftlichen Journalismus“, der sich ausschließlich an der Faktenlage sowie den vorliegenden Daten orientiert und die Meinung sowie Wertung des Autors gänzlich zurücktreten lässt. Und schon 2006 legte der programmierende Journalist Adrian Holovaty aus den USA dar, warum sich Nachrichtenseiten im Netz angesichts der wachsenden Datenmenge fundamental ändern sollten.

Jüngst war zu beobachten, wie sinnvoll Datenjournalismus auch in der tagesaktuellen Berichterstattung sein kann: Während der Hurrikan Irene drohte, New York mit voller Wucht zu treffen, boten einige Onlinemedien in den USA interaktive Visualisierungen an. Diese beruhten auf Open Data der US-Wetterbehörde und boten die Möglichkeit, den voraussichtlichen Weg des Hurrikans vorzuzeichnen. Siehe etwa die New York Times (NYT) oder MSNBC (die jeden Sturm verfolgen). Darüber hinaus bot die NYT eine interaktive Karte mit den Evakuierungszonen und zeigte die Folgen des Sturms für die Region.

Weiter…

Kategorien: Datenjournalismus

Die britische Regierung bittet um ihre Mithilfe

Von um 09:37 Uhr

Kabinettsminister Francis Maude ist die treibende Kraft in der britischen Regierung in Sachen Open Government. Er scheint es ernst damit zu meinen, Regierungshandeln transparenter zu gestalten. Immerhin bittet er die Briten, mit der Regierung zu diskutieren, welche und wie viele Daten veröffentlicht werden sollen. “Es gibt einige Herausforderungen zu bedenken. Eine davon betrifft den Umfang unserer Pläne mit Daten und wir begrüßen ihre Stellungnahme dazu, wie weit wir gehen sollen.” So schreibt Maude in der Einleitung zu “Making Open Data Real: A Public Consultation“. Die Public Consultation, also die Befragung der Öffentlichkeit hat die die britische Regierung Anfang August gestartet.

Sie bittet die Bevölkerung in sechs Bereichen um Anmerkungen und Einschätzungen zu ihrer Open-Data-Strategie:

  • Inwieweit soll das „Recht auf Daten“ für Individuen, Unternehmer und andere Akteure erweitert werden?
  • Welche Transparenzstandards sind für dieses „Recht auf Daten“ notwendig?
  • Wie können Behörden und Dienstleister der öffentlichen Hand verpflichtet werden, Open Data bereitzustellen?
  • Auf welche Weise wird sichergestellt, dass die nutzbringenstenden Daten erhoben und veröffentlicht werden?
  • Wie kann die interne Arbeitsweise der Regierung und des öffentlichen Sektors mehr „offen“ gestaltet werden?
  • Welche Rolle kann die Regierung dabei spielen, Unternehmenstätigkeit und einen Markt zu stimulieren, der auf Open Data setzt?

Weiter…

Bundesregierung wartet bei Open Government noch ab

Von 6. September 2011 um 17:01 Uhr

logo open government partnership

Schauen wir mal. So lässt sich die Haltung der Bundesregierung gegenüber der internationalen Open Government Partnership zusammenfassen. Diese Initiative von acht Regierungen will offiziell im September eine Deklaration veröffentlichen und die Partnerschaft endgültig auf den Weg bringen.

Die Open Government Partnership (OGP) setzt sich als Ziel, Regierungen darauf zu verpflichten, transparent zu handeln, Bürgerrechte zu stärken, Korruption zu bekämpfen und neue Technologien zum Regieren zu nutzen. In einer “Roadmap” (pdf) werden detailliert die Anfoderungen für eine Teilnahme an der Partnerschaft beschrieben (deutsche Übersetzung hier, siehe dazu auch unten). So muss in einem potenziellen Teilnehmerland Haushaltstransparenz und Informationsfreiheit herrschen und es müssen Einkünfte von Politikern und hohen Beamten offengelegt, sowie ein gewisser Grad an Bürgerbeteiligung möglich sein.

Angeschoben wurde die Initiative von den Regierungen Brasiliens und der USA. Weiter sind Indonesien, Mexiko, Norwegen, die Philippinen, Südafrika und Großbritannien beteiligt. Dazu gesellen sich neun nationale und internationale Nichtregierungsorganisationen.

Weiter…

Kategorien: Datenpolitik

Open Data kommt nach Hamburg

Von 26. August 2011 um 15:56 Uhr

Eine weitere Großstadt in Deutschland macht sich bereit in Sachen Open Data. Ein SPD-Bürgerschaftsabgeordneter hatte Anfang August an die Landesregierung eine Anfrage gestellt. Hansjörg Schmidt wollte wissen, ob die Stadt schon Open-Data-Angebote mache. Auch interessierte ihn, ob es überhaupt eine Strategie seitens des Senats gäbe. Beispielsweise im Sinne des Standpunktepapiers “Hamburg 2030″ der örtlichen Handelskammer. Schließlich bat er noch um eine Einschätzung, inwieweit Einsparungseffekte durch Open-Data-Nutzung entstehen würden.

Nun liegt die Antwort des Senats vor (pdf). Darin wird festgestellt, dass es bislang an einer einheitlichen Definition von Open Data mangele. Angesichts des allgemeinen Verständnisses des Begriffes aber könnten die meisten von der Stadt bereit gestellten Daten nicht als “offen” gelten. Da es sich “nicht um Rohdaten und/oder nicht um maschinenlesbare Daten und/oder um kostenlos zur Verfügung stehende Daten handelt”.

Weiter…

Kategorien: Datenpolitik, Datenquelle

EU will Open-Data-Portal aufbauen

Von 17. August 2011 um 10:05 Uhr
organigram of data gov uk server architecture

Ausschnitt aus der Server-Architektur von data.gov.uk (laut Shadbolt-Studie, s.u.)

Im April wurde bekannt, dass die Europäische Kommission einen EU-weiten Datenkatalog einrichten möchte. Derzeit sucht sie einen Dienstleister für ein Open-Data-Portal, das im kommenden Jahr starten soll. Der Ausschreibungstext umreißt die Aufgabe wie folgt.

  • Entwicklung und Verwaltung eines Portals im Netz, das als zentraler Einstiegspunkt zu Datensätzen der Europäischen Kommission und anderen EU-Einrichtungen sowie weiterer öffentlicher Institutionen dienen kann (die Software wird als Open Source veröffentlicht). 2013 soll das Portal auch die Datensätze der einzelnen Mitgliedsländer abbilden können.
  • Unterstützung der Europäischen Komission bei der Definition und Umsetzung eines Veröffentlichungsprozesses für besagte Daten (hier wird vor allem die Frage nach Lizenzen und Nutzungsbedingungen entscheidend sein).
  • Unterstützung der Kommission bei der Aufbereitung der Datensätze für die Veröffentlichung im Portal.
  • Unterstützung der Kommission bei dem Bemühen, die Open-Data-Community in die Entwicklung von Anwendungen einzubinden und die Nutzung der Datensätze zu fördern.

Für das Projekt ist ein Budget von 800.000 Euro für eine Laufzeit von 38 Monaten vorgesehen. Bewerbungen darum können bis Mitte September eingereicht werden.

Weiter…

Kategorien: Datenpolitik

Die schlaue Parkuhr

Von 15. August 2011 um 10:48 Uhr
parking situation sfpark

Sensoren-Parkplätze: Monatlich wird der Preis für das Parken angehoben oder gesenkt

Parkplätze sind in San Francisco rar und dementsprechend teuer. Ein Tag im Parkhaus kann 30 Dollar und mehr kosten, Parkplätze von Hotels sogar leicht das Doppelte dessen. Das Projekt SFpark will daher die begrenzte Ressource nahezu in Echtzeit organisieren. In sechs Vierteln von San Francisco befinden sich nun im Teer von rund 7.000 Parkplätzen Sensoren. Das sind etwa ein Viertel aller mit Parkuhren ausgestatteten Parkplätze in der Stadt. Diese Sensoren sind mit der Parkuhr gekoppelt, die via Internet bekannt gibt, ob der Platz besetzt oder frei ist.

Die Idee: Gemeldet wird nicht nur ein freier Parkplatz. Je nach registrierter Nachfrage schwankt auch der Preis, der an der Parkuhr zu entrichten ist. “Nachfrage-orientierte Preise ermutigen Fahrer, in weniger genutzten Gegenden sowie Parkhäusern zu parken und somit viel genutzte Gegenden zu entlasten”, heißt es in der Selbstdarstellung. Einmal im Monat wird die Nachfrage in den vorherigen 30 Tagen ermittelt und der Stundenparkpreis dementsprechend angepasst. Die Obergrenze liegt derzeit bei 3,50 Dollar pro Stunde. Er kann allerdings bis auf 6 Dollar steigen und zu besonderer Veranstaltungen, etwa Straßenfesten, kurzfristig bis auf 18 Dollar pro Stunde angehoben werden.

Gleichzeitig steigt die mögliche Parkdauer. Normalerweise darf an Parkuhren in der Stadt zwei Stunden lang ein Auto abgestellt werden. Bei Sensor-Parkplätzen sind es vier Stunden, an einigen ist gar eine unbegrenzte Parkzeit erlaubt. Nicht über die Zeit also soll die Fluktuation geregelt werden, sondern über das Geld.

Weiter…

Kategorien: Datenmessung, Datenprojekt

Open Data Wettbewerb in Russland

Von 18. Juli 2011 um 14:46 Uhr
Fix My Street Variante auf Russisch

Anliegenmanagment: Die russische Variante von FixMyStreet

“Wir sind bereit für solche Aktivitäten in unserem Land”, stellen die russischen Aktivisten fest, die eben den ersten Apps4Russia Wettbewerb gestartet haben. Es geht um mehr oder minder offene Datensätze, die sie selbst zusammengetragen haben. Daraus sollen nützliche Anwendungen entstehen, etwa zum Staatshaushalt, zu Umweltinformationen oder zur städtischen Infrastruktur. Vorbilder sind ähnliche Wettbewerbe aus den USA und diversen europäischen Ländern. Es winken 155.000 Rubel, rund 3.800 Euro Preisgeld.

Es gebe keine Verbindung zur Regierung und es gehe nicht um kommerzielle Interessen, betont Ivan Begtin, einer der Initiatoren. Er erklärt: “Wir haben keine Gesetze wie die Open Government Directive in den USA oder ähnliche Regelungen in der EU. Nur einige wenige Beamte verstehen die Bedeutung des Begriffs ‘Open Data’”.

Das solle sich nun ändern. Gut 300 Datensätzen seien bereits identifiziert, sagt Begtin, die jeder, der teilnehmen möchte, als Grundlage für seine Arbeit nutzen kann. Bis Ende Oktober läuft der Wettbewerb.

Weiter…

Open Data in Afrika

Von um 14:41 Uhr

Open Data Portal Kenia

Vergangene Woche startete die Kenya Open Data Initiative (KODI). Damit hat nach Marokko nun ein zweites afrikanisches Land einen offiziellen, staatlichen Datenkatalog. Er enthält bislang rund 160 Datensätzen aus den Sektoren Bildung, Energie, Gesundheit, Armut sowie Wasserversorgung und Hygiene. Ebenfalls gibt es Zahlen zum Landeshaushalt und einige Geodaten.

Diese Form von Transparenz ist ungewöhnlich für das Land. Derzeit findet sich Kenia am unteren Ende des Korruptionsindex von Transparency International. Wenig verwunderlich, dass der Bedarf nach Informationen groß zu sein scheint: Bereits gut 70 Vorschläge für weitere Veröffentlichungen von Daten sind innerhalb einer Woche eingegangen. Sie reichen von Informationen zum Straßenbau über Wahllisten bis hin zu Landtiteln.

Fraglich ist, inwiefern das Projekt der Bevölkerung nutzt, die zu drei Vierteln keinen Zugang zum Internet hat. Wenn überhaupt, geschieht der über das Mobiltelefon. Handys haben die meisten Kenianer, allerdings eben ohne Internetverbindung.

Das Problem ist bekannt und es gibt schon eine erste Anwendungen, die per SMS Auskunft über demographische und politische Daten aus Open Data generiert.

Ausführliche Hintergrundinformationen finden sich im Artikel “Open government data to fuel Kenya‘s app economy“ von Alex Howard und ebenfalls im Text “Ushahidi welcomes Kenya Open Data Initiative“.

Kategorien: Datenpolitik, Datenquelle