Lesezeichen
 

Weltraum für alle

Der Trend geht wieder zur Marke Eigenbau. Auf Portalen wie Helloetsy oder DaWanda kann man handgemachte Unikate kaufen. Jenseits der Massenware sind Schreibtischlampen aus Heimarbeit, selbstgestrickte Kinderhosen, Geldbörsen aus Recyclingmaterial oder handverzierte Haarspangen die Bestseller. Raketen und Raumschiffe sucht man aktuell noch vergebens. Aber das könnte sich ändern. Denn die Nasa hat auf open.nasa.gov jetzt data.nasa.gov gestartet. Dort kann man unter anderem erfahren, aus welchen Materialien Raketen und Raumschiffe idealerweise gebaut werden sollten.

Die Datenmengen, die die Nasa auf data.nasa.gov ausliefert, sind exorbitant. Allein die Mission Earth Observing System Data and Information System (EOSDIS) hat mittlerweile ein Datenvolumen von drei Petabyte. Das entspricht in etwa der gesamten Datenmenge aller in der amerikanischen Library of Congress gespeicherten Inhalte. Und täglich kommen schlappe vier Terabyte hinzu. Eine weitere Mission, das Solar Dynamics Observatory, produziert täglich mehr als 1,5 Terabyte an Daten. Das sind mal eben knapp 500.000 Songs im MP3-Format.

Um diese Datenmengen erfassbar und einem breiten Publikum zugänglich zu machen, versucht die Nasa die Datensätze nun thematisch zu sortieren. Lagen zahlreiche Datensätze auch bisher auf diversen Nasa-Seiten öffentlich vor, sollen sie durch eine Bündelung im data.nasa.gov-Katalog nun übersichtlicher und zentralisiert aufrufbar sein. In neun Themenbereiche werden die zugänglichen Daten dabei untergliedert. Zu ihnen zählen unter anderem die Bereiche Erdbeobachtung, Aeronautik, Kosmologie, Life Sciences und Engineering.

Bereits 2010 hatte die Nasa im Rahmen der Open Government Initiative diverse Daten auf data.nasa.gov bereit gestellt. Aber erst jetzt können die Schätze systematisch durchsucht werden. An einem Ort. Allerdings sind die Angebote mehr als disparat. So sind manche überhaupt nur nach stundenlanger Recherche zu finden.

Um das Angebot weiterzuentwickeln, bietet data.nasa.gov dem User die Möglichkeit, die Bestände zu kommentieren oder in der Flut entdeckte Daten zu verlinken oder hochzuladen.

Wenn also erste Erfahrungen mit dem Eigenbau von Raumfahrzeugen vorliegen, können sie gerne der Nasa zu weiteren Verwendung übersandt werden.

 

Der Datenhimmel über Berlin

Die maschinenlesbare Stadt, das ist einer der großen Träume der Open Data Bewegung. Denn Städte speichern gewaltige Datenschätze. In Berlin wurde heute ein erster Schritt in diese Richtung unternommen. Seit einigen Stunden ist data.berlin.de online.

18 Datensätzen gehören zur Startausstattung des neuen Portals, das für politische Verhältnisse geradezu in Überschallgeschwindigkeit Realität wurde. Denn es ist erst ein Jahr her, dass die Initiatoren, unter ihnen Daniel Dietrich vom Open Data Network Berlin und Julia Witt von der Senatsverwaltung für Wirtschaft, Technologie und Frauen, beschlossen, nicht nur Ideen zu diskutieren, sondern die konkrete Umsetzung zu wagen.

Die Realisierung so kurz vor den Berliner Wahlen ist bemerkenswert, denn das Thema Open Data war für etliche Politiker vor wenigen Monaten noch eine Black Box. Mittlerweile aber ragen die Fragen nach dem digitalen Staat in nahezu alle Bereiche der öffentlichen Verwaltung. Dass das Thema auch auf der Agenda nahezu aller Parteien im Finale des Berliner Wahlkampfes auftaucht, zeigte gerade erst Lorenz Matzat bei der Auswertung der Wahlprüfsteine für die Interessenvertretung Digitale Gesellschaft. Bis auf die CDU beschäftigen sich alle mit der Frage nach der Umsetzung der maschinenlesbaren Stadt.

Den Mehrwert eines adäquaten Open-Data-Angebots für Städte und ihre Bewohner demonstriert die österreichische Hauptstadt Wien seit einiger Zeit. Auf data.wie.gv.at bietet sie zahlreiche Datensätze an, die mittlerweile zur Umsetzung vieler hilfreicher Applikationen geführt haben (die Toilet Vienna Map als Augmented Reality App ist dabei natürlich ein herausragendes Beispiel). Für die Breite des Angebots wurde der Open-Data-Katalog der Stadt gerade erst mit dem Preis des eGovernment Wettbewerb 2011 Deutschland, Österreich, Schweiz“ prämiert.

Dass data.berlin.de jetzt in Deutschland ans Netz geht, ist in jedem Fall ein Anfang. Auch wenn es gleichzeitig viel Kritik gab. Auf heise.de kritisierte der Open-Data-Entwickler Stefan Wehrmeyer beispielsweise den Umstand, dass nicht alle Datensätze unter einheitlichen CC-Lizenzen erscheinen. Auch die Tatsache, dass einige Datensätze nicht maschinenlesbar sind, wurde bemängelt.

Dennoch muss eines hervorgehoben werden, mit data.berlin.de ist Berlin das erste Bundesland mit einem eigenen Open-Data-Projekt im Netz.

 

„Viele hadern noch mit der Idee Open Data“

Der Begriff Open Data hat eine steile Karriere hinter sich. Vor wenigen Jahren konnten höchstens Insider etwas mit der verheißungsvollen Begriffskombination aus „offen“ und „Daten“ anfangen. Heute sieht das anders aus. Die Bereitstellung von Daten, die beispielsweise von öffentlichen Stellen erhoben wurden, könnte zu neuen Anwendungen führen. Der vielfach geforderte „maschinenlesbare“ Staat würde transparenter und bürgerfreundlicher. So wären zum Beispiel Anwendungen denkbar, die Geldflüsse aus Haushaltsmitteln veranschaulichen.

Aus diesen Gründen interessieren sich auch mittlerweile Kommunen und Unternehmen für das Feld. Selbst in den aktuellen Wahlkämpfen taucht das Thema an der Peripherie auf. Aber wo steht die noch immer junge Open-Data-Bewegung? Welche Perspektiven bieten sich ihr? Und was sind ihre größten Herausforderungen, gerade in Deutschland? Das sind die Themen eines Interviews mit Lorenz Matzat. Seit Oktober 2010 schrieb er im Open-Data-Blog. Jetzt zieht er Bilanz. Denn Lorenz Matzat geht von Bord. Neue Projekte stehen auf seiner Agenda.

Das Interview führte Markus Heidmeier, Autor des Leaks-Blogs hier auf ZEIT ONLINE. Nach dem Abgang von Matzat werden das Leaks-Blog und das Open-Data-Blog im Data-Blog vereint. In ihm wird es künftig um das gesamte Spektrum gehen – von Open Data bis Datenjournalismus.

Markus Heidmeier: Springen wir mal ein paar Jahre zurück. Wie bist Du eigentlich mit dem Thema Open-Data und Datenjournalismus in Berührung gekommen?

Lorenz Matzat: Mit einigen Kollegen habe ich 2009 das Projekt wahlversprechen.info umgesetzt. Eine Plattform, auf der die Zuverlässigkeit von Wahlkampfaussagen beobachtet werden kann, Stichwort Crowdsourcing. In dem Zusammenhang verfolgten wir Barack Obamas Wahlkampf in den USA bei dem die Themen Open Data und Open Government eine Rolle spielten. Ende 2009 gründeten wir dann den Verein Open-Data-Network. Zu diesem Zeitpunkt stieß ich dann auch auf das Datablog des Guardian, das seit Frühjahr 2009 läuft.

Heidmeier: Welche Bedeutung hast Du dem anfangs beigemessen, beziehungsweise welche Erfolgschancen hast Du anfangs für Open-Data Konzepte gesehen? Welche Erwartungen waren mit der Bewegung am Anfang verknüpft?

Matzat: Es war naive Euphorie dabei. Es war alles noch sehr unkonkret und abstrakt. Ein Punkt war aber bereits klar zu erkennen: Hier steckt ein enormes gesellschaftliches, mediales aber auch unternehmerisches Potential. Endlich lässt sich mal etwas Sinnvolles mit dem Internet anfangen jenseits von Shopping und schnellem Informationsaustausch.

Weiter„„Viele hadern noch mit der Idee Open Data““

 

Datenjournalismus ist eine große Chance

msnbc hurricane tracker
Der Hurricane-Tracker von MSNBC dokumentiert jeden Sturm in Echtzeit

Seit vergangenem Jahr ist weitläufig bekannt: Onlinejournalismus kann mit großen Datensätzen eine neue Form der Berichterstattung leisten – Stichwort WikiLeaks. Der so genannte Datenjournalismus oder data-driven-journalism hat nützliche Erzählmethoden hervorgebracht. Der umstrittene Julian Assange spricht auch von „wissenschaftlichen Journalismus“, der sich ausschließlich an der Faktenlage sowie den vorliegenden Daten orientiert und die Meinung sowie Wertung des Autors gänzlich zurücktreten lässt. Und schon 2006 legte der programmierende Journalist Adrian Holovaty aus den USA dar, warum sich Nachrichtenseiten im Netz angesichts der wachsenden Datenmenge fundamental ändern sollten.

Jüngst war zu beobachten, wie sinnvoll Datenjournalismus auch in der tagesaktuellen Berichterstattung sein kann: Während der Hurrikan Irene drohte, New York mit voller Wucht zu treffen, boten einige Onlinemedien in den USA interaktive Visualisierungen an. Diese beruhten auf Open Data der US-Wetterbehörde und boten die Möglichkeit, den voraussichtlichen Weg des Hurrikans vorzuzeichnen. Siehe etwa die New York Times (NYT) oder MSNBC (die jeden Sturm verfolgen). Darüber hinaus bot die NYT eine interaktive Karte mit den Evakuierungszonen und zeigte die Folgen des Sturms für die Region.

Weiter„Datenjournalismus ist eine große Chance“

 

Die britische Regierung bittet um ihre Mithilfe

Kabinettsminister Francis Maude ist die treibende Kraft in der britischen Regierung in Sachen Open Government. Er scheint es ernst damit zu meinen, Regierungshandeln transparenter zu gestalten. Immerhin bittet er die Briten, mit der Regierung zu diskutieren, welche und wie viele Daten veröffentlicht werden sollen. „Es gibt einige Herausforderungen zu bedenken. Eine davon betrifft den Umfang unserer Pläne mit Daten und wir begrüßen ihre Stellungnahme dazu, wie weit wir gehen sollen.“ So schreibt Maude in der Einleitung zu „Making Open Data Real: A Public Consultation„. Die Public Consultation, also die Befragung der Öffentlichkeit hat die die britische Regierung Anfang August gestartet.

Sie bittet die Bevölkerung in sechs Bereichen um Anmerkungen und Einschätzungen zu ihrer Open-Data-Strategie:

  • Inwieweit soll das „Recht auf Daten“ für Individuen, Unternehmer und andere Akteure erweitert werden?
  • Welche Transparenzstandards sind für dieses „Recht auf Daten“ notwendig?
  • Wie können Behörden und Dienstleister der öffentlichen Hand verpflichtet werden, Open Data bereitzustellen?
  • Auf welche Weise wird sichergestellt, dass die nutzbringenstenden Daten erhoben und veröffentlicht werden?
  • Wie kann die interne Arbeitsweise der Regierung und des öffentlichen Sektors mehr „offen“ gestaltet werden?
  • Welche Rolle kann die Regierung dabei spielen, Unternehmenstätigkeit und einen Markt zu stimulieren, der auf Open Data setzt?

Weiter„Die britische Regierung bittet um ihre Mithilfe“

 

Bundesregierung wartet bei Open Government noch ab

logo open government partnership

Schauen wir mal. So lässt sich die Haltung der Bundesregierung gegenüber der internationalen Open Government Partnership zusammenfassen. Diese Initiative von acht Regierungen will offiziell im September eine Deklaration veröffentlichen und die Partnerschaft endgültig auf den Weg bringen.

Die Open Government Partnership (OGP) setzt sich als Ziel, Regierungen darauf zu verpflichten, transparent zu handeln, Bürgerrechte zu stärken, Korruption zu bekämpfen und neue Technologien zum Regieren zu nutzen. In einer „Roadmap“ (pdf) werden detailliert die Anfoderungen für eine Teilnahme an der Partnerschaft beschrieben (deutsche Übersetzung hier, siehe dazu auch unten). So muss in einem potenziellen Teilnehmerland Haushaltstransparenz und Informationsfreiheit herrschen und es müssen Einkünfte von Politikern und hohen Beamten offengelegt, sowie ein gewisser Grad an Bürgerbeteiligung möglich sein.

Angeschoben wurde die Initiative von den Regierungen Brasiliens und der USA. Weiter sind Indonesien, Mexiko, Norwegen, die Philippinen, Südafrika und Großbritannien beteiligt. Dazu gesellen sich neun nationale und internationale Nichtregierungsorganisationen.

Weiter„Bundesregierung wartet bei Open Government noch ab“

 

Open Data kommt nach Hamburg

Eine weitere Großstadt in Deutschland macht sich bereit in Sachen Open Data. Ein SPD-Bürgerschaftsabgeordneter hatte Anfang August an die Landesregierung eine Anfrage gestellt. Hansjörg Schmidt wollte wissen, ob die Stadt schon Open-Data-Angebote mache. Auch interessierte ihn, ob es überhaupt eine Strategie seitens des Senats gäbe. Beispielsweise im Sinne des Standpunktepapiers „Hamburg 2030“ der örtlichen Handelskammer. Schließlich bat er noch um eine Einschätzung, inwieweit Einsparungseffekte durch Open-Data-Nutzung entstehen würden.

Nun liegt die Antwort des Senats vor (pdf). Darin wird festgestellt, dass es bislang an einer einheitlichen Definition von Open Data mangele. Angesichts des allgemeinen Verständnisses des Begriffes aber könnten die meisten von der Stadt bereit gestellten Daten nicht als „offen“ gelten. Da es sich „nicht um Rohdaten und/oder nicht um maschinenlesbare Daten und/oder um kostenlos zur Verfügung stehende Daten handelt“.

Weiter„Open Data kommt nach Hamburg“

 

EU will Open-Data-Portal aufbauen

organigram of data gov uk server architecture
Ausschnitt aus der Server-Architektur von data.gov.uk (laut Shadbolt-Studie, s.u.)

Im April wurde bekannt, dass die Europäische Kommission einen EU-weiten Datenkatalog einrichten möchte. Derzeit sucht sie einen Dienstleister für ein Open-Data-Portal, das im kommenden Jahr starten soll. Der Ausschreibungstext umreißt die Aufgabe wie folgt.

  • Entwicklung und Verwaltung eines Portals im Netz, das als zentraler Einstiegspunkt zu Datensätzen der Europäischen Kommission und anderen EU-Einrichtungen sowie weiterer öffentlicher Institutionen dienen kann (die Software wird als Open Source veröffentlicht). 2013 soll das Portal auch die Datensätze der einzelnen Mitgliedsländer abbilden können.
  • Unterstützung der Europäischen Komission bei der Definition und Umsetzung eines Veröffentlichungsprozesses für besagte Daten (hier wird vor allem die Frage nach Lizenzen und Nutzungsbedingungen entscheidend sein).
  • Unterstützung der Kommission bei der Aufbereitung der Datensätze für die Veröffentlichung im Portal.
  • Unterstützung der Kommission bei dem Bemühen, die Open-Data-Community in die Entwicklung von Anwendungen einzubinden und die Nutzung der Datensätze zu fördern.

Für das Projekt ist ein Budget von 800.000 Euro für eine Laufzeit von 38 Monaten vorgesehen. Bewerbungen darum können bis Mitte September eingereicht werden.

Weiter„EU will Open-Data-Portal aufbauen“

 

Die schlaue Parkuhr

parking situation sfpark
Sensoren-Parkplätze: Monatlich wird der Preis für das Parken angehoben oder gesenkt

Parkplätze sind in San Francisco rar und dementsprechend teuer. Ein Tag im Parkhaus kann 30 Dollar und mehr kosten, Parkplätze von Hotels sogar leicht das Doppelte dessen. Das Projekt SFpark will daher die begrenzte Ressource nahezu in Echtzeit organisieren. In sechs Vierteln von San Francisco befinden sich nun im Teer von rund 7.000 Parkplätzen Sensoren. Das sind etwa ein Viertel aller mit Parkuhren ausgestatteten Parkplätze in der Stadt. Diese Sensoren sind mit der Parkuhr gekoppelt, die via Internet bekannt gibt, ob der Platz besetzt oder frei ist.

Die Idee: Gemeldet wird nicht nur ein freier Parkplatz. Je nach registrierter Nachfrage schwankt auch der Preis, der an der Parkuhr zu entrichten ist. „Nachfrage-orientierte Preise ermutigen Fahrer, in weniger genutzten Gegenden sowie Parkhäusern zu parken und somit viel genutzte Gegenden zu entlasten“, heißt es in der Selbstdarstellung. Einmal im Monat wird die Nachfrage in den vorherigen 30 Tagen ermittelt und der Stundenparkpreis dementsprechend angepasst. Die Obergrenze liegt derzeit bei 3,50 Dollar pro Stunde. Er kann allerdings bis auf 6 Dollar steigen und zu besonderer Veranstaltungen, etwa Straßenfesten, kurzfristig bis auf 18 Dollar pro Stunde angehoben werden.

Gleichzeitig steigt die mögliche Parkdauer. Normalerweise darf an Parkuhren in der Stadt zwei Stunden lang ein Auto abgestellt werden. Bei Sensor-Parkplätzen sind es vier Stunden, an einigen ist gar eine unbegrenzte Parkzeit erlaubt. Nicht über die Zeit also soll die Fluktuation geregelt werden, sondern über das Geld.

Weiter„Die schlaue Parkuhr“

 

Open Data Wettbewerb in Russland

Fix My Street Variante auf Russisch
Anliegenmanagment: Die russische Variante von FixMyStreet

„Wir sind bereit für solche Aktivitäten in unserem Land“, stellen die russischen Aktivisten fest, die eben den ersten Apps4Russia Wettbewerb gestartet haben. Es geht um mehr oder minder offene Datensätze, die sie selbst zusammengetragen haben. Daraus sollen nützliche Anwendungen entstehen, etwa zum Staatshaushalt, zu Umweltinformationen oder zur städtischen Infrastruktur. Vorbilder sind ähnliche Wettbewerbe aus den USA und diversen europäischen Ländern. Es winken 155.000 Rubel, rund 3.800 Euro Preisgeld.

Es gebe keine Verbindung zur Regierung und es gehe nicht um kommerzielle Interessen, betont Ivan Begtin, einer der Initiatoren. Er erklärt: „Wir haben keine Gesetze wie die Open Government Directive in den USA oder ähnliche Regelungen in der EU. Nur einige wenige Beamte verstehen die Bedeutung des Begriffs ‚Open Data'“.

Das solle sich nun ändern. Gut 300 Datensätzen seien bereits identifiziert, sagt Begtin, die jeder, der teilnehmen möchte, als Grundlage für seine Arbeit nutzen kann. Bis Ende Oktober läuft der Wettbewerb.

Weiter„Open Data Wettbewerb in Russland“