Lesezeichen
 

Eine Wikipedia für freie Daten

Prototyp einer Eingabemaske für Wikidata
Prototyp einer Eingabemaske für Wikidata

Die Einwohnerzahl von Berlin ändert sich ständig. Jedes Jahr, wenn die neuen Zahlen veröffentlicht werden, setzt sich ein Wikipedia-Autor an den Eintrag über Berlin und aktualisiert ihn. Allerdings müsste die Zahl in jeder Ausgabe der Wikipedia von Hand geändert werden, von der englischen bis zur turkmenischen. Das soll anders werden, sagt Pavel Richter, Vorstand des Vereins Wikimedia Deutschland.

Ab dem 2. April wird ein Team aus zwölf Entwicklern in Berlin am Projekt Wikidata arbeiten. Es ist der offizielle Startschuss für ein Projekt, über das die Wikipedia-Community jahrelang diskutiert hat. „Wikidata ist die Wikipedia für Daten“, sagt Richter. Ziel ist, eine Datenbank aus strukturierten, frei zugänglichen Informationen zu schaffen, die jeder bearbeiten kann. Davon sollen auch die Wikipedia-Ausgaben in aller Welt profitieren.

Eines der ersten Ziele des Projektes ist es, die Daten in den Infoboxen von Wikipedia-Artikeln über Orte, Staaten oder Personen maschinenlesbar aufzubereiten. Denn so könnte die Datenbank alle Wikipedia-Ausgaben gleichzeitig füttern: Aktualisiert jemand die Einwohnerzahl von Berlin, wird diese Änderungen automatisch in allen Sprachausgaben sichtbar. Für die Editoren wäre das eine spürbare Erleichterung.

Doch Richter sagt, dass das Projekt seines Vereins auch anderen zugute kommen soll: „Wikidata stellt die Daten als Variablen zur Verfügung. Jeder, der sie haben möchte, kann sie für seine Zwecke einbinden.“ So ließen sich dynamische Listen erstellen, etwa der zehn größten Städte der Welt, die von einer Frau regiert werden, die älter ist als… Solche Abfragen könnten beliebig komplex sein, je nach Sinn und Zweck.

Auch Visualisierungen der Daten wären möglich. Das jedoch müssten andere übernehmen, es ist nicht Ziel und Aufgabe des Projektteams. Die zwölf Entwickler programmieren erst einmal nur die Datenbank – als Datenquelle, die ihrerseits sagt, woher die Rohdaten stammen.

Geplant sei, sagt Richter, das Projekt innerhalb eines Jahres in mehreren Modulen umzusetzen. Erste Ergebnisse sollen bereits im Juli oder August präsentiert werden. Schnell folgen müsste aber auch eine Schnittstelle, über die man neue Daten einspeisen kann.

Finanziert wird Wikidata durch Spenden. Wer die ersten namhaften Spender sind, will Wikimedia Deutschland am heutigen Freitag bekanntgeben. Zu den Großspendern gehören das Allen Institute for Artificial Intelligence, das die Hälfte des  Gesamtbudgets von 1,3 Millionen Euro übernimmt, die Gordon and Betty Moore Foundation, die ein Viertel der Entwicklungskosten von Wikidata trägt, sowie Google, das ein weiteres Viertel der Kosten übernimmt.

Neben Geld braucht das Projekt aber noch eine andere Art von Spenden: Datenspenden. Eine leere Datenbank hilft niemandem. Richter sagt, man werde gezielt Institutionen ansprechen, die auf großen Datenbergen sitzen und sie fragen, ob sie diese der Allgemeinheit zur Verfügung stellen könnten.

Es wird also noch dauern, bis die Datenbank von Dritten genutzt werden kann. Für die Open-Data-Bewegung hierzulande ist es aber in jedem Fall ein gutes Zeichen, wenn sich ein so bekannter Verein wie Wikimedia Deutschland um die Förderung von freien Daten bemüht.

Für weitere Informationen lohnt sich ein Blick ins Metawiki zu zum Projekt Wikidata: Dort ist unter anderem ein früher Prototyp einer Benutzeroberfläche zu sehen.

 

Zeitgeschichte in Daten. Wie sich Großbritannien unter der Iron Lady veränderte

Erinnerungen sind nie authentisch. Erfolge und Niederlagen erfahren mit wachsendem zeitlichen Abstand erstaunliche Transformationen. Aus einer unappetitlichen Schmach wird im Laufe der Jahre und Jahrzehnte gerne ein heroisches Scheitern. Aus banalem Tagwerk wird schon mal ein hart errungener Triumph. Kein Wunder also, dass auch politische Retrospektiven immer umstritten bleiben. War Helmuth Schmidt tatsächlich der hellsichtigste unter den deutschen Nachkriegsregierungschefs? Oder ragt nicht doch der ungeliebte Wiedervereinigungskanzler Helmut Kohl für alle Zeiten uneinholbar heraus – Trotz aller Spendenaffären und Familientragödien? Die Deutung derartiger Leistungen wird immer von politischen, sozialen und gegenwartsgeprägten Standpunkten aus vorgenommen – und bleiben dementsprechend Interpretationen.

Es verwundert also nicht, dass die Bemühungen wachsen, auch die Analyse zeitgeschichtlicher Ereignisse mit Hilfe von Datenkorrelationen und Datenanalysen zu objektivieren. Wir sprachen an dieser Stelle beispielsweise schon von neuen Formen der Geschichtsschreibung unter dem Schlagwort Data Driven History. Gemeint ist der Versuch, durch die Auswertung historischer Datensätze etablierte Geschichtsbilder zu vervollständigen oder im besten Fall sogar zu erschüttern. Die Auswertungsstrategien erstrecken sich dabei von der Korrelation der Zahl historischer Fundstellen oder Umfang der Funde prähistorischer Artefakte bis hin zu sprachanalytischen Auswertungen von Begriffskonjunkturen in Dokumenten zurückliegender Jahrhunderte.

Das Data Blog des britischen Guardian hat sich nun mit den Spuren beschäftigt, die die Iron Lady, Margaret Thatcher, im Vereinigten Königreich hinterließ. Das Ganze ist natürlich streng datenbasiert. Anlass ist der Start des Kinofilms The Iron Lady, in dem Meryl Streep die mittlerweile an Demenz erkrankte Margaret Thatcher darstellt. Die Produktion hatte in Großbritannien für heftige Debatten gesorgt. Neben der Frage, ob es angemessen ist, ein sogennantes Biopic, also die Verfilmung einer Lebensgeschichte, über Sein und Wirken einer lebende Persönlichkeit zu produzieren, die sich vermutlich nicht mehr mit all ihren geistigen Kräften zur Wehr setzen kann, ist die Bewertung zurückliegender politischer Leistungen Kern der gesellschaftlichen Auseinandersetzung.

Keine Wunder also, dass der Guardian bemüht war, die Leistungen der ehemaligen Regierungschefin mit neuen Methoden sichtbar zu machen beziehungsweise in Frage zu stellen. In einer ganzen Reihe von Infografiken zeigt das Data Blog Team des Guardian, wie sich Großbritannien in der Regierungszeit Margaret Thatchers veränderte. Zu den interessantesten Visualisierungen der Vergangenheit gehören dabei unter anderem Darstellungen der Heirats- und Scheidungsquote. Während die Zahl der Trennungen mehr oder weniger konstant blieb, weist die Statistik einen eindeutigen Rückgang an Hochzeiten auf. Das führt umgehend zu weiteren Fragen: Ist der Regress auf die abschreckende Wirkung der Eisernen Lady auf heiratswillige Männer zurückzuführen oder einfach nur eine Erscheinung der zunehmend unverbindlicheren Lebensstile in einer post- oder sogar postpostmodernen Gesellschaft?

 

 

Die Arbeitslosenquote wiederum besitzt eine ganz eigene Dramaturgie. In den knapp eineinhalb Jahrzehnten ihrer Regentschaft konnte Margaret Thatcher alles vorweisen, was man Politikern vorwirft oder wofür man ihnen typischerweise dankt. Erst ging die Quote der Erwerbslosen dramatisch nach oben, dann wieder dramatisch nach unten. Bleibt also die Frage, wie groß das Verdienst beziehungsweise das Verschulden ist.

 

Ein eher wirres Bild zeigt die Visualisierung der Konjunkturdaten. Die Ausschläge sind stark. In beide Richtungen.

 

 

Die Preisentwicklung, insbesondere die Immobilienpreise, dagegen sprechen eine eindeutige Sprache. Ihr Anstieg ist steil, sehr steil. Nicht gerade das, was sich Mieter und Häuslebauer wünschen. Aber natürlich ideal für all jene, die schon Grund und Haus beziehungsweise Häuser besitzen.

 

 

Klar wird also anhand dieser Beispiele, das alles weiter unklar ist – trotz der Anschaulichkeit der Vergangenheit durch Datenvisualisierung. Die Bewertung politischer Leistungen ist weiter Interpretationssache. Jede Statistik, jede Infografik, jede Visualisierung ist nur soviel wert, wie der Kontext in dem sie auftaucht oder das Wissen, in dessen Licht der Betrachter sie einordnet. Die Wahrheit wird dauerhaft umstritten bleiben. Auch im Zeitalter von Big Data.

 

 

 

 

 

Neue Open-Data-Strategie: Öffentliche Goldmine. EU will schlafenden Schatz von 40 Milliarden Euro heben

Nein, er war nicht dabei. Diesmal jedenfalls nicht. Aber es ging ja auch nicht um so aufmerksamkeitsträchtige Themen wie den Schutz verfolgter Online-Dissidenten in totalitären Regimen. Kein Kampf für die Verfolgten dieser Erde. Keine Schlagzeilen als Retter in der Not. Kein mediales Greenwashing des talentierten Freiherrn zu Guttenberg. Es ging nur um spröde Daten. Die liegen nach Angaben der EU-Kommissarin für die Digitalstrategie des Staatenbundes, Neelie Kroes, in den umfangreichen Archiven und den gewaltigen Datenbanken der öffentlichen Verwaltungen der Europäischen Union. Dort warten sie nun geradezu darauf, von der Öffentlichkeit entdeckt zu werden. Die Rede ist von der Nutzung öffentlicher Daten als Goldmine. So betitelte das Ressort der EU-Kommissarin in dieser Woche die Ankündigung einer neuen Open-Data-Strategie der Europäischen Union.

Die mit dieser neuen Strategie verknüpften wirtschaftlichen Hoffnungen sind alles andere als bescheiden. Ein schlafender Schatz im Wert von 40 Milliarden Euro (in Zahlen: 40.000.000.000) soll den strapazierten Ökonomien des Kontinents neuen Schwung verpassen. Die Vorgehensweise orientiert sich unter anderem an Frankreich und Großbritannien, die seit einiger Zeit positive Erfahrungen mit dem Angebot eigener Open-Data-Portale machen. In Großbritannien ist data.gov.uk bereits seit Jahren öffentlich und auch data.gouv.fr erfreut sich in Frankreich eines regen Interesses. Aus drei Teilen besteht nun die Strategie der EU:

Erstens wird die Kommission mit gutem Beispiel vorangehen und der Öffentlichkeit ihre Informationsschätze kostenlos über ein neues Datenportal zugänglich machen. Zweitens werden überall in der EU gleiche Wettbewerbsbedingungen in Bezug auf offene Daten geschaffen. Drittens werden für diese neuen Maßnahmen 100 Millionen Euro bereitgestellt, die im Zeitraum 2011–2013 für Forschungsarbeiten zu besseren Technologien im Umgang mit diesen Daten ausgegeben werden sollen.

Gerade die Forschung und Entwicklung neuer Technologien dürfte entscheidend für den Erfolg der Strategie sein. Zuletzt hatte Viktor Meyer-Schönberger auf die großen Defizite der Open-Data-Bewegung hingewiesen (Link zum PDF der Meyer Schönberger Studie: Participation and Power Intermediaries of Open Data; ein Interview dazu in Kürze). Seines Erachtens mangelt es vor allem an konzertierten Aktivitäten staatlicher und freier Akteure. Außerdem fehlen die Masterpläne, um wichtige Handlungsfelder systematisch zu erschließen, und es müssten größere Anreize geschaffen werden, um innovative Projekte umzusetzen.

Nun kommt es zunächst darauf an, dass die spärlichen 100 Millionen Euro Entwicklungsbudget auf dem Weg zu den Entwicklerteams und Projektplanern in ganz Europa nicht in den Verwaltungen versickern. Es wäre nicht das erste Mal.

 

Daten und Orte. Die Berliner Ausgabe des internationalen Open Hackday beschäftigt sich mit Geodaten

„Die Koalition wird die Open-Data-Initiative des Landes fortsetzen und ausbauen. Dazu setzt sie sich für eine Prüfung der weitgehenden Offenlegung von öffentlichen Daten (z. B. Geoinformationsdaten) unter Wahrung des persönlichen Datenschutzes ein.“

Mit diesem Zitat aus dem Koalitionsvertrag zwischen SPD und CDU in Berlin lädt ein Artikel im Blog der Open Knowledge Foundation Deutschland zum morgigen Berliner Open Data Hackday ein. (Hier gibt es den Koalitionsvertrag übrigens als PDF). Der Berliner Hackday ist die deutsche Ausgabe des International Open Data Hackathon, der am 3. und 4. Dezember weltweit stattfindet.

Zentren des internationalen Hackathon sind unter anderem in Kanada und Brasilien, weil der Hackathon maßgeblich von dem im kanadischen Vancouver tätigen Open Data Aktivisten David Eaves und der brasilianischen Transparência Hacker Bewegung ins Leben gerufen wurde, sagt Daniel Dietrich. Er ist einer der führenden Köpfe der Open Knowledge Foundation Deutschland.

Nach dem es zuletzt vielfach Kritik an einem Erlahmen der Open Data Bewegung gegeben hatte, wird der weltweite Open Data Hackday zeigen, wie vital die Open-Data-Initiativen in vielen Ländern sind, so Dietrich weiter. Vorbilder des internationalen Open-Data-Events waren die erfolgreichen Music Hackdays der letzten Jahre.

Der Berliner Open-Data-Hackday soll vor allem Akteure der Szene versammeln. Denn aktuell ist nichts wichtiger, als die Kreativen immer wieder zu neuen Teams zusammenzuführen, um möglichst rasch weitere Anwendungen zu entwickeln, die die Relevanz und alltägliche Anwendbarkeit von Open Data zeigen (Der www.opendata-showroom.org liefert übrigens zahlreiche Beispiele bereits vorhandener Applikationen). Um dem Community-Building-Ereignis, so Dietrich, endlich auch eine klare Kontur zu geben, wird der Berliner Open Hackday in diesem Jahr auch ein Leitthema haben. Es geht um Open Data Anwendungen, die mit Geodaten arbeiten. Deshalb lädt die Open Knowledge Foundation auch wie folgt ein:

... zum Open Data Hackday am 03. und 04. Dezember 2011 in Berlin. Wir wollen jeweils den ganzen Tag von 10 Uhr – bis 19 Uhr hacken und uns dabei vor allem die Daten des FIS-Brokers anschauen. Diese können natürlich nach belieben mit anderen Datensätzen z.B. aus dem Berliner Datenportal daten.berlin.de oder dem Katalog für offene Daten www.offenedaten.de oder anderen Fundstellen kombiniert werden….

Im Berliner Stadtteil Kreuzberg wird ab morgen und am Sonntag ab 10 Uhr gehackt, was das Zeug hält. Wer Hackern schon immer mal bei der Arbeit zu sehen wollte oder eigene Fähigkeiten mit denen anderer verbinden möchte, sollte sich in den Hallen von Co-Up einfinden.

 

Datenprojekt macht die versteckten Milliarden der EU sichtbar

Die Europäische Union ist ein Monstrum. Hunderte Behörden hat sie, Tausende Gremien und mindestens zehntausend unterschiedliche Normen für das Gewicht von Bananen, für die Wärmedämmungen von Hausfassaden oder für Schallschutzbestimmungen von Schwerlastzügen. Neben diesen ungezählten Verordnungen und Richtlinien gibt es mindestens ebenso viele Förderprogramme und Subventionstöpfe.

So jedenfalls die allgemeine Wahrnehmung. Die ist nicht ganz falsch, wie der Strukturfonds zeigt, eines der wichtigsten Instrumente europäischer Planungs- und Steuerungspolitik. Allein der Strukturfonds setzt sich aus fünf Unterfonds zusammen, die so attraktive Titel tragen wie Regionalfonds EFRE inklusive Interreg IV oder Landwirtschaftsfonds ELER inklusive Leader. So etwas kann durchaus von der näheren Beschäftigung abschrecken. Doch beträgt das Gesamtbudget des Strukturfonds mehr als 45 Milliarden Euro. Das ist zu gewaltig, als dass Datenjournalisten diesen Fonds ignorieren sollten.

Was sie natürlich auch nicht tun. So arbeitet Celainn Barr an einem Projekt, dass eben jenen Strukturfonds systematisch untersuchbar macht. Barr arbeitet unter anderem für die britische Non-Profit-Organisation Bureau of Investigative Journalism in London. Als Teil eines Teams des Bureau of Investigative Journalism entwickelte sie das Werkzeug in Kooperation mit der Financial Times.

Eine der eher unerfreulicheren Erkenntnisse: Der Missbrauch von EU-Geldern durch die italienische ‘Ndrangheta ist keine Seltenheit. Millionen gingen an sie. Überhaupt gibt es gelegentlich seltsame Empfänger von europäischen Fördergeldern, beispielsweise die Konzerne Coca-Cola, British American Tobacco und IBM. Andere Projekte, die durchaus sinnvoll erscheinen, wurde wie eine spanische Meerwasser-Entsalzungsanlage gefördert und gebaut, aber nie in Betrieb genommen.

Die EU-Kommission begrüßte das Projekt. Kommissar Johannes Hahn erklärte, die Untersuchung sei ein Beitrag zur öffentlichen Debatte über die europäische Förderpolitik. Zum Thema ungewollte Förderung der Mafia äußerte er sich nicht.

 

Open Data kommt nach Hamburg

Eine weitere Großstadt in Deutschland macht sich bereit in Sachen Open Data. Ein SPD-Bürgerschaftsabgeordneter hatte Anfang August an die Landesregierung eine Anfrage gestellt. Hansjörg Schmidt wollte wissen, ob die Stadt schon Open-Data-Angebote mache. Auch interessierte ihn, ob es überhaupt eine Strategie seitens des Senats gäbe. Beispielsweise im Sinne des Standpunktepapiers „Hamburg 2030“ der örtlichen Handelskammer. Schließlich bat er noch um eine Einschätzung, inwieweit Einsparungseffekte durch Open-Data-Nutzung entstehen würden.

Nun liegt die Antwort des Senats vor (pdf). Darin wird festgestellt, dass es bislang an einer einheitlichen Definition von Open Data mangele. Angesichts des allgemeinen Verständnisses des Begriffes aber könnten die meisten von der Stadt bereit gestellten Daten nicht als „offen“ gelten. Da es sich „nicht um Rohdaten und/oder nicht um maschinenlesbare Daten und/oder um kostenlos zur Verfügung stehende Daten handelt“.

Weiter„Open Data kommt nach Hamburg“

 

Open Data in Afrika

Open Data Portal Kenia

Vergangene Woche startete die Kenya Open Data Initiative (KODI). Damit hat nach Marokko nun ein zweites afrikanisches Land einen offiziellen, staatlichen Datenkatalog. Er enthält bislang rund 160 Datensätzen aus den Sektoren Bildung, Energie, Gesundheit, Armut sowie Wasserversorgung und Hygiene. Ebenfalls gibt es Zahlen zum Landeshaushalt und einige Geodaten.

Diese Form von Transparenz ist ungewöhnlich für das Land. Derzeit findet sich Kenia am unteren Ende des Korruptionsindex von Transparency International. Wenig verwunderlich, dass der Bedarf nach Informationen groß zu sein scheint: Bereits gut 70 Vorschläge für weitere Veröffentlichungen von Daten sind innerhalb einer Woche eingegangen. Sie reichen von Informationen zum Straßenbau über Wahllisten bis hin zu Landtiteln.

Fraglich ist, inwiefern das Projekt der Bevölkerung nutzt, die zu drei Vierteln keinen Zugang zum Internet hat. Wenn überhaupt, geschieht der über das Mobiltelefon. Handys haben die meisten Kenianer, allerdings eben ohne Internetverbindung.

Das Problem ist bekannt und es gibt schon eine erste Anwendungen, die per SMS Auskunft über demographische und politische Daten aus Open Data generiert.

Ausführliche Hintergrundinformationen finden sich im Artikel „Open government data to fuel Kenya‘s app economy“ von Alex Howard und ebenfalls im Text „Ushahidi welcomes Kenya Open Data Initiative„.

 

Weltrisikobericht – Probleme durch Umweltgefahren

Interaktive Karte zur Verletzlichkeit von Ländern durch Umweltgefahren

Wie anfällig sind Länder für Probleme durch Umweltgefahren? Darauf versucht der erste Weltrisikobericht, der gestern in Bonn vorgestellt wurde, eine Antwort zu geben. Der 70-seitige Report ist ein Gemeinschaftswerk mehrerer entwicklungspolitischer Organisationen unter dem Dach „Entwicklung Hilft“ sowie der Universität der Vereinten Nationen. Die unterhält in Bonn das Institut für Umwelt und menschliche Sicherheit (UNU-EHS)

Der Bericht steckt voller Karten und Daten. Erfreulicherweise wurde ein Teil der Informationen gleich als Datensatz veröffentlicht (allerdings nicht als Open Data unter einer Lizenz wie Creative Commons).

Die interaktive Karte oben basiert auf dem Rohdatensatz zu allen Ländern (xls). Sie zeigt den Vulnerabilitätsindex“, der sich aus folgenden Indikatoren zusammensetzt:

  • Die Anfälligkeit gegenüber Umweltkatastrophen wie Wirbelstürme oder Überschwemmungen.
  • Mangel an Bewältigungskapazitäten des jeweiligen Landes bei akuten Geschehen
  • Anpassungskapazität: Inwieweit ist das jeweilige Land in der Lage, sich strukturell zu ändern, um auf Dauer weniger verletzlich zu sein.

Hier geht es zu einer größeren Karte mit mehr Ansichtsoptionen.

 

Hätte das Netz bei der Suche nach Ehec helfen können?

krankheiten weltweit monitoring
healthmap.org bietet einen Überblick über akute Epidemien weltweit

Die Zahl der Ehec-Neuerkrankungen wird glücklicherweise geringer. Die Suche nach der Quelle und den Ausbreitungswegen aber ist noch immer nicht beendet. Stellt sich die Frage: Hätten Methoden wie Open Data und Crowdsourcing helfen können, das Krisenmanagement der Bundesregierung und der zuständigen Behörden zu verbessern?

Tatsächlich haben Wissenschaftler auf eben diese Verfahren gesetzt: Das medizinische Universitätszentrum Hamburg-Eppendorf veröffentlichte mittlerweile zusammen mit dem BGI-Shenzhen die Analysedaten des Bakterium-Genoms als Public Domain – also ohne Einschränkungen durch eine Lizenz. Dadurch können Mediziner weltweit sich ohne Probleme an der Untersuchung des betreffenden Strangs von Ehec beteiligen.

Weiter„Hätte das Netz bei der Suche nach Ehec helfen können?“

 

„Verkehrsunternehmen sollten Fahrplandaten öffnen“

Stefan Wehrmeyer über Nahverkehrsdaten,
Berliner Gazette (Creative Commons | sa | by | nc)

Stefan Wehrmeyer studiert in Potsdam am Institut für Softwaresystemtechnik. Sein Projekt Mapnificent stellt Fahrpläne zahlreicher Städte weltweit dynamisch auf einer Karte dar; vor kurzem appellierte er an die Berliner und Brandenburger Nahverkehrsbetriebe, ihre Fahrplandaten zu öffnen. In der Simulation TransitPulse gibt Wehrmeyer einen Ausblick darauf, was mit solchen Informationen möglich wäre.

Herr Wehrmeyer, Sie versuchen seit einiger Zeit, Verkehrsunternehmen zu bewegen, ihre Fahrpläne über offene Schnittstellen anzubieten. Wie ist die Resonanz?

Stefan Wehrmeyer: Die Resonanz derjenigen, die am Nahverkehr interessiert sind, war sehr positiv. Die Forderung nach offenen Fahrplandaten leuchtet den meisten ein. Nur die Verkehrsunternehmen selbst reagieren eher reserviert.

Speziell in Berlin scheint es Probleme zu geben. Worum geht es dabei?

Wehrmeyer: Der Verkehrsbund Berlin Brandenburg (VBB) reagierte auf den Appell mit Unverständnis: die Daten seien doch da, man müsse nur fragen. Allerdings gab es keinen Bereich auf der Website der Berliner Verkehrsbetriebe (BVG) oder des VBB, der überhaupt die Herausgabe von Daten an Entwickler erörtert. Der VBB hat nun eine Seite für Entwickler angelegt und das ist ein guter erster Schritt. Die dort veröffentlichten Bedingungen schränken aber leider die Nutzung sehr ein.

Was stört Sie an den Nutzungsbedingungen?

Wehrmeyer: Mich stört einiges. Zum Beispiel, dass die Daten nicht unter einer freien Lizenz veröffentlicht werden. Auch die Verknüpfung mit anderen Daten, ein sogenanntes Mashup, muss explizit erlaubt werden. Die Erhebung statistischer Daten zur Qualität des Nahverkehrsangebots ist gleich ganz verboten. Außerdem ist in den Bedingungen die Rede von Geheimhaltung, von Wirtschaftsprüfung und von Prüfung von Sicherheitssystemen. Da hat es die Rechtsabteilung definitiv zu gut gemeint. Durch solche Bedingungen steigt die Hürde enorm, etwas mit den Daten zu erstellen. Auf Nachfrage beteuerte der VBB, alles nicht so strikt zu meinen, aber leider lesen sich die Nutzungsbedingungen wie ein Knebelvertrag.

Weiter„„Verkehrsunternehmen sollten Fahrplandaten öffnen““