Lesezeichen
 

Wir hängen an der Wasserflasche

Die Deutschen lieben Mineralwasser. Nicht nur, dass sie zu den größten Konsumenten weltweit gehören; der Durchschnittsdeutsche trinkt auch viel mehr abgefülltes Wasser als früher. Noch im Jahr 1970 lag der jährliche Verbrauch pro Kopf bei rund 13 Litern Mineral- und Heilwasser. Mittlerweile hat sich die Menge verzehnfacht. Hinzu kommt ein Pro-Kopf-Verbrauch von gut fünf Litern Quell- und Tafelwasser.

Womöglich ist der Verbrauch derart angestiegen, weil man sich mit steigendem Wohlstand lieber abgefülltes Mineralwasser gönnt, statt schnödes Trinkwasser aus der Leitung zu zapfen. Dabei ist dessen Qualität mindestens genauso gut, sagen Verbraucherschützer – und Leitungswasser kostet auch viel weniger. Zwischen den Bundesländern gibt es allerdings große Unterschiede, wie die Grafik zeigt. In Bayern, Hamburg, Niedersachsen und Schleswig-Holstein war Leitungswasser im Jahr 2010 besonders günstig, im Saarland, Sachsen und Thüringen besonders teuer.

Unter den abgefüllten Wässern ist Mineralwasser der absolute Favorit der Konsumenten. Das Gesetz definiert genau, wann ein Wasser als Mineralwasser verkauft werden darf. Es muss aus unterirdischen, vor Verunreinigung geschützten Wasservorkommen stammen und darf laut Gesetz fast gar nicht verändert werden. Die Abfüller dürfen es filtern, belüften, ihm Kohlensäure entziehen oder hinzufügen. Um als „Natürliches Mineralwasser“ gehandelt zu werden, braucht ein Wasser zudem eine amtliche Anerkennung.

Heil- und Quellwasser stammen ebenfalls aus unterirdischen Quellen. Doch während Heilwasser als Arzneimittel gilt, besonders mineralstoffreich sein muss und seine gesundheitsfördernde Wirkung sogar wissenschaftlich belegt sein muss, sind die Anforderungen an Quellwasser weniger streng. Tafelwasser ist im Gegensatz zu den anderen Wässern kein Naturprodukt, sondern kann auch vom Hersteller zusammengemischt werden, etwa aus Leitungswasser, Mineralwasser, Sole, Kochsalz oder Meersalz und weiteren Zusatzstoffen.

Besonders beliebt sind Mineralwässer mit wenig Kohlensäure und stille Wässer ohne und mit Geschmack. Ihr Absatz hat in den vergangenen Jahren stark zugenommen, während der Verkauf von Sprudelwasser hingegen leicht sank. Auch Erfrischungsgetränke auf Mineralwasserbasis verkaufen sich gut. Fassbrause sei der neue Trend, sagt der Mineralwasserverband, obwohl sie „eigentlich auf eine lange regionale Tradition zurückblicken“ könne.

Den Branchenvertretern zufolge gibt es in Deutschland über 500 verschiedene Mineralwässer aus regionalen Brunnen. Die Karte zeigt: Ein beträchtlicher Teil der Wässer wird auch regional vermarktet. Besonders hoch ist die Quote in Nord- und Ostdeutschland. Allerdings ist die Größe der vom Branchenverband ausgewiesenen Gebiete sehr unterschiedlich, und gerade der Norden und Osten fallen besonders groß aus. Gut möglich, dass unter den dort gehandelten und in der Statistik als „regional“ ausgewiesenen Mineralwässern auch solche sind, die über weite Strecken transportiert werden – beispielsweise von Südthüringen nach Berlin. Auffällig ist dennoch, dass ausgerechnet Bayern als relativ großes Flächenland den geringsten Absatzanteil an regionalen Wässern aufweist.

Nur wenige der deutschen Abfüller verkaufen ihr Wasser dem Verband zufolge international. Ebenso wird nur wenig des hier konsumierten Wassers aus dem Ausland eingeführt. Der Importanteil am Umsatz mit Mineral- und Heilwasser, gemessen in Litern, liegt seit Jahren relativ konstant zwischen acht und neun Prozent. Die Wässer, die wir einführen, kommen allerdings auch aus exotischen Gegenden. Aus den Einfuhrdaten des Bundesamtes für Statistik geht beispielsweise hervor, dass der Löwenanteil an importiertem Mineralwasser ohne Kohlensäure aus Frankreich kommt. Aber eine kleine Menge, vermutlich hochpreisiges Luxus-Wasser , stammt von den Fidschi-Inseln. Auch aus Norwegen, Russland, den USA, selbst aus den Vereinigten Arabischen Emiraten und Saudi-Arabien wird Mineralwasser ohne Kohlensäure nach Deutschland importiert. Ob das Wasser auch in der Wüste abgefüllt wurde, verrät die Statistik freilich nicht.

Importiertes kohlensäurehaltiges Mineralwasser kommt überwiegend aus Italien, das Tafelwasser aus den Niederlanden. Gezuckertes Import-Wasser, das nicht unbedingt Mineralwasser sein muss, aber sein kann, stammt vor allem aus Frankreich, Österreich, Dänemark und der Türkei. Und schließlich gibt es noch eine Kategorie von Importwasser, die Mineralwasser ausdrücklich ausschließt, aber Eis und Schnee mit einbezieht. Für solches Wasser sind die Niederlande unser größter Lieferant. Aber winzige Mengen kommen auch aus der Wüste der Vereinigten Arabischen Emirate, von den weit entfernten Salomonen – und sogar aus der Antarktis.

 

ZEIT ONLINE startet eine Text-API

Namen, die in Texten von Zeit und Zeit Online vorkommen, sortiert nach ihrer Häufigkeit

ZEIT ONLINE hat ab sofort eine Content-API. Klingt langweilig? Nun, es kommt sehr darauf an, was andere daraus machen. Eine API ist ein Zugang, eine Möglichkeit, bestimmte Informationen automatisiert abzufragen. Auf der Seite http://developer.zeit.de/ findet sich nun eine solche API und sie ist der Zugang zu allen Texten, die in der ZEIT (seit 1946) und bei ZEIT ONLINE (seit 1996) erschienen sind.

Dank dieser Schnittstelle kann nun jeder alle Texte mit Hilfe von Programmen durchsuchen und analysieren. Eine REST-API gibt Metadaten wie Autor, Kategorien oder Schlagworte aus. In der Beta-Version der API ist es aus rechtlichen Gründen leider nicht möglich, auch den Volltext auszugeben und zu speichern. Aber wer ein Projekt plant, für das die Übernahme des Volltextes von Artikeln nötig ist, kann unter api@zeit.de jederzeit Kontakt aufnehmen.

Warum tun wir das? Wir glauben, dass in den hunderttausenden Artikeln noch viele spannende Informationen verborgen sind. Örtliche oder inhaltliche Zusammenhänge, Zeitbezüge – durch eine Verknüpfung können Dinge sichtbar werden, die beim einfachen Lesen nicht unbedingt zutage treten.

Beispielsweise durch Visualisierungen. Oder durch Langzeitbeobachtungen. Wie oft tauchte der Begriff „China“ in den vergangenen 66 Jahren in unseren Texten auf? Und in welchen Zusammenhängen? Wie hat sich also das China-Bild der Redaktion und vielleicht also auch das deutsche China-Bild in dieser Zeit gewandelt?

Die automatisierte Abfrage stellt die Technik bereit, um solche Informationen finden zu können. Nun braucht es nur noch Fragen.

Anwendungen und Visualisierungen, die aus der Arbeit mit der API entstehen, sammeln wir auf dieser Seite. (Nachtrag: Was natürlich bedeutet, dass wir uns über jeden freuen, der uns das Ergebnis seiner Arbeit zeigt.)

Die Bedingungen, unter denen die Nutzung der Schnittstelle möglich ist, finden Sie hier.

Informationen über die weitere Arbeit an der API finden sich nebenan, im Entwicklerblog von ZEIT ONLINE.

 

Wo wird in Deutschland rechtsextrem gewählt?

In den ostdeutschen Bundesländern breiten sich rechtsextreme Ansichten laut einer aktuellen Studie der Friedrich Ebert Stiftung massiv aus. Das war die zusammenfassende Lesart in der Berichterstattung über diese Studie. Aber wie schaut es bundesweit mit Wählerstimmen für rechtsextreme Parteien aus? Ist es wirklich in erster Linie ein Phänomen in Ostdeutschland? Eigentlich zunächst nur als Fingerübung in einem internen ZEIT ONLINE Workshop zum Thema Kartenvisualisierungen gedacht, sind wir dieser Frage nachgegangen. Aus Gründen der Vergleichbarkeit boten sich Daten der Bundestagswahl 2009 an. Gregor Aisch steuerte für den Testlauf einen Datensatz bei, der die Ergebnisse auf Wahlkreisebene auch für die kleinen Parteien enthält (im Wahlatlas des Bundeswahlleiters werden diese leider nicht aufgeführt). Im nächsten Schritt wurden daraus die Zweitstimmenanteile der rechtsextremen Parteien NPD, DVU und REP auf einer Karte visualisiert. Je nach Höhe des Stimmenanteils zeigen die Farbintensitäten der Wahlkreise sehr deutlich, wo diese Parteien bereits 2009 die meisten Wählerstimmen sammeln konnten. Die traurigen Höchstwerte erreichen übrigens die ostdeutschen Wahlkreise Sächsische Schweiz – Osterzgebirge und Görlitz mit jeweils 5,9 Prozent.

Realisiert wurde diese Karte mit karthograph.js, eine von Gregor Aisch entwickelte JavaScript Bibliothek. Sie ermöglicht es, interaktive Karten unabhängig von Google-Maps oder anderen – meist mit Details überladenen – Kartenlösungen zu realisieren. Basierend auf den beiden JavaScript-Frameworks jQuery und Raphaël werden SVG-Files (vektorbasierende Grafiken) eingelesen und gerendert. Die Lösung läuft komplett Client-basiert, jedoch werden die Karten initial von einem Python-Script generiert (im vorliegenden Beispiel ist das Shapefile der Wahlkreise des Bundeswahlleiters die Kartengrundlage). Anschließend lassen sich die Karten direkt in die eigene Seite einbauen und mit CSS stylen. Im Workshop mit Gregor Aisch haben wir uns in der ZEIT ONLINE Entwicklungsredaktion vom Potential des noch jungem Tools überzeugt und werden es gerade im Hinblick auf datenjournalistische Projekte einsetzen.

 

Nate Silver zeigt die Macht der Algorithmen

Der politische Taschenrechner, das Blog von Nate Silver

Wenn Nate Silver fragt „Willst du mit mir wetten?“, sollte man nicht lange überlegen. Die einzig logische Antwort kann nur „Nein! Auf keinen Fall!“ lauten. Der Statistik-Guru, dessen Blog FiveThirtyEight die New York Times vor zwei Jahren eingekauft hat, kennt seine Chancen – zumindest, wenn genügend Daten vorliegen.

Wie bei den US-Präsidentschaftswahlen: Silver lag schon 2008 mit seinen Prognosen sehr nah an den Ergebnissen. Diesmal waren sie so genau, dass kein Zweifel mehr an seinen Methoden bleibt. War er in der Woche zuvor noch als Magier belächelt oder sogar verspottet worden, wird er nun als solcher gefeiert. Silver tingelt durch Talkshows, sein im September erschienenes Buch schnellt in den Bestenlisten nach oben. Für jemanden, der so viel Zeit mit Zahlen verbringt, dessen Weg mit der Analyse von Baseball-Statistiken begann, steht er verdammt weit vorn im Rampenlicht.

Kritik hatte er sich vor allem von konservativer Seite eingefangen: Silver sah Obama seit Langem als Favoriten der Wahl, also musste ja irgendetwas nicht stimmen. Provoziert hatte er die Angriffe noch durch eine 1.000-Dollar-Wette mit Fernsehmoderator Joe Scarborough auf eine Wiederwahl des Präsidenten; das Geld des Verlierers sollte Hurrikan-Opfern zugute kommen. Nach einem Rüffel aus der Times-Chefetage spendete er schließlich ohne Wette 2.538 Dollar an das Rote Kreuz. Am Ende aber musste selbst einer seiner größten Kritiker, der Blogger Dean Chambers, zugeben: „Nate Silver hatte recht, und ich lag falsch.“

Dabei ist Silvers Methode alles andere als ein magisches Orakel, sondern mit harter Wissenschaft unterfüttert. Wie genau das Team von FiveThirtyEight mit den Daten umgeht, bleibt zwar selbstverständlich ein Geheimnis. Wäre die Formel hinter den Vorhersagen bekannt, könnte ja jeder zum selben Ergebnis kommen. Doch hinter den Algorithmen steckt eine Reihe von Überlegungen, die völlig nachvollziehbar sind.

Bauchgefühl gegen Statistik

Einen wichtigen Teil der Datenbasis etwa machen die unzähligen Wahlumfragen aus, die regelmäßig zu erstaunlich unterschiedlichen Ergebnissen geführt haben. Man kennt das Spiel: Wer eine bestimmte Botschaft stützen will – etwa „Der Trend spricht für Mitt Romney/Barack Obama“ –, der sucht sich aus diesem Angebot eben das Passende aus.

Ein Weg, die Ausschläge nach oben oder unten einzudämmen, ist schlicht, einen Durchschnitt zu bilden. Doch Silver und sein Team gehen noch einige Schritte weiter. Ihr Modell gewichtet zunächst die einzelnen Umfragen unterschiedlich, beziehungsweise versucht, deren ideologisch oder strukturell begründete Abweichungen von einem repräsentativen Ideal herauszurechnen – gemessen vor allem an deren bisheriger Treffsicherheit. Neuere Umfragen erhalten zudem größeres Gewicht. Darüber hinaus zieht Silver noch andere verfügbare Daten für seine Analysen heran, die er zu den Umfragen in Beziehung setzt: etwa das Spendenaufkommen für die einzelnen Kandidaten, demographische Aspekte, Parteistatistiken und langfristige Trends.

Das alles fließt ein in ein komplexes Modell, dessen Ergebnisse ein willkommenes Gegengewicht zu all den politischen Experten bietet, die mit ihren vage fundierten Einschätzungen auf allen Fernsehkanälen so viel Sendezeit füllen, aber offenbar doch nur nach Bauchgefühl argumentieren. Wieder und wieder beteten die Insider das Mantra vom völlig offenen Kopf-an-Kopf-Rennen herunter, in dem der eine oder andere Kandidat aber einen entscheidenden Vorteil haben sollte. Silvers Wahrscheinlichkeiten sprachen hingegen deutlich für Obama. Sein Erfolg zeigt vor allem eines: Wahlen sind weniger überraschend als die meisten glauben – und als Journalisten es sich erhoffen.

Silver ist nur der Anfang

Silver lässt die Zahlen für sich sprechen, zieht seine Schlüsse streng nach analytischen Kriterien. Im Grunde müsste das alles todlangweilig sein. Natürlich steckt hinter dem rasanten Aufstieg des Statistik-Nerds auch das große Talent, sich medial gut zu verkaufen. Er ist lange nicht der einzige in diesem Feld, der das vorhandene Datenmaterial für präzise Vorhersagen nutzbar macht. Aber Drew Linzer, Sam Wang oder Josh Putnam genießen bei Weitem nicht diese Aufmerksamkeit.

In den Tagen vor der Wahl lasen bis zu 20 Prozent der Besucher auf der New York Times-Website auch Silvers Blog, teilweise mehr als 70 Prozent waren es unter denen, die das Politik-Ressort aufsuchten. Den kaum quantifizierbaren Kult um seine Person mal außen vor gelassen, lässt sich erahnen, dass es ein signifikantes Bedürfnis gibt, sich ohne ideologischen Spin mit den nüchternen Fakten auseinanderzusetzen – auch wenn starke Meinungen manchmal unterhaltsamer sein mögen.

Silver ist nur der Anfang. Die Datenmenge wächst, die Algorithmen werden besser und besser werden. Bei der nächsten Wahl in den USA werden die Medien nicht an dieser Entwicklung vorbeikommen: Jeder Sender, jedes Blatt wird einen Statistiker seines Formats haben wollen. Wollen wir wetten?

 

Der arbeitslose Kontinent

Rund 18 Millionen Menschen waren im August im Euro-Raum arbeitslos – eine gewaltige Zahl. Wie weit Europa in seiner Entwicklung zurückgeworfen wird, zeigt ein Blick in die Geschichte. Wir haben Langzeitdaten für die verschiedenen Wirtschaftsräume besorgt und gegenübergestellt.

Ein Ergebnis: Die Arbeitslosigkeit im Euro-Raum ist so hoch wie zuletzt Mitte der neunziger Jahre – wenngleich sie noch nicht so hoch liegt wie Anfang des gleichen Jahrzehnts. Damals waren die Arbeitsmärkte in vielen Ländern – darunter Spanien oder Portugal – in schlechter Verfassung. In Spanien betrug die Arbeitslosenrate in einigen Jahren mehr als 20 Prozent. Auch in Deutschland lag die Quote nach der Wiedervereinigung zeitweise bei zehn Prozent und damit deutlich höher als heute. Anschließend reformierten viele Euro-Staaten ihre Arbeitsmärkte – die Arbeitslosigkeit sank.

Interessant auch die Entwicklung der USA: Noch in den neunziger Jahren und im ersten Jahrzehnt des neues Jahrhunderts lagen die Arbeitslosenquoten deutlich niedriger als im heutigen Euro-Raum. Erst mit der großen Krise nach der Lehman-Pleite sprang die Quote auf europäisches Niveau. Mittlerweile liegt sie wieder etwas darunter und beträgt rund acht Prozent.

Die Entwicklung im Euro-Raum ist durchaus unterschiedlich. Während in Deutschland die Arbeitslosigkeit in der Krise sogar gesunken ist und derzeit 5,5 Prozent beträgt, steigt sie in anderen Ländern an. Außergewöhnlich ist dabei die Situation in Spanien, wo mittlerweile fast jeder Vierte ohne Arbeit ist. Das zieht auch den Schnitt im Euro-Raum nach oben.

Datenauswertung und Visualisierung: Martina Schories
Daten als Google Spreadsheet

 

Open Knowlege Foundation macht Entwicklungshilfe transparenter

Ausgaben der deutschen Entwicklungshilfe / Screenshot von http://www.offene-entwicklungshilfe.de/

Wohin geht das Geld? Diese Frage können Daten-Visualisierungen meist schnell beantworten – denn das ist ihre Stärke: einen Überblick über komplexe Zusammenhänge geben. Die Open Knowledge Foundation hat sich genau deswegen der Ausgaben der deutschen Entwicklungshilfe angenommen und diese in einer interaktiven Grafik aufgeschlüsselt.

Demnach hat Deutschland in den vergangenen zehn Jahren die Länder Irak, China, Nigeria, Kamerun und Indien am stärksten gefördert, in dieser Reihenfolge. Das Geld geht also vor allem an Schwellenländer. Der größte Teil der deutschen Entwicklungshilfe weltweit wird außerdem für den Schuldenerlass aufgewendet – also nicht überwiesen, um konkrete Projekte zu fördern, sondern nur auf dem Papier gestrichen.

Beide Ergebnisse lassen sich sofort erfassen, betrachtet man die Grafiken, die die Open Knowledge Foundation Deutschland am Montag veröffentlicht hat.

Wer zahlt wo was?

Erstellt hat die Seite Christian Kreutz. Er ist im Vorstand der Open Knowledge Foundation und arbeitet in der Entwicklungshilfe. „Man weiß in diesem Bereich oft gar nicht, wer schon wo was gefördert hat“, sagt er. Es gebe keinen internationalen Überblick und nicht einmal einen nationalen. Seine Grafik könnte helfen, hofft er.

Denn die zeigt nicht nur bunt eingefärbte Länder. Sie schlüsselt auch genau auf, in welchem Bereich für welches Vorhaben wie viele Dollar ausgegeben wurden. „Wir wollen, dass man sich schnell durch die Daten bewegen kann“, sagt Kreutz. Die offiziellen Berichte, die solche Aufstellungen in Form langer Listen veröffentlichen, seien zu unübersichtlich.

Die Daten dafür stammen von der OECD. Sie sind inflationsbereinigt, allerdings in einigen Fällen nicht vollständig. So würden Informationen von Ländern, die nicht mehr als Entwicklungsland zählen, in der Datenbank der OECD rückwirkend entfernt.

Die OECD hat eine eigene Datenbankseite, auf der die Informationen eingesehen werden können. Allerdings ist Aidflows.org nicht sonderlich übersichtlich. Das größte Problem beim Erstellen von offene Entwicklungshilfe sei denn auch gewesen, die OECD-Daten zu verstehen, sagt Kreutz.

Bitte nachahmen!

Ein nicht zu unterschätzender Effekt solcher Projekte ist der Druck auf die Urheber der Daten. Seit ziemlich genau zwei Jahren gibt es die Seite offener Haushalt, auf der die Open Knowledge Foundation den Bundeshaushalt transparent macht und übersichtlich aufschlüsselt. Inzwischen sah sich das Finanzministerium anscheinend genötigt, nachzuziehen. Seit August dieses Jahres gibt es die Haushaltszahlen in einem Format heraus, das digital weiterverarbeitet werden kann. Auch eine Visualisierung hat das Ministerium eingeführt.

Das Ministerium habe sich dabei offensichtlich von der Seite offener Haushalt inspirieren lassen, wie der Datenjournalist Lorenz Matzat bei Netzpolitik schrieb. Vielleicht lässt sich das Entwicklungshilfeministerium ja von dem neuen Projekt inspirieren.

Update: Wahrgenommen hat das Ministerium das Projekt.

 

Fliegende Augen für Journalisten

Nach einem Hurrikan liegt überall Schutt, vieles ist zerstört, es herrscht vor allem Verwirrung. Ein Journalist, der durch eine solche Gegend irrt, hat kaum eine Chance, sich ein Bild von der Lage zu machen und wird sich schwer tun, die Orte und Menschen zu identifizieren, die ihm bei der Recherche helfen. Er muss sich auf sein Glück verlassen.

In einem solchen Szenario könnten Drohnen helfen. Denn der Blick aus fünfzig oder hundert Metern Höhe offenbart das umfassendere Bild, er zeigt Muster und im Zweifel auch den Weg zur nächsten Sammelstelle, an der sich Menschen finden, die etwas über die Katastrophe erzählen können.

Seit Drohnen auf dem Weg sind, eine alltägliche Technik zu werden, denken auch Journalisten darüber nach, wie diese ihnen bei der Arbeit helfen können. Das iPad-Magazin The Daily beispielsweise flog 2011 mit einem Quadrocopter den überfluteten Mississippi ab und stellte die Videos ins Netz.

Auch der amerikanische Sender ABC News testete solche Gefährte. Bislang sind das alles nur Experimente. Unsinnig aber sind sie nicht. Matt Waite baut gerade das Drone Journalism Lab an der Universität Nebraska auf, um genau solche Anwendungen zu erforschen. Er sieht noch viel mehr Szenarien, wie er im Interview mit ZEIT ONLINE erzählt.

Beispiel Fukushima: Drohnen könnten ohne Risiko für einen Piloten nicht nur Fotos und Videos liefern, sondern auch billige Sensoren rund um ein havariertes Atomkraftwerk abwerfen, sagt er, die dann Daten senden. Die mit den ferngesteuerten oder autonomen Fluggeräten gemachten Bilder könnten verwendet werden, um schnell Karten von Zerstörungen zu entwerfen und zu veröffentlichen.

Mit den Spielzeugen, die es derzeit für ein paar hundert Euro gibt und die sich mit einem iPad oder einem iPhone steuern lassen, geht das nicht. Die taugen vor allem, um die Möglichkeiten zu erahnen. The Daily zu Beispiel nutzte ein Gerät namens md4-1000 von Microdrones, das auch bei der Polizei und der Feuerwehr eingesetzt wird. Ein Spielzeug ist das nicht mehr, der Copter kann länger als anderthalb Stunden in der Luft bleiben, vorher programmierte Wegpunkte abfliegen, diverse Sensoren tragen und kostet „ab 40.000 Euro“.

Noch überwiegen beim Thema Drohnen die Befürchtungen. Vor allem die davor, dass es mit ihnen nun noch mehr Möglichkeiten gibt, unbemerkt in die Privatsphäre anderer einzudringen. Die sind sicher nicht unbegründet, allerdings gibt es längst Gesetze, die das verbieten.

Wichtiger scheint, wenn es um Sicherheit geht, ein anderer Aspekt: Die Köpfe von Unbeteiligten. Professionelle Drohnen hätten so kräftige Luftschrauben, das sie fliegenden Rasenmähern ähnelten, sagt Waite. Auch sei die Technik noch nicht ausgereift und Abstürze gar nicht so selten. Über Menschen hinweg zu fliegen, sei daher keine gute Idee.

Unter anderem deswegen beschäftigt sich auch die amerikanische Luftfahrtaufsicht FAA mit den Drohnenflügen des Magazins The Daily.

 

Bahn droht Open-Data-Aktivist mit Klage

Die Bahn ist nicht amüsiert. Der Programmierer Michael Kreil hatte sämtliche Fahrplandaten der Bahn von einer CD-ROM extrahiert und im September veröffentlicht, damit andere daraus eigene Anwendungen basteln können. Die Initiative heißt openPlanB, Untertitel „innovation without permission“ – Innovation ohne Erlaubnis. Nun stellt die Bahn klar: Das war illegal. Und im Wiederholungsfall behalte sich die Bahn vor, ihn zu verklagen. Immerhin, erst im Wiederholungsfall. Das Unternehmen wählt dafür die Form des offenen Briefs, also auch eine Art von Open Data.

Die Bahn befürchtet nach eigener Aussage Qualitätseinbußen, wenn jemand auf Basis dieser Daten eigene Anwendungen entwickelt und der Allgemeinheit zur Verfügung stellt. „Fahrplandaten verändern sich spätestens mit jedem Fahrplanwechsel. Drittapplikationen, die mithilfe der von Ihnen rechtswidrig verbreiteten Daten entwickelt werden, veralten schnell und werden daher … jede Erwartung der Menschen … früher oder später enttäuschen“, heißt es im heute veröffentlichten Brief der Bahn.

Vor eineinhalb Wochen hatte das Unternehmen eine Kooperation mit Google vorgestellt. Der US-Konzern erhält exklusiven Zugriff auf die Fahrplandaten und integriert sie in seine Dienste Google Transit und Google Maps.

Da die Bahn ihren Fahrplan in der Regel jeweils im Dezember ändert, dürften die Daten von Kreil auch tatsächlich bald veraltet sein. Programmiert bis dahin aber jemand eine nützliche Anwendung mithilfe dieser Daten, wäre sein Projekt – neben PR in eigener Sache – vor allem eine Art proof of concept, ein Machbarkeitsnachweis. Es würde der Bahn zeigen, wie sinnvoll es wäre, ihre Fahrplandaten in einem offenen Datenformat und mit einer offenen Lizenz anzubieten.

Ob es aber jemand wagt, aus den offensichtlich unrechtmäßig erworbenen Daten eine App zu basteln, ist fraglich. Zwar hat Kreil die Daten unter einer Open Database License (ODbL) veröffentlicht. Aber die Bahn schreibt unmissverständlich: „Indem Sie jetzt die Fahrplandaten unter die ODbL gestellt haben, maßen Sie sich die Position des Rechteinhabers an, der Sie nicht sind.“ Und weiter: „Ihr Vorgehen versetzt zudem Drittentwickler in den falschen Glauben, sie dürften die Daten weiterverwerten: ‚Lizenznehmer‘, die über die Herkunft der Daten keine Kenntnis haben, verlassen sich auf die Erteilung einer angeblich wirksamen Lizenz gemäß Ziffer 3 der ODbL auch zur kommerziellen Verwertung, begehen aber tatsächlich selbst Rechtsverletzungen in erheblichem Ausmaß, wenn sie mit der Datenbank und dem Datenbankwerk arbeiten.“

Der Brief endet mit dem Satz: „Sie werden sicherlich Verständnis dafür haben, dass die Deutsche Bahn nach Ihrer illegalen Aktion im Rahmen von möglichen Open-Data-Initiativen auf Ihre Mitarbeit verzichten wird. Wir werden das Gespräch mit anderen Open-Data-Förderern suchen.“ Den letzten Satz kann man ja auch positiv sehen: Vielleicht werden die Bahndaten ja doch noch irgendwann für alle offen zugänglich.

 

Die Bahn gibt ihre Daten lieber Google statt allen

Zweiter Test: Fernverkehr der Deutschen Bahn from Michael Kreil on Vimeo.

Die Deutsche Bahn fährt nach einem Fahrplan, der an jedem Bahnhof aushängt, der auf diversen Websites angezeigt wird und den jeder über die offizielle Bahn-App auf seinem Smartphone einsehen kann. Alles gut, könnte man denken. Doch um wirklich von Nutzen zu sein, wäre es sinnvoll, wenn diese Fahrplandaten in einem maschinenlesbaren Format von jedem heruntergeladen werden könnten.

Dann könnte jeder darüber nachdenken, wie sich vielleicht noch bessere Fahrplan-Anwendungen bauen ließen. So clever die Bahn auch sein mag, in der Masse der Menschen gibt es garantiert immer noch einen, der noch cleverer ist. Und der etwas erdenkt, was vielen Bahnkunden nützten könnte.

Dieses Prinzip – open data genannt – haben viele Institutionen längst verinnerlicht. Die Bundesregierung beispielsweise testet deswegen ein Portal für viele, viele statistische Daten und Regierungsinformationen.

Die Deutsche Bahn jedoch mag diesen Vorteil nicht erkennen. Sie gibt ihre Daten nicht an Jedermann. Man wolle sich aussuchen, mit wem man zusammenarbeite, zitiert Spiegel Online einen Sprecher des Unternehmens. Sonst leide womöglich die Qualität.

Das Unternehmen, dem die Bahn vertraut, ist Google. Google Transit heißt das Produkt, das der Konzern aus solchen Kooperationen baut. Außerdem sind die Fahrpläne nun in die Anwendung Google Maps integriert.

Nach Meinung erster Tester beispielsweise bei Basic Thinking ist das aber nicht besonders gut gelungen. Zitat: „Nicht enthalten sind allerdings eben jene Daten des Nahverkehrs: U-Bahn, Straßenbahn und Bus. Google Transit schickt euch im Innenstadtbereich deswegen nur von Bahnhof zu Bahnhof und lässt euch kilometerweit zu Fuß laufen.“

Würden die Daten jedem zur Verfügung stehen, hätte Google sie trotzdem in sein Produkt einbauen und damit Geld verdienen können. Gleichzeitig aber wären sie für freie Entwickler eine Quelle gewesen, um eigene Ideen und vielleicht Produkte zu verwirklichen. Nicht umsonst gelten offene Daten als wirtschaftlicher Faktor.

Und solche freien Entwickler gibt es viele. Michael Kreil (der unter anderem an der Grafik über Vorratsdaten bei ZEIT ONLINE beteiligt war), hat mit dem Zugmonitor bewiesen, dass sich aus Fahrplandaten interessante und nützliche Anwendungen bauen lassen. Er glaubt ganz offensichtlich an die kreative Macht der Masse und hat die Fahrplandaten der Bahn von deren Websites geklaubt und auf einem eigenen Portal veröffentlicht, wo jeder sie herunterladen kann.

Damit dürfte bald ein Vergleich möglich sein, wer die besseren Anwendungen baut, die Bahn, Google oder irgendein freier Entwickler.

Die eigentliche Frage aber bleibt: Warum gibt die Bahn die Daten Google, statt sie jedem zugänglich zu machen? Warum nutzt der staatseigene Konzern nicht die Chance, offene Daten zu fördern? Um Geld soll es nicht gegangen sein, schreibt Spiegel Online. Worum dann? Angst vor der Kreativität anderer?

Bei Heise wird ein Sprecher mit den Worten zitiert, man wisse ja nicht, wie alt die Daten seien, die dann verwendet würden. Nun, das lässt sich wohl leicht beheben. Genau wie Google haben auch andere Entwickler von Diensten ein reges Interesse, ihren Kunden stets aktuelle Daten zu bieten. Solange die Bahn ihre eigenen Datensätze auf dem neusten Stand hält, dürfte es also kaum Probleme geben.

 

Was macht unser Leben teurer?

In keinem Land ist die Angst vor Inflation so ausgeprägt wie in Deutschland. Mit großer Sorge wird reagiert, wenn wie im August die Verbraucherpreise weiter ansteigen. Die Jahresinflationsrate erhöhte sich von 1,7 Prozent im Juli auf 2,1 Prozent und liegt damit wieder über der Marke von zwei Prozent, bis zu der die Europäische Zentralbank von stabilen Preisen spricht. Haben wir eine grundsätzlich drastische Verteuerung von Gütern oder gibt es besondere Preistreiber?

Grundlage für die Berechnung des Verbraucherpreisindex ist ein Warenkorb, bestehend aus rund 700 Gütern. Für jedes Element – also zum Beispiel für Nahrungsmittel, Zugfahrten oder für Benzin – wird die Preisentwicklung erfasst. Die Statistiker errechnen daraus einen gewichteten Mittelwert. Die verwendeten Gewichte gelten als repräsentativ für einen durchschnittlichen Haushalt.

Wir haben einzelne Preisentwicklungen ausgehend vom Jahr 2005 ausgewählt und die Daten des Statistischen Bundesamtes im Kurvenverlauf bis August 2012 dargestellt.


Es wird deutlich, dass in diesem Achtjahreszeitraum vor allem Nahrungsmittel (+19,3 Prozent), Verkehr (+24,8 Prozent) und Wohnen (+17,9 Prozent) teurer geworden sind. Die Preise für Wohnraum und Verkehr wurden maßgeblich von den steigenden Energiekosten in die Höhe getrieben. Hinter der Lebensmittelinflation stecken mehrere Faktoren – die Energie ist einer davon.


Splittet man die wichtigsten Posten rund ums Wohnen auf, wird noch einmal die Rasanz der Verteuerung im Energiebereich deutlich. Hier machen sich stark steigende Heizölpreise und ganz besonders der Strompreisanstieg (45,2 Prozent) bemerkbar. Der Anteil steigender Mieten fällt eher moderat aus (ein Plus von neun Prozent seit 2005 entspricht einem jährlichen Anstieg von rund 1,1 Prozent).


Im Bereich Mobilität haben die Preise für Flugreisen um satte 53,1 Prozent zugelegt. Auch Bahnfahren ist in Zeiten steigender Energiepreise teurer geworden. Preise für Bahntickets legten um 25,1 Prozent zu. Die Kosten für die Anschaffung von Neuwagen haben sich hingegen in den letzten Jahren kaum erhöht. So blieb das Preisniveau bei Neuwagen seit der letzten Erhöhung des Mehrwertsteuersatzes ab Januar 2007 konstant. Zu Zeiten der sogenannten Abwrackprämie gaben die Preise für Gebrauchtwagen Anfang 2010 merklich nach, pendelten sich danach aber wieder auf das vorherige Niveau ein.

Um alle Lebensumstände zu erfassen, wird im statistischen Warenkorb auch die Entwicklung für Dienstleitungen wie „Essen auf Rädern“ beobachtet. In der Entwicklungskurve zeigt sich, dass die Kostensteigerungen für Nahrungsmittel und Benzinpreise (plus 49,6 Prozent seit 2005) moderat an die Kunden weitergereicht wurden. Die Belieferung der Senioren zu Hause gehörte zu traditionellen Tätigkeiten junger Zivildienstleistender. Mit der Aussetzung der Wehrpflicht und somit auch des Zivildienstes zum Juli 2011 fiel diese günstige Beschäftigungsmöglichkeit weg. Zwischen Januar und August 2011 wurden die dadurch gestiegenen Personalkosten mit einem Anstieg von vier Prozent an die Kunden weitergegeben.


Für Entlastung im Geldbeutel haben unter anderem sinkende Preise für Festnetztelefonie und Mobilfunk gesorgt (-15,2 Prozent).

Im Warenkorb finden sich zudem einzelne Grundnahrungsmittel. Interessant ist der Blick auf zwischenzeitlich stark unterschiedliche Preisentwicklungen bei Frischmilch und Butter. Während die Erzeuger mit dem Einzelhandel für Frischmilch häufig an langfristige Verträge gebunden sind, lassen sich bei anderen Milchprodukten kurzfristige Preisanhebungen durchsetzen.

Die von Martina Schories visualisierten Daten haben wir in einem GoogleDoc zusammengefasst. Den kompletten Datensatz mit allen Einträgen des Warenkorbs gibt es kostenlos es in der GENESIS-Datenbank des Statistischen Bundesamtes.