Offene Daten – offene Gesellschaft
Kategorie:

Datenjournalismus

Nate Silver zeigt die Macht der Algorithmen

Von 8. November 2012 um 17:40 Uhr

Der politische Taschenrechner, das Blog von Nate Silver

Wenn Nate Silver fragt “Willst du mit mir wetten?”, sollte man nicht lange überlegen. Die einzig logische Antwort kann nur “Nein! Auf keinen Fall!” lauten. Der Statistik-Guru, dessen Blog FiveThirtyEight die New York Times vor zwei Jahren eingekauft hat, kennt seine Chancen – zumindest, wenn genügend Daten vorliegen.

Wie bei den US-Präsidentschaftswahlen: Silver lag schon 2008 mit seinen Prognosen sehr nah an den Ergebnissen. Diesmal waren sie so genau, dass kein Zweifel mehr an seinen Methoden bleibt. War er in der Woche zuvor noch als Magier belächelt oder sogar verspottet worden, wird er nun als solcher gefeiert. Silver tingelt durch Talkshows, sein im September erschienenes Buch schnellt in den Bestenlisten nach oben. Für jemanden, der so viel Zeit mit Zahlen verbringt, dessen Weg mit der Analyse von Baseball-Statistiken begann, steht er verdammt weit vorn im Rampenlicht.

Kritik hatte er sich vor allem von konservativer Seite eingefangen: Silver sah Obama seit Langem als Favoriten der Wahl, also musste ja irgendetwas nicht stimmen. Provoziert hatte er die Angriffe noch durch eine 1.000-Dollar-Wette mit Fernsehmoderator Joe Scarborough auf eine Wiederwahl des Präsidenten; das Geld des Verlierers sollte Hurrikan-Opfern zugute kommen. Nach einem Rüffel aus der Times-Chefetage spendete er schließlich ohne Wette 2.538 Dollar an das Rote Kreuz. Am Ende aber musste selbst einer seiner größten Kritiker, der Blogger Dean Chambers, zugeben: “Nate Silver hatte recht, und ich lag falsch.”

Dabei ist Silvers Methode alles andere als ein magisches Orakel, sondern mit harter Wissenschaft unterfüttert. Wie genau das Team von FiveThirtyEight mit den Daten umgeht, bleibt zwar selbstverständlich ein Geheimnis. Wäre die Formel hinter den Vorhersagen bekannt, könnte ja jeder zum selben Ergebnis kommen. Doch hinter den Algorithmen steckt eine Reihe von Überlegungen, die völlig nachvollziehbar sind.

Bauchgefühl gegen Statistik

Einen wichtigen Teil der Datenbasis etwa machen die unzähligen Wahlumfragen aus, die regelmäßig zu erstaunlich unterschiedlichen Ergebnissen geführt haben. Man kennt das Spiel: Wer eine bestimmte Botschaft stützen will – etwa “Der Trend spricht für Mitt Romney/Barack Obama” –, der sucht sich aus diesem Angebot eben das Passende aus.

Ein Weg, die Ausschläge nach oben oder unten einzudämmen, ist schlicht, einen Durchschnitt zu bilden. Doch Silver und sein Team gehen noch einige Schritte weiter. Ihr Modell gewichtet zunächst die einzelnen Umfragen unterschiedlich, beziehungsweise versucht, deren ideologisch oder strukturell begründete Abweichungen von einem repräsentativen Ideal herauszurechnen – gemessen vor allem an deren bisheriger Treffsicherheit. Neuere Umfragen erhalten zudem größeres Gewicht. Darüber hinaus zieht Silver noch andere verfügbare Daten für seine Analysen heran, die er zu den Umfragen in Beziehung setzt: etwa das Spendenaufkommen für die einzelnen Kandidaten, demographische Aspekte, Parteistatistiken und langfristige Trends.

Das alles fließt ein in ein komplexes Modell, dessen Ergebnisse ein willkommenes Gegengewicht zu all den politischen Experten bietet, die mit ihren vage fundierten Einschätzungen auf allen Fernsehkanälen so viel Sendezeit füllen, aber offenbar doch nur nach Bauchgefühl argumentieren. Wieder und wieder beteten die Insider das Mantra vom völlig offenen Kopf-an-Kopf-Rennen herunter, in dem der eine oder andere Kandidat aber einen entscheidenden Vorteil haben sollte. Silvers Wahrscheinlichkeiten sprachen hingegen deutlich für Obama. Sein Erfolg zeigt vor allem eines: Wahlen sind weniger überraschend als die meisten glauben – und als Journalisten es sich erhoffen.

Silver ist nur der Anfang

Silver lässt die Zahlen für sich sprechen, zieht seine Schlüsse streng nach analytischen Kriterien. Im Grunde müsste das alles todlangweilig sein. Natürlich steckt hinter dem rasanten Aufstieg des Statistik-Nerds auch das große Talent, sich medial gut zu verkaufen. Er ist lange nicht der einzige in diesem Feld, der das vorhandene Datenmaterial für präzise Vorhersagen nutzbar macht. Aber Drew Linzer, Sam Wang oder Josh Putnam genießen bei Weitem nicht diese Aufmerksamkeit.

In den Tagen vor der Wahl lasen bis zu 20 Prozent der Besucher auf der New York Times-Website auch Silvers Blog, teilweise mehr als 70 Prozent waren es unter denen, die das Politik-Ressort aufsuchten. Den kaum quantifizierbaren Kult um seine Person mal außen vor gelassen, lässt sich erahnen, dass es ein signifikantes Bedürfnis gibt, sich ohne ideologischen Spin mit den nüchternen Fakten auseinanderzusetzen – auch wenn starke Meinungen manchmal unterhaltsamer sein mögen.

Silver ist nur der Anfang. Die Datenmenge wächst, die Algorithmen werden besser und besser werden. Bei der nächsten Wahl in den USA werden die Medien nicht an dieser Entwicklung vorbeikommen: Jeder Sender, jedes Blatt wird einen Statistiker seines Formats haben wollen. Wollen wir wetten?

Fliegende Augen für Journalisten

Von 28. September 2012 um 14:17 Uhr

Nach einem Hurrikan liegt überall Schutt, vieles ist zerstört, es herrscht vor allem Verwirrung. Ein Journalist, der durch eine solche Gegend irrt, hat kaum eine Chance, sich ein Bild von der Lage zu machen und wird sich schwer tun, die Orte und Menschen zu identifizieren, die ihm bei der Recherche helfen. Er muss sich auf sein Glück verlassen.

In einem solchen Szenario könnten Drohnen helfen. Denn der Blick aus fünfzig oder hundert Metern Höhe offenbart das umfassendere Bild, er zeigt Muster und im Zweifel auch den Weg zur nächsten Sammelstelle, an der sich Menschen finden, die etwas über die Katastrophe erzählen können.

Seit Drohnen auf dem Weg sind, eine alltägliche Technik zu werden, denken auch Journalisten darüber nach, wie diese ihnen bei der Arbeit helfen können. Das iPad-Magazin The Daily beispielsweise flog 2011 mit einem Quadrocopter den überfluteten Mississippi ab und stellte die Videos ins Netz.

Auch der amerikanische Sender ABC News testete solche Gefährte. Bislang sind das alles nur Experimente. Unsinnig aber sind sie nicht. Matt Waite baut gerade das Drone Journalism Lab an der Universität Nebraska auf, um genau solche Anwendungen zu erforschen. Er sieht noch viel mehr Szenarien, wie er im Interview mit ZEIT ONLINE erzählt.

Beispiel Fukushima: Drohnen könnten ohne Risiko für einen Piloten nicht nur Fotos und Videos liefern, sondern auch billige Sensoren rund um ein havariertes Atomkraftwerk abwerfen, sagt er, die dann Daten senden. Die mit den ferngesteuerten oder autonomen Fluggeräten gemachten Bilder könnten verwendet werden, um schnell Karten von Zerstörungen zu entwerfen und zu veröffentlichen.

Mit den Spielzeugen, die es derzeit für ein paar hundert Euro gibt und die sich mit einem iPad oder einem iPhone steuern lassen, geht das nicht. Die taugen vor allem, um die Möglichkeiten zu erahnen. The Daily zu Beispiel nutzte ein Gerät namens md4-1000 von Microdrones, das auch bei der Polizei und der Feuerwehr eingesetzt wird. Ein Spielzeug ist das nicht mehr, der Copter kann länger als anderthalb Stunden in der Luft bleiben, vorher programmierte Wegpunkte abfliegen, diverse Sensoren tragen und kostet “ab 40.000 Euro”.

Noch überwiegen beim Thema Drohnen die Befürchtungen. Vor allem die davor, dass es mit ihnen nun noch mehr Möglichkeiten gibt, unbemerkt in die Privatsphäre anderer einzudringen. Die sind sicher nicht unbegründet, allerdings gibt es längst Gesetze, die das verbieten.

Wichtiger scheint, wenn es um Sicherheit geht, ein anderer Aspekt: Die Köpfe von Unbeteiligten. Professionelle Drohnen hätten so kräftige Luftschrauben, das sie fliegenden Rasenmähern ähnelten, sagt Waite. Auch sei die Technik noch nicht ausgereift und Abstürze gar nicht so selten. Über Menschen hinweg zu fliegen, sei daher keine gute Idee.

Unter anderem deswegen beschäftigt sich auch die amerikanische Luftfahrtaufsicht FAA mit den Drohnenflügen des Magazins The Daily.

ProPublica recherchiert via Crowdsourcing

Von 30. Mai 2012 um 16:00 Uhr

Viele Studenten in den USA beginnen nach dem Uniabschluss ihr Berufsleben mit Schulden, weil sie die Unigebühren über Kredite finanziert haben. Dramatisch daran: Viele wissen nicht einmal, wie hoch ihre Schulden genau sind, da das System so komplex und jeder Kreditvertrag anders ist.

ProPublica, das durch eine Stiftung finanzierte Medienprojekt, will nun Daten über Unikredite sammeln, um besser über die Lage der Studenten berichten zu können. Dazu bittet ProPublica alle Studenten um Hilfe.

“Share your documents with us”, lautet der Aufruf, schick uns deinen Kreditvertrag. Im Zweifel genüge auch ein Foto, heißt es auf der Website. Alle Informationen würden anonym verarbeitet. Die Daten könnten dazu dienen, die Berichte von ProPublica viel besser machen, schreiben die Macher und verlinken auf einen Text, der nach einem ähnlichen Aufruf entstand.

Hintergrund ist eine Änderung in der Finanzierung von Studiengebühren. Bislang vergab das Bildungsministerium selbst solche Studienkredite. Vor einiger Zeit aber wurden diese aufgrund einer Gesetzesänderung an nichtkommerzielle aber private Kreditfirmen übergeben. Dabei scheint es Unregelmäßigkeiten zu geben. Um mehr darüber zu erfahren, versucht es ProPublica nun mit Crowdsourcing.

Gleichzeitig wurde eine Facebook-Gruppe gegründet, in der Erfahrungen ausgetauscht werden können und diskutiert werden kann. Auch dort dürften sich bald viele Ansätze für Recherchen finden.

Handbuch des Datenjournalismus

Von 7. Mai 2012 um 13:55 Uhr

Ein Tricorder, in der Science-Fiction-Serie "Star Trek" ein Gerät, um Daten zu sammeln, Quelle: JD Hancock, CC BY 2.0 http://www.flickr.com/photos/jdhancock/3386035827/

Was ist Datenjournalismus, warum sollten Journalisten Daten nutzen und wenn sie es denn wollen, wie geht das überhaupt? Diese und viele weitere Fragen will das erste Datenjournalismus-Handbuch beantworten. Das gibt es natürlich im Netz und demnächst auch als gedruckte Version.

Das Buch soll einen Überblick über das Thema geben, nicht eine dezidierte Anleitung sein, wie man Datenjournalist wird. Zu Letzterem, heißt es im Vorwort, bräuchte es sehr viel mehr Wissen und Instrumente. Glücklicherweise existiere aber eine ganze Bibliothek mit den Dingen, die ein Datenjournalist brauche: “Luckily this library exists and it is called the internet.”

Ein Überblick also. Der erste Teil beschäftigt sich ganz allgemein mit dem Thema und stellt mehrere erfolgreiche Projekte vor. In kurzen Texten beschreiben Datenjournalisten von der BBC, der Chicago Tribune, vom Guardian und von anderen Medien, warum sie mit Daten arbeiten und was sie davon haben. Anschließend werden einzelne Projekte genauer beleuchtet.

Interessanter wird es im nächsten Teil. Dort geht es darum, wie man überhaupt an Daten gelangt. Beispielsweise durch “wobbing”, also durch Anfragen nach dem Informationsfreiheitsgesetz. Die sind mühsam, aber lohnend. Genauso wie jene Daten, die längst zugänglich sind und nur noch über entsprechende Schnittstellen (API) ausgelesen werden müssen.

Ich hatte hier vor einiger Zeit die These vertreten, dass APIs für Journalisten bald einer der wichtigsten Wege sein werden, um an spannende Geschichten zu kommen. Der Abschnitt des Buches bestätigt mich in dem Glauben.

Tipps aus der Praxis

Beschrieben wird aber auch das “scraping”, also das “Herunterkratzen” von Daten von einer Website mithilfe spezieller Software. Das folgt der Idee, dass man ja nichts per Hand abschreiben muss, was schon digital vorliegt. Ganz so trivial ist es aber nicht. Scraping braucht ein paar Kenntnisse über die Struktur von Websites. Friedrich Lindenberg von der Open Knowledge Foundation gibt hilfreiche Beispiele und Links. Allerdings ist scraping nicht immer legal, worauf in dem Kapitel leider nur kurz eingegangen wird.

“Crowdsourcing” wird selbstverständlich ebenfalls behandelt – also die Bitte an Leser und Nutzer, Daten zu sammeln. Dazu gibt es Tipps, wie solche Vorhaben gelingen. Ein Zitat dazu vom Guardian: “If I were to give advice to aspiring data journalists who want to use crowdsourcing to collecting data, I would encourage them do this on something that people really care about, and will continue to care about when it stops making front page headlines.”

Die letzten beiden Kapitel beschäftigen sich schließlich damit, die gefundenen Daten zu verstehen und sie dann so aufzubereiten, dass auch andere sie verstehen.

Grundsätzlich gibt es viele praktische Hinweise von denen, die es bereits ausprobiert haben. Insofern ist das Handbuch auch eine Art Zwischenbericht zum Zustand des Datenjournalismus in Europa und Nordamerika. Und das Beste daran: Es kostet nichts.

Entstanden ist das Buch bei einem Workshop im November 2011 beim Mozilla Festival in London. Die Idee dazu hatten das European Journalism Centre und die Open Knowledge Foundation.

Disclaimer: ZEIT ONLINE hat an dem Handbuch mitgearbeitet und stellt darin einige eigene Projekte vor. Und da wir gerade bei der Eigenwerbung sind: Alle datenjournalistischen Projekte von ZEIT ONLINE finden sich hier gesammelt.

Kategorien: Datenjournalismus

Preis für Datenjournalisten

Von 27. April 2012 um 15:35 Uhr

Zum ersten Mal werden demnächst die internationalen Data-Journalism-Awards vergeben. Das vergleichsweise neue Thema Datenjournalismus soll damit gewürdigt und bekannter gemacht werden. Der Preis wurde vom Global Editors Network (GEN) initiiert und wird gemeinsam mit dem European Journalism Centre vergeben. Zu den Sponsoren gehört Google.

Die Data Journalism Awards sollen künftig jährlich in drei Kategorien verliehen werden: Data-driven investigative journalism, Data visualisation & storytelling, Data-driven applications. Dabei werden zwei erste Preise vergeben. Einer ist für nationale und internationale Medien gedacht und einer für regionale oder lokale Anbieter. Beide Sieger erhalten jeweils 10.000 Dollar Preisgeld. Die Preisverleihung ist am 31. Mai in Paris.

Hier ist die Shortlist der Nominierten als Google Spreadsheet.

Darunter sind auch zwei Arbeiten aus Deutschland, eine Grafik von der Berliner Morgenpost über das Berliner Abgeordnetenhaus und eine App der Universität Kobblenz. Die analysiert Webangebote in der Umgebung von San Diego, um Helfer bei Einsätzen dort mit nützlichen Fakten zu versorgen.

Die meisten Vorschläge kommen aus Großbritannien und den USA, doch sind auch Projekte aus Uganda, der Ukraine und Afghanistan dabei.

Mehr dazu hier und hier im britischen Guardian.

Offenlegung: Wolfgang Blau, Chefredakteur von ZEIT ONLINE, ist Mitglied der Jury.

Kategorien: Datenjournalismus

Datenjournalismus-Konferenz

Von 26. März 2012 um 15:47 Uhr

Am Wochenende fand in Hamburg eine Konferenz zum Thema open data statt. Das Netzwerk Recherche hatte dazu geladen, vor allem um über Datenjournalismus zu reden.

Brant Houston von der University of Illinois erzählte etwas über die Geschichte das Datenjournalismus, die sehr viel länger zurückreicht als nur ein paar Jahre.

In einem anderen Panel ging es darum, wie man die Daten von Websites “kratzen” (scrapen) kann, um sie zu verwenden – wie es beispielsweise der Zugmonitor der Süddeutschen Zeitung tut, um die Verspätungen der Bahn zu visualisieren.

Hier ein Video einer interessanten Podiumsdiskussion. Der Titel ist etwas irreführend, um das Scheitern von open data geht es eher am Rande. Ab 4:18 erzählt Christian Horchert, alias @fukami, ein wenig darüber, was offene Daten eigentlich sind. Ab 8:00 beginnt die Podiumsdiskussion mit Stefan Wehrmeyer, Entwickler der Seite fragdenStaat.de und mit Jan Mönikes, der Anwalt ist und Datenschutzbeauftragter. Sie diskutieren mit Matthias Spielkamp von iRights.info darüber, wo es offene Rohdaten der Verwaltung gibt, wo nicht und was damit möglich ist.

Kategorien: Datenjournalismus

API – das bald wichtigste Werkzeug des Journalisten

Von 13. März 2012 um 09:22 Uhr

Die API von Twitter bietet Zugang zu den Daten des Dienstes - Screenshot ZEIT ONLINE

Sharing is caring“, lautet einer der Kernsätze des freien Internets. Wer Informationen und Inhalte teilt, heißt das, der vermehrt das Wissen aller. Lange waren Links das einzige Instrument, um an den Inhalt einer Website zu gelangen. Inzwischen gibt es jedoch eines, das viel mächtiger ist, die API.

Die drei Buchstaben sind ein Akronym für Application Programming Interface, also eine Schnittstelle, damit Computer miteinander reden und automatisiert Daten tauschen können. Viele Dienste wie beispielsweise Twitter bieten solche Schnittstellen. Über sie können die in den Diensten enthaltenen Informationen – beispielsweise die Tweets – ausgelesen und weiterverarbeitet werden.

Warum das alles hier erwähnt wird? Weil APIs die Voraussetzung für das Konzept offener Daten sind. Denn niemand wird sich hinsetzen und die europäischen Bevölkerungsstatistiken von Hand in Tabellen eintragen wollen, damit er irgendwann daraus eine Karte bauen kann. Damit Daten überhaupt weiterverarbeitet werden können, müssen sie automatisiert zugänglich sein. Dieser Zugang, eben die API, ist also eine der Bedingungen, damit Daten den Stempel “offen” verdienen.

Seit einiger Zeit entwickelt sich auch in Deutschland eine neue Arbeitsweise, Daten-Journalismus genannt. Noch beschränkt sich der auf kleine Teams, die frei oder für ein paar große Verlage arbeiten. Das aber wird sich ändern, und APIs werden schon bald eines der wichtigsten Instrumente von Journalisten sein. Sie werden die Bedeutung haben, die früher das Telefon für die Arbeit von Medien hatte und die derzeit Google hat. Denn sie sind ein machtvolles Werkzeug, um an Informationen zu gelangen.

Wer ein wenig mehr zur Arbeitsweise von Schnittstellen wissen will und wie Journalisten sie nutzen können, hier entlang.

Das Poynter-Institut, eine renommierte Journalistenschule in Florida, hat gerade einen interessanten Text dazu veröffentlicht. “Acht APIs, die Ihre Nachrichtenredaktion ab sofort nutzen sollte”, lautet die Überschrift.

Aufgeführt ist dort beispielsweise der Datenzugang der Weltbank. Dort gibt es Finanzdaten aus mehr als 50 Jahren.

Oder der zur Open Library. Die will Informationen über “jedes jemals erschienene Buch” sammeln. Ein Katalog der Welt-Bibliothek, in dem bereits 20 Millionen Bücher erfasst sind. In vielen Fällen beschränkt sich das auf die bibliografischen Angaben zu den Büchern, also beispielsweise Autor, Verlag, Erscheinungsjahr und Ort. Wenn das Urheberrecht es zulässt, wird aber auch der komplette Inhalt aufgenommen. Bereits eine Million Bücher wurden vollständig eingescannt, sodass sie gelesen und durchsucht werden können.

Aufgeführt sind aber auch zwei Medien, die selbst APIs bereitstellen, um ihren Inhalt weiterzugeben, USA Today und der Guardian. Bei der amerikanischen Zeitung können damit Überschriften und Metadaten durchsucht und sortiert werden. Die britische Tageszeitung stellt sogar den kompletten Inhalt der Texte ab 1999 zur Verfügung und bietet verschiedene Lizenzmodelle an, um diese Inhalte zu nutzen.

Noch sind viele Verlage leider sehr mit der Idee beschäftigt, ihre Inhalte so gut wie möglich gegen eine Nutzung durch andere abzuschotten. Es wäre nicht schlecht, wenn sich das bald änderte. Immerhin sind auch Zeitungsarchive riesige Datenschätze, aus denen sich neue Erkenntnisse gewinnen lassen.

Kategorien: Datenjournalismus

Datenjournalisten aller Länder, vereinigt euch!

Von 13. Februar 2012 um 10:54 Uhr

Denn es gibt einen reizvollen Preis zu gewinnen, den ersten Data Journalism Award (DJA) ausgerufen vom Global Editors Network, dem European Journalism Center und Google. Insgesamt stehen 45.000 Euro zur Verfügung, die in drei Preiskategorien vergeben werden.

Arbeiten aus dem Bereich des datengetriebenen investigativen Journalismus (Data-driven investigative journalism) werden ebenso ausgezeichnet wie Datenvisualisierungen und datenbasierte Erzählformen (Data visualisation & storytelling) und datengestützte Anwendungen für das Netz und mobile Endgeräte (Data-driven applications (mobile or web)). Projekte können sowohl von Redaktionen und Projektteams, Freelancern als auch von Medienunternehmen und Non-Profit-Organisationen eingereicht werden. Deadline ist der 10. April, 23,59 Uhr. Wichtig ist, dass die eingereichten Projekte zwischen dem 11. April 2011 und dem 10. April 2012 publiziert worden sein müssen. In der Jury sitzt neben Paul Steiger von ProPublica und Peter Barron von Google unter anderem auch Wolfgang Blau, Chefredakteur von Zeit Online.

Alle Projekte müssen übrigens in englischer Sprache verfasst sein oder zumindest mit einer umfangreichen Transkription der Inhalte und einer Übersetzung aller weiteren Elemente (z.B. Benennung von Grafiken oder anderen Visualisierungselementen) versehen werden.

Das sollten jedoch alles keine Hinderungsgründe sein, auch einige der ambitionierten deutschsprachigen Projekte der letzten Monate einzureichen. Deshalb an dieser Stelle auch die Frage an die Leserinnen und Leser von Zeit Online: Welche Projekte halten Sie für preiswürdig? Wir werden einige von ihnen, soweit noch nicht geschehen, hier vorstellen.

 

 

 

Zeitgeschichte in Daten. Wie sich Großbritannien unter der Iron Lady veränderte

Von 12. Januar 2012 um 13:26 Uhr

Erinnerungen sind nie authentisch. Erfolge und Niederlagen erfahren mit wachsendem zeitlichen Abstand erstaunliche Transformationen. Aus einer unappetitlichen Schmach wird im Laufe der Jahre und Jahrzehnte gerne ein heroisches Scheitern. Aus banalem Tagwerk wird schon mal ein hart errungener Triumph. Kein Wunder also, dass auch politische Retrospektiven immer umstritten bleiben. War Helmuth Schmidt tatsächlich der hellsichtigste unter den deutschen Nachkriegsregierungschefs? Oder ragt nicht doch der ungeliebte Wiedervereinigungskanzler Helmut Kohl für alle Zeiten uneinholbar heraus – Trotz aller Spendenaffären und Familientragödien? Die Deutung derartiger Leistungen wird immer von politischen, sozialen und gegenwartsgeprägten Standpunkten aus vorgenommen – und bleiben dementsprechend Interpretationen.

Es verwundert also nicht, dass die Bemühungen wachsen, auch die Analyse zeitgeschichtlicher Ereignisse mit Hilfe von Datenkorrelationen und Datenanalysen zu objektivieren. Wir sprachen an dieser Stelle beispielsweise schon von neuen Formen der Geschichtsschreibung unter dem Schlagwort Data Driven History. Gemeint ist der Versuch, durch die Auswertung historischer Datensätze etablierte Geschichtsbilder zu vervollständigen oder im besten Fall sogar zu erschüttern. Die Auswertungsstrategien erstrecken sich dabei von der Korrelation der Zahl historischer Fundstellen oder Umfang der Funde prähistorischer Artefakte bis hin zu sprachanalytischen Auswertungen von Begriffskonjunkturen in Dokumenten zurückliegender Jahrhunderte.

Das Data Blog des britischen Guardian hat sich nun mit den Spuren beschäftigt, die die Iron Lady, Margaret Thatcher, im Vereinigten Königreich hinterließ. Das Ganze ist natürlich streng datenbasiert. Anlass ist der Start des Kinofilms The Iron Lady, in dem Meryl Streep die mittlerweile an Demenz erkrankte Margaret Thatcher darstellt. Die Produktion hatte in Großbritannien für heftige Debatten gesorgt. Neben der Frage, ob es angemessen ist, ein sogennantes Biopic, also die Verfilmung einer Lebensgeschichte, über Sein und Wirken einer lebende Persönlichkeit zu produzieren, die sich vermutlich nicht mehr mit all ihren geistigen Kräften zur Wehr setzen kann, ist die Bewertung zurückliegender politischer Leistungen Kern der gesellschaftlichen Auseinandersetzung.

Keine Wunder also, dass der Guardian bemüht war, die Leistungen der ehemaligen Regierungschefin mit neuen Methoden sichtbar zu machen beziehungsweise in Frage zu stellen. In einer ganzen Reihe von Infografiken zeigt das Data Blog Team des Guardian, wie sich Großbritannien in der Regierungszeit Margaret Thatchers veränderte. Zu den interessantesten Visualisierungen der Vergangenheit gehören dabei unter anderem Darstellungen der Heirats- und Scheidungsquote. Während die Zahl der Trennungen mehr oder weniger konstant blieb, weist die Statistik einen eindeutigen Rückgang an Hochzeiten auf. Das führt umgehend zu weiteren Fragen: Ist der Regress auf die abschreckende Wirkung der Eisernen Lady auf heiratswillige Männer zurückzuführen oder einfach nur eine Erscheinung der zunehmend unverbindlicheren Lebensstile in einer post- oder sogar postpostmodernen Gesellschaft?

 

 

Die Arbeitslosenquote wiederum besitzt eine ganz eigene Dramaturgie. In den knapp eineinhalb Jahrzehnten ihrer Regentschaft konnte Margaret Thatcher alles vorweisen, was man Politikern vorwirft oder wofür man ihnen typischerweise dankt. Erst ging die Quote der Erwerbslosen dramatisch nach oben, dann wieder dramatisch nach unten. Bleibt also die Frage, wie groß das Verdienst beziehungsweise das Verschulden ist.

 

Ein eher wirres Bild zeigt die Visualisierung der Konjunkturdaten. Die Ausschläge sind stark. In beide Richtungen.

 

 

Die Preisentwicklung, insbesondere die Immobilienpreise, dagegen sprechen eine eindeutige Sprache. Ihr Anstieg ist steil, sehr steil. Nicht gerade das, was sich Mieter und Häuslebauer wünschen. Aber natürlich ideal für all jene, die schon Grund und Haus beziehungsweise Häuser besitzen.

 

 

Klar wird also anhand dieser Beispiele, das alles weiter unklar ist – trotz der Anschaulichkeit der Vergangenheit durch Datenvisualisierung. Die Bewertung politischer Leistungen ist weiter Interpretationssache. Jede Statistik, jede Infografik, jede Visualisierung ist nur soviel wert, wie der Kontext in dem sie auftaucht oder das Wissen, in dessen Licht der Betrachter sie einordnet. Die Wahrheit wird dauerhaft umstritten bleiben. Auch im Zeitalter von Big Data.

 

 

 

 

Weltkarte deutscher Entwicklungshilfe

Von 2. November 2011 um 14:39 Uhr

Vor einigen Wochen fand in Berlin die Open Aid Data Konferenz statt. Die Möglichkeiten der Optimierung von Geldflüssen und Projektausrichtungen in der Entwicklungshilfe wurden diskutiert. Dass Open Data Entwicklungszusammenarbeit verbessern kann, ist seit Längerem klar. Jetzt hat der Open-Data-Aktivist und Macher des Hyperlocalportals Frankfurt-Gestalten.de, Christian Kreutz, für die Open Knowledge Foundation Germany eine Weltkarte deutscher Geldflüsse im Kontext Entwicklungszusammenarbeit erstellt.

Auf dem ZDF-Blog Hyperland erschien daraufhin ein Making-Of der Karte unter dem Titel “Wie ein Daten-Mashup die deutsche Entwicklungshilfe aufschlüsselt“. Hochspannend erklärt die Autorin Christiane Schulzki-Haddouti im Blogpost, wie die Daten erschlossen wurden, welche eklatanten Defizite es bei der Datenbereitstellung noch gibt und welche überraschenden Erkenntnisse das Mash-Up liefert.

Zum Beispiel fließen die mit Abstand meisten Mittel aus deutschen Fördertöpfen nicht nach Afrika, wie man vielleicht mit Blick auf dortige Hungerkatastrophen erwarten könnte, sondern in die sogenannten BRIC-Länder: Brasilien, Russland, Indien und China.