Offene Daten – offene Gesellschaft
Kategorie:

Datenjournalismus

Handbuch des Datenjournalismus

Von 7. Mai 2012 um 13:55 Uhr

Ein Tricorder, in der Science-Fiction-Serie "Star Trek" ein Gerät, um Daten zu sammeln, Quelle: JD Hancock, CC BY 2.0 http://www.flickr.com/photos/jdhancock/3386035827/

Was ist Datenjournalismus, warum sollten Journalisten Daten nutzen und wenn sie es denn wollen, wie geht das überhaupt? Diese und viele weitere Fragen will das erste Datenjournalismus-Handbuch beantworten. Das gibt es natürlich im Netz und demnächst auch als gedruckte Version.

Das Buch soll einen Überblick über das Thema geben, nicht eine dezidierte Anleitung sein, wie man Datenjournalist wird. Zu Letzterem, heißt es im Vorwort, bräuchte es sehr viel mehr Wissen und Instrumente. Glücklicherweise existiere aber eine ganze Bibliothek mit den Dingen, die ein Datenjournalist brauche: “Luckily this library exists and it is called the internet.”

Ein Überblick also. Der erste Teil beschäftigt sich ganz allgemein mit dem Thema und stellt mehrere erfolgreiche Projekte vor. In kurzen Texten beschreiben Datenjournalisten von der BBC, der Chicago Tribune, vom Guardian und von anderen Medien, warum sie mit Daten arbeiten und was sie davon haben. Anschließend werden einzelne Projekte genauer beleuchtet.

Interessanter wird es im nächsten Teil. Dort geht es darum, wie man überhaupt an Daten gelangt. Beispielsweise durch “wobbing”, also durch Anfragen nach dem Informationsfreiheitsgesetz. Die sind mühsam, aber lohnend. Genauso wie jene Daten, die längst zugänglich sind und nur noch über entsprechende Schnittstellen (API) ausgelesen werden müssen.

Ich hatte hier vor einiger Zeit die These vertreten, dass APIs für Journalisten bald einer der wichtigsten Wege sein werden, um an spannende Geschichten zu kommen. Der Abschnitt des Buches bestätigt mich in dem Glauben.

Tipps aus der Praxis

Beschrieben wird aber auch das “scraping”, also das “Herunterkratzen” von Daten von einer Website mithilfe spezieller Software. Das folgt der Idee, dass man ja nichts per Hand abschreiben muss, was schon digital vorliegt. Ganz so trivial ist es aber nicht. Scraping braucht ein paar Kenntnisse über die Struktur von Websites. Friedrich Lindenberg von der Open Knowledge Foundation gibt hilfreiche Beispiele und Links. Allerdings ist scraping nicht immer legal, worauf in dem Kapitel leider nur kurz eingegangen wird.

“Crowdsourcing” wird selbstverständlich ebenfalls behandelt – also die Bitte an Leser und Nutzer, Daten zu sammeln. Dazu gibt es Tipps, wie solche Vorhaben gelingen. Ein Zitat dazu vom Guardian: “If I were to give advice to aspiring data journalists who want to use crowdsourcing to collecting data, I would encourage them do this on something that people really care about, and will continue to care about when it stops making front page headlines.”

Die letzten beiden Kapitel beschäftigen sich schließlich damit, die gefundenen Daten zu verstehen und sie dann so aufzubereiten, dass auch andere sie verstehen.

Grundsätzlich gibt es viele praktische Hinweise von denen, die es bereits ausprobiert haben. Insofern ist das Handbuch auch eine Art Zwischenbericht zum Zustand des Datenjournalismus in Europa und Nordamerika. Und das Beste daran: Es kostet nichts.

Entstanden ist das Buch bei einem Workshop im November 2011 beim Mozilla Festival in London. Die Idee dazu hatten das European Journalism Centre und die Open Knowledge Foundation.

Disclaimer: ZEIT ONLINE hat an dem Handbuch mitgearbeitet und stellt darin einige eigene Projekte vor. Und da wir gerade bei der Eigenwerbung sind: Alle datenjournalistischen Projekte von ZEIT ONLINE finden sich hier gesammelt.

Kategorien: Datenjournalismus

Preis für Datenjournalisten

Von 27. April 2012 um 15:35 Uhr

Zum ersten Mal werden demnächst die internationalen Data-Journalism-Awards vergeben. Das vergleichsweise neue Thema Datenjournalismus soll damit gewürdigt und bekannter gemacht werden. Der Preis wurde vom Global Editors Network (GEN) initiiert und wird gemeinsam mit dem European Journalism Centre vergeben. Zu den Sponsoren gehört Google.

Die Data Journalism Awards sollen künftig jährlich in drei Kategorien verliehen werden: Data-driven investigative journalism, Data visualisation & storytelling, Data-driven applications. Dabei werden zwei erste Preise vergeben. Einer ist für nationale und internationale Medien gedacht und einer für regionale oder lokale Anbieter. Beide Sieger erhalten jeweils 10.000 Dollar Preisgeld. Die Preisverleihung ist am 31. Mai in Paris.

Hier ist die Shortlist der Nominierten als Google Spreadsheet.

Darunter sind auch zwei Arbeiten aus Deutschland, eine Grafik von der Berliner Morgenpost über das Berliner Abgeordnetenhaus und eine App der Universität Kobblenz. Die analysiert Webangebote in der Umgebung von San Diego, um Helfer bei Einsätzen dort mit nützlichen Fakten zu versorgen.

Die meisten Vorschläge kommen aus Großbritannien und den USA, doch sind auch Projekte aus Uganda, der Ukraine und Afghanistan dabei.

Mehr dazu hier und hier im britischen Guardian.

Offenlegung: Wolfgang Blau, Chefredakteur von ZEIT ONLINE, ist Mitglied der Jury.

Kategorien: Datenjournalismus

Datenjournalismus-Konferenz

Von 26. März 2012 um 15:47 Uhr

Am Wochenende fand in Hamburg eine Konferenz zum Thema open data statt. Das Netzwerk Recherche hatte dazu geladen, vor allem um über Datenjournalismus zu reden.

Brant Houston von der University of Illinois erzählte etwas über die Geschichte das Datenjournalismus, die sehr viel länger zurückreicht als nur ein paar Jahre.

In einem anderen Panel ging es darum, wie man die Daten von Websites “kratzen” (scrapen) kann, um sie zu verwenden – wie es beispielsweise der Zugmonitor der Süddeutschen Zeitung tut, um die Verspätungen der Bahn zu visualisieren.

Hier ein Video einer interessanten Podiumsdiskussion. Der Titel ist etwas irreführend, um das Scheitern von open data geht es eher am Rande. Ab 4:18 erzählt Christian Horchert, alias @fukami, ein wenig darüber, was offene Daten eigentlich sind. Ab 8:00 beginnt die Podiumsdiskussion mit Stefan Wehrmeyer, Entwickler der Seite fragdenStaat.de und mit Jan Mönikes, der Anwalt ist und Datenschutzbeauftragter. Sie diskutieren mit Matthias Spielkamp von iRights.info darüber, wo es offene Rohdaten der Verwaltung gibt, wo nicht und was damit möglich ist.

Kategorien: Datenjournalismus

API – das bald wichtigste Werkzeug des Journalisten

Von 13. März 2012 um 09:22 Uhr

Die API von Twitter bietet Zugang zu den Daten des Dienstes - Screenshot ZEIT ONLINE

Sharing is caring“, lautet einer der Kernsätze des freien Internets. Wer Informationen und Inhalte teilt, heißt das, der vermehrt das Wissen aller. Lange waren Links das einzige Instrument, um an den Inhalt einer Website zu gelangen. Inzwischen gibt es jedoch eines, das viel mächtiger ist, die API.

Die drei Buchstaben sind ein Akronym für Application Programming Interface, also eine Schnittstelle, damit Computer miteinander reden und automatisiert Daten tauschen können. Viele Dienste wie beispielsweise Twitter bieten solche Schnittstellen. Über sie können die in den Diensten enthaltenen Informationen – beispielsweise die Tweets – ausgelesen und weiterverarbeitet werden.

Warum das alles hier erwähnt wird? Weil APIs die Voraussetzung für das Konzept offener Daten sind. Denn niemand wird sich hinsetzen und die europäischen Bevölkerungsstatistiken von Hand in Tabellen eintragen wollen, damit er irgendwann daraus eine Karte bauen kann. Damit Daten überhaupt weiterverarbeitet werden können, müssen sie automatisiert zugänglich sein. Dieser Zugang, eben die API, ist also eine der Bedingungen, damit Daten den Stempel “offen” verdienen.

Seit einiger Zeit entwickelt sich auch in Deutschland eine neue Arbeitsweise, Daten-Journalismus genannt. Noch beschränkt sich der auf kleine Teams, die frei oder für ein paar große Verlage arbeiten. Das aber wird sich ändern, und APIs werden schon bald eines der wichtigsten Instrumente von Journalisten sein. Sie werden die Bedeutung haben, die früher das Telefon für die Arbeit von Medien hatte und die derzeit Google hat. Denn sie sind ein machtvolles Werkzeug, um an Informationen zu gelangen.

Wer ein wenig mehr zur Arbeitsweise von Schnittstellen wissen will und wie Journalisten sie nutzen können, hier entlang.

Das Poynter-Institut, eine renommierte Journalistenschule in Florida, hat gerade einen interessanten Text dazu veröffentlicht. “Acht APIs, die Ihre Nachrichtenredaktion ab sofort nutzen sollte”, lautet die Überschrift.

Aufgeführt ist dort beispielsweise der Datenzugang der Weltbank. Dort gibt es Finanzdaten aus mehr als 50 Jahren.

Oder der zur Open Library. Die will Informationen über “jedes jemals erschienene Buch” sammeln. Ein Katalog der Welt-Bibliothek, in dem bereits 20 Millionen Bücher erfasst sind. In vielen Fällen beschränkt sich das auf die bibliografischen Angaben zu den Büchern, also beispielsweise Autor, Verlag, Erscheinungsjahr und Ort. Wenn das Urheberrecht es zulässt, wird aber auch der komplette Inhalt aufgenommen. Bereits eine Million Bücher wurden vollständig eingescannt, sodass sie gelesen und durchsucht werden können.

Aufgeführt sind aber auch zwei Medien, die selbst APIs bereitstellen, um ihren Inhalt weiterzugeben, USA Today und der Guardian. Bei der amerikanischen Zeitung können damit Überschriften und Metadaten durchsucht und sortiert werden. Die britische Tageszeitung stellt sogar den kompletten Inhalt der Texte ab 1999 zur Verfügung und bietet verschiedene Lizenzmodelle an, um diese Inhalte zu nutzen.

Noch sind viele Verlage leider sehr mit der Idee beschäftigt, ihre Inhalte so gut wie möglich gegen eine Nutzung durch andere abzuschotten. Es wäre nicht schlecht, wenn sich das bald änderte. Immerhin sind auch Zeitungsarchive riesige Datenschätze, aus denen sich neue Erkenntnisse gewinnen lassen.

Kategorien: Datenjournalismus

Datenjournalisten aller Länder, vereinigt euch!

Von 13. Februar 2012 um 10:54 Uhr

Denn es gibt einen reizvollen Preis zu gewinnen, den ersten Data Journalism Award (DJA) ausgerufen vom Global Editors Network, dem European Journalism Center und Google. Insgesamt stehen 45.000 Euro zur Verfügung, die in drei Preiskategorien vergeben werden.

Arbeiten aus dem Bereich des datengetriebenen investigativen Journalismus (Data-driven investigative journalism) werden ebenso ausgezeichnet wie Datenvisualisierungen und datenbasierte Erzählformen (Data visualisation & storytelling) und datengestützte Anwendungen für das Netz und mobile Endgeräte (Data-driven applications (mobile or web)). Projekte können sowohl von Redaktionen und Projektteams, Freelancern als auch von Medienunternehmen und Non-Profit-Organisationen eingereicht werden. Deadline ist der 10. April, 23,59 Uhr. Wichtig ist, dass die eingereichten Projekte zwischen dem 11. April 2011 und dem 10. April 2012 publiziert worden sein müssen. In der Jury sitzt neben Paul Steiger von ProPublica und Peter Barron von Google unter anderem auch Wolfgang Blau, Chefredakteur von Zeit Online.

Alle Projekte müssen übrigens in englischer Sprache verfasst sein oder zumindest mit einer umfangreichen Transkription der Inhalte und einer Übersetzung aller weiteren Elemente (z.B. Benennung von Grafiken oder anderen Visualisierungselementen) versehen werden.

Das sollten jedoch alles keine Hinderungsgründe sein, auch einige der ambitionierten deutschsprachigen Projekte der letzten Monate einzureichen. Deshalb an dieser Stelle auch die Frage an die Leserinnen und Leser von Zeit Online: Welche Projekte halten Sie für preiswürdig? Wir werden einige von ihnen, soweit noch nicht geschehen, hier vorstellen.

 

 

 

Zeitgeschichte in Daten. Wie sich Großbritannien unter der Iron Lady veränderte

Von 12. Januar 2012 um 13:26 Uhr

Erinnerungen sind nie authentisch. Erfolge und Niederlagen erfahren mit wachsendem zeitlichen Abstand erstaunliche Transformationen. Aus einer unappetitlichen Schmach wird im Laufe der Jahre und Jahrzehnte gerne ein heroisches Scheitern. Aus banalem Tagwerk wird schon mal ein hart errungener Triumph. Kein Wunder also, dass auch politische Retrospektiven immer umstritten bleiben. War Helmuth Schmidt tatsächlich der hellsichtigste unter den deutschen Nachkriegsregierungschefs? Oder ragt nicht doch der ungeliebte Wiedervereinigungskanzler Helmut Kohl für alle Zeiten uneinholbar heraus – Trotz aller Spendenaffären und Familientragödien? Die Deutung derartiger Leistungen wird immer von politischen, sozialen und gegenwartsgeprägten Standpunkten aus vorgenommen – und bleiben dementsprechend Interpretationen.

Es verwundert also nicht, dass die Bemühungen wachsen, auch die Analyse zeitgeschichtlicher Ereignisse mit Hilfe von Datenkorrelationen und Datenanalysen zu objektivieren. Wir sprachen an dieser Stelle beispielsweise schon von neuen Formen der Geschichtsschreibung unter dem Schlagwort Data Driven History. Gemeint ist der Versuch, durch die Auswertung historischer Datensätze etablierte Geschichtsbilder zu vervollständigen oder im besten Fall sogar zu erschüttern. Die Auswertungsstrategien erstrecken sich dabei von der Korrelation der Zahl historischer Fundstellen oder Umfang der Funde prähistorischer Artefakte bis hin zu sprachanalytischen Auswertungen von Begriffskonjunkturen in Dokumenten zurückliegender Jahrhunderte.

Das Data Blog des britischen Guardian hat sich nun mit den Spuren beschäftigt, die die Iron Lady, Margaret Thatcher, im Vereinigten Königreich hinterließ. Das Ganze ist natürlich streng datenbasiert. Anlass ist der Start des Kinofilms The Iron Lady, in dem Meryl Streep die mittlerweile an Demenz erkrankte Margaret Thatcher darstellt. Die Produktion hatte in Großbritannien für heftige Debatten gesorgt. Neben der Frage, ob es angemessen ist, ein sogennantes Biopic, also die Verfilmung einer Lebensgeschichte, über Sein und Wirken einer lebende Persönlichkeit zu produzieren, die sich vermutlich nicht mehr mit all ihren geistigen Kräften zur Wehr setzen kann, ist die Bewertung zurückliegender politischer Leistungen Kern der gesellschaftlichen Auseinandersetzung.

Keine Wunder also, dass der Guardian bemüht war, die Leistungen der ehemaligen Regierungschefin mit neuen Methoden sichtbar zu machen beziehungsweise in Frage zu stellen. In einer ganzen Reihe von Infografiken zeigt das Data Blog Team des Guardian, wie sich Großbritannien in der Regierungszeit Margaret Thatchers veränderte. Zu den interessantesten Visualisierungen der Vergangenheit gehören dabei unter anderem Darstellungen der Heirats- und Scheidungsquote. Während die Zahl der Trennungen mehr oder weniger konstant blieb, weist die Statistik einen eindeutigen Rückgang an Hochzeiten auf. Das führt umgehend zu weiteren Fragen: Ist der Regress auf die abschreckende Wirkung der Eisernen Lady auf heiratswillige Männer zurückzuführen oder einfach nur eine Erscheinung der zunehmend unverbindlicheren Lebensstile in einer post- oder sogar postpostmodernen Gesellschaft?

 

 

Die Arbeitslosenquote wiederum besitzt eine ganz eigene Dramaturgie. In den knapp eineinhalb Jahrzehnten ihrer Regentschaft konnte Margaret Thatcher alles vorweisen, was man Politikern vorwirft oder wofür man ihnen typischerweise dankt. Erst ging die Quote der Erwerbslosen dramatisch nach oben, dann wieder dramatisch nach unten. Bleibt also die Frage, wie groß das Verdienst beziehungsweise das Verschulden ist.

 

Ein eher wirres Bild zeigt die Visualisierung der Konjunkturdaten. Die Ausschläge sind stark. In beide Richtungen.

 

 

Die Preisentwicklung, insbesondere die Immobilienpreise, dagegen sprechen eine eindeutige Sprache. Ihr Anstieg ist steil, sehr steil. Nicht gerade das, was sich Mieter und Häuslebauer wünschen. Aber natürlich ideal für all jene, die schon Grund und Haus beziehungsweise Häuser besitzen.

 

 

Klar wird also anhand dieser Beispiele, das alles weiter unklar ist – trotz der Anschaulichkeit der Vergangenheit durch Datenvisualisierung. Die Bewertung politischer Leistungen ist weiter Interpretationssache. Jede Statistik, jede Infografik, jede Visualisierung ist nur soviel wert, wie der Kontext in dem sie auftaucht oder das Wissen, in dessen Licht der Betrachter sie einordnet. Die Wahrheit wird dauerhaft umstritten bleiben. Auch im Zeitalter von Big Data.

 

 

 

 

Weltkarte deutscher Entwicklungshilfe

Von 2. November 2011 um 14:39 Uhr

Vor einigen Wochen fand in Berlin die Open Aid Data Konferenz statt. Die Möglichkeiten der Optimierung von Geldflüssen und Projektausrichtungen in der Entwicklungshilfe wurden diskutiert. Dass Open Data Entwicklungszusammenarbeit verbessern kann, ist seit Längerem klar. Jetzt hat der Open-Data-Aktivist und Macher des Hyperlocalportals Frankfurt-Gestalten.de, Christian Kreutz, für die Open Knowledge Foundation Germany eine Weltkarte deutscher Geldflüsse im Kontext Entwicklungszusammenarbeit erstellt.

Auf dem ZDF-Blog Hyperland erschien daraufhin ein Making-Of der Karte unter dem Titel “Wie ein Daten-Mashup die deutsche Entwicklungshilfe aufschlüsselt“. Hochspannend erklärt die Autorin Christiane Schulzki-Haddouti im Blogpost, wie die Daten erschlossen wurden, welche eklatanten Defizite es bei der Datenbereitstellung noch gibt und welche überraschenden Erkenntnisse das Mash-Up liefert.

Zum Beispiel fließen die mit Abstand meisten Mittel aus deutschen Fördertöpfen nicht nach Afrika, wie man vielleicht mit Blick auf dortige Hungerkatastrophen erwarten könnte, sondern in die sogenannten BRIC-Länder: Brasilien, Russland, Indien und China.

Datenprojekt macht die versteckten Milliarden der EU sichtbar

Von 13. Oktober 2011 um 17:58 Uhr

Die Europäische Union ist ein Monstrum. Hunderte Behörden hat sie, Tausende Gremien und mindestens zehntausend unterschiedliche Normen für das Gewicht von Bananen, für die Wärmedämmungen von Hausfassaden oder für Schallschutzbestimmungen von Schwerlastzügen. Neben diesen ungezählten Verordnungen und Richtlinien gibt es mindestens ebenso viele Förderprogramme und Subventionstöpfe.

So jedenfalls die allgemeine Wahrnehmung. Die ist nicht ganz falsch, wie der Strukturfonds zeigt, eines der wichtigsten Instrumente europäischer Planungs- und Steuerungspolitik. Allein der Strukturfonds setzt sich aus fünf Unterfonds zusammen, die so attraktive Titel tragen wie Regionalfonds EFRE inklusive Interreg IV oder Landwirtschaftsfonds ELER inklusive Leader. So etwas kann durchaus von der näheren Beschäftigung abschrecken. Doch beträgt das Gesamtbudget des Strukturfonds mehr als 45 Milliarden Euro. Das ist zu gewaltig, als dass Datenjournalisten diesen Fonds ignorieren sollten.

Was sie natürlich auch nicht tun. So arbeitet Celainn Barr an einem Projekt, dass eben jenen Strukturfonds systematisch untersuchbar macht. Barr arbeitet unter anderem für die britische Non-Profit-Organisation Bureau of Investigative Journalism in London. Als Teil eines Teams des Bureau of Investigative Journalism entwickelte sie das Werkzeug in Kooperation mit der Financial Times.

Eine der eher unerfreulicheren Erkenntnisse: Der Missbrauch von EU-Geldern durch die italienische ‘Ndrangheta ist keine Seltenheit. Millionen gingen an sie. Überhaupt gibt es gelegentlich seltsame Empfänger von europäischen Fördergeldern, beispielsweise die Konzerne Coca-Cola, British American Tobacco und IBM. Andere Projekte, die durchaus sinnvoll erscheinen, wurde wie eine spanische Meerwasser-Entsalzungsanlage gefördert und gebaut, aber nie in Betrieb genommen.

Die EU-Kommission begrüßte das Projekt. Kommissar Johannes Hahn erklärte, die Untersuchung sei ein Beitrag zur öffentlichen Debatte über die europäische Förderpolitik. Zum Thema ungewollte Förderung der Mafia äußerte er sich nicht.

Giftiges Geld

Von 10. Oktober 2011 um 11:48 Uhr

Die Lage bleibt diffus: Die Eurokrise dominiert zwar weiterhin die Schlagzeilen, aber die tatsächlichen Konturen der Krise sind oft nur für Fachleute erkennbar. Denn neben Griechenland, dessen Staatsschulden das Land zu erdrücken drohen, sind mittlerweile auch zahlreiche europäische Banken von der Krise betroffen.

So wurde heute bekannt, dass die belgisch-französische Bank Dexia zerschlagen wird. Der belgische Staat wird 100 Prozent des belgischen Anteils der Bank erwerben. Eine weitere Episode in der langen Geschichte vergemeinschafteter Schulden. Denn auch in Belgien rettet auf diese Art und Weise der Steuerzahler das marodierte Geldhaus. Um die Dimension der Dexia-Krise zu veranschaulichen, hatten die Kollegen der französische Zeitung Libération schon vor Tagen eine Infografik veröffentlicht, die die Streubreite der sogenannten toxischen Papiere der Dexia in Frankreich darlegt. Auf der interaktiven Landkarte wird offenkundig, wie bedrohlich die Lage für die Städte und Kommunen jenseits des Rheins werden könnte. Denn die Großbank Dexia ist der größte Kreditgeber für Kommunen und Städte. Sie könnte der Infarkt der Dexia teuer zu stehen kommen, da das Ausmaß der flächendeckenden Kontaminierung durch giftiges Geld atemberaubend ist.

“Viele hadern noch mit der Idee Open Data”

Von 8. September 2011 um 17:09 Uhr

Der Begriff Open Data hat eine steile Karriere hinter sich. Vor wenigen Jahren konnten höchstens Insider etwas mit der verheißungsvollen Begriffskombination aus “offen” und “Daten” anfangen. Heute sieht das anders aus. Die Bereitstellung von Daten, die beispielsweise von öffentlichen Stellen erhoben wurden, könnte zu neuen Anwendungen führen. Der vielfach geforderte “maschinenlesbare” Staat würde transparenter und bürgerfreundlicher. So wären zum Beispiel Anwendungen denkbar, die Geldflüsse aus Haushaltsmitteln veranschaulichen.

Aus diesen Gründen interessieren sich auch mittlerweile Kommunen und Unternehmen für das Feld. Selbst in den aktuellen Wahlkämpfen taucht das Thema an der Peripherie auf. Aber wo steht die noch immer junge Open-Data-Bewegung? Welche Perspektiven bieten sich ihr? Und was sind ihre größten Herausforderungen, gerade in Deutschland? Das sind die Themen eines Interviews mit Lorenz Matzat. Seit Oktober 2010 schrieb er im Open-Data-Blog. Jetzt zieht er Bilanz. Denn Lorenz Matzat geht von Bord. Neue Projekte stehen auf seiner Agenda.

Das Interview führte Markus Heidmeier, Autor des Leaks-Blogs hier auf ZEIT ONLINE. Nach dem Abgang von Matzat werden das Leaks-Blog und das Open-Data-Blog im Data-Blog vereint. In ihm wird es künftig um das gesamte Spektrum gehen – von Open Data bis Datenjournalismus.

Markus Heidmeier: Springen wir mal ein paar Jahre zurück. Wie bist Du eigentlich mit dem Thema Open-Data und Datenjournalismus in Berührung gekommen?

Lorenz Matzat: Mit einigen Kollegen habe ich 2009 das Projekt wahlversprechen.info umgesetzt. Eine Plattform, auf der die Zuverlässigkeit von Wahlkampfaussagen beobachtet werden kann, Stichwort Crowdsourcing. In dem Zusammenhang verfolgten wir Barack Obamas Wahlkampf in den USA bei dem die Themen Open Data und Open Government eine Rolle spielten. Ende 2009 gründeten wir dann den Verein Open-Data-Network. Zu diesem Zeitpunkt stieß ich dann auch auf das Datablog des Guardian, das seit Frühjahr 2009 läuft.

Heidmeier: Welche Bedeutung hast Du dem anfangs beigemessen, beziehungsweise welche Erfolgschancen hast Du anfangs für Open-Data Konzepte gesehen? Welche Erwartungen waren mit der Bewegung am Anfang verknüpft?

Matzat: Es war naive Euphorie dabei. Es war alles noch sehr unkonkret und abstrakt. Ein Punkt war aber bereits klar zu erkennen: Hier steckt ein enormes gesellschaftliches, mediales aber auch unternehmerisches Potential. Endlich lässt sich mal etwas Sinnvolles mit dem Internet anfangen jenseits von Shopping und schnellem Informationsaustausch.

Weiter…