Offene Daten – offene Gesellschaft
Kategorie:

Datenprojekt

Luftbild-Karten selbstgemacht

Von 18. April 2012 um 10:03 Uhr

Balloon-Mapping, die Grundausrüstung / Quelle: http://publiclaboratory.org/wiki/balloon-mapping-materials (CC BY-NC-SA 2.0)

Monopole nützen wenigen, Technik und Daten, die jedem zugänglich sind, nützen vielen. Ein Beispiel dafür sind Bilder der Erde. Früher konnten sich nur Geheimdienste großer Staaten Satelliten- und Luftaufnahmen leisten, dann große Firmen, dann kam Google und machte sie der Welt zugänglich. Mit dem Ergebnis, dass inzwischen unzählige Angebote diese Bilder nutzen.

Der nächste Schritt dieser Demokratisierung ist, auch die Herstellung solcher Bilder für jeden möglich zu machen. Dieser Idee hat sich eine Bewegung namens Grassroots-Mapping verschrieben. Die Fans basteln Ballons, um Kameras in den Himmel steigen zu lassen und so Bilder zu sammeln.

Infrarot-Aufnahme des Gowanus-Kanals in New York. Freiwillige beobachten mit von Ballons gemachten Fotos, ob Abwässer eingeleitet werden / Quelle: http://mapknitter.org/map/view/2011-7-31-brooklyn-gowanus-ir (Public Domain)

Denn Googles Ergebnisse sind zwar für jeden kostenlos sichtbar, die Rohdaten aber nicht. Denn sie gehören noch immer einem Konzern – bilden also weiterhin ein Monopol. Weswegen Google auch durchaus darüber nachdenkt, Geld für seine Karten zu nehmen. Das störte auch schon bei den im Internet verfügbaren Straßenkarten viele, weswegen erfolgreiche Projekte wie Open Street Map entstanden und Nutzer die Daten selbst sammelten.

Das Public Laboratory for Open Technology and Science hat nun ein Balloon Mapping Kit zusammengestellt, mit dem jeder für wenig Geld Luftbilder erstellen und zu Karten bauen kann. Angeboten wird der Bausatz für 85 Dollar, es fehlen dann noch eine Kamera und Helium für den Ballon. Die Karten-Software namens Map Knitter ist kostenlos.

Auf der Seite des Public Laboratory gibt es viele Bauanleitungen und Tipps für solche Projekte. Beispielsweise das Soda-Bottle-Rig. Der Halterahmen, gebaut aus PET-Flaschen und Gummis schützt die Kamera bei Stürzen und verringert ihr Schlingern in der Luft.

Wozu das Ganze? Nun, beispielsweise um sich einen Überblick über eine Ölpest zu verschaffen. Oder um das Ausmaß von Demonstrationen wie Occupy zu dokumentieren. Oder, oder.

Übrigens, wer kein Helium auftreiben kann, das funktioniert natürlich auch mit Drachen.

Für viele sinnvoll werden die Daten allerdings nur, wenn sie auch irgendwo gesammelt werden. Daher hat das Public Laboratory dafür eine Datenbank aufgesetzt. Fehlt eigentlich nur noch eine Plattform, die Luftbilder aus aller Welt sammelt und zu einer Weltkarte baut.

Via Google Lat Long

Kategorien: Datenprojekt, Datenquelle

“Guardian” will Cookie-Daten sammeln

Von 16. April 2012 um 14:45 Uhr

Firefox-Add-on "Collusion" von Mozilla, das Cookies auswertet und verfolgt / Screenshot ZEIT ONLINE

Wer an Daten kommen will, kann diese in bestehenden Datenbanken suchen. Oder er kann sie selber sammeln.

Die britische Zeitung Guardian hat gemeinsam mit der Mozilla-Foundation ein Projekt gestartet, um zu untersuchen, was Cookies im Internet so alles ausforschen. Tracking the Trackers ist der Titel, was so viel heißt, wie die Verfolger zu verfolgen.

Cookies und andere Werkzeuge überwachen viele Handlungen im Netz und beobachten, was Nutzer sehen und tun. Die Zeitung möchte mit ihrem Projekt herausfinden, wer die Entwickler dieser Cookies sind und wer die Nutznießer der von ihnen gesammelten Daten. Dazu aber braucht man erst einmal die Daten.

Noch sind keine Ergebnisse zu sehen, denn die dafür notwendigen Informationen wirbt der Guardian derzeit erst bei seinen Lesern ein. Die werden gebeten, bei Mozilla ein Zusatzprogramm für den Browser Firefox herunterzuladen. Das Add-on namens Collusion beobachtet dann die Cookies, die sich ein Nutzer einfängt. Das sind viele. Wie viele, hat beispielsweise Astrid Herbold gerade für ZEIT ONLINE aufgeschrieben.

Der Guardian nun bittet seine Nutzer, die gesammelten Daten anschließend zu spenden. Schon die Bewegungen eines normalen Surf-Tages genügten dafür.

Mit dem Projekt wolle man besser verstehen, wer die Giganten in dem Geschäft sind. Anschließend werde man diese, wenn sie denn identifiziert sind, zurückverfolgen. “Wir werden herausfinden, welche Daten sie sammeln und warum”, schreibt die Zeitung.

Die genaue Anleitung für die Installation von Collusion und für den Export der Daten gibt es hier.

Das Prinzip heißt Crowdsourcing: die Nutzung des Wissens der Masse. Mozilla selbst plant das auch. Noch ist Collusion im Experimentierstatus. In der endgültigen Version soll es die Möglichkeit geben, seine Daten anonym zu spenden, sodass eine weltweite Datenbank des Webtrackings entstehe, heißt es auf der Mozilla-Seite.

Diese Art der Mitarbeit kann spannende Ergebnisse liefern. So hat der Programmierer Michael Kreil von einiger Zeit darum gebeten, ihm die Lokalisierungsdaten zu spenden, die iPhones bis dahin gesammelt hatten. Mit diesen baute er mehrere Filme, auf denen die Bewegungen von iPhone-Besitzern vor allem in Deutschland zu sehen waren.

Das Wall Street Journal hatte vor einiger Zeit ein ähnliches Projekt gestartet. Auch What They Know will zeigen, was Onlinemarketingfirmen über Nutzer wissen. Das Ergebnis war vor allem eine spannende Grafik. Die Daten dazu wurden allerdings nicht von vielen Menschen gesammelt, sondern von einem Analysten, der sich einzelne Websites ansah.

Der Ansatz des Guardian verspricht da mehr Überraschung, da er ohne konkretes Ziel erst einmal alle Daten sammelt und dann schaut, was sich darin findet.

Kategorien: Datenprojekt

Offene Daten genügen nicht

Von 26. März 2012 um 12:54 Uhr

Screenshot des Datenportals der Bundesregierung

Die britische Regierung hat sich gerade selbst gelobt. Wenn es darum gehe, Datenbestände von Behörden öffentlich zugänglich zu machen, sei das Land führend in der Welt, sagte Kabinettsminister Francis Maude bei einer Tagung zum Thema Open Data in Birmingham. Die entsprechende Seite, data.gov.uk, sei die größte ihrer Art, mehr als 40.000 Datensätze stünden dort bereits zur Verfügung.

Das klingt toll. Doch der Zugang zu den Rohdaten ist nur der erste Schritt. Denn Rohdaten erreichen nur Spezialisten. Wer mit ihnen etwas anfangen will, muss sich mit vielen Werkzeugen auskennen, muss im Zweifel programmieren und Grafiken bauen können. Nur dann lassen sich aus ihnen sinnvolle Informationen gewinnen.

Maude hat das auch angedeutet. Immerhin sagte er, offene Daten seien “das Rohmaterial einer neuen industriellen Revolution”.

Etwas klarer drückte sich in diesem Zusammenhang der Chief Information Officer der amerikanischen Regierung aus. Steven VanRoekel sagte laut einem Bericht des Nieman Journalism Labs vor kurzem an der Harvard Law School, eine solche staatliche Datenplattform sei nur eine “dumme Leitung” (dumb pipe).

Die USA haben mit data.gov eine ebensolche Seite wie die Briten. Damit die Inhalte jedoch von Nutzen wären, müssten sie aufgearbeitet werden, findet VanRoekel – und zwar von der Regierung selbst.

“Wir müssen mit dem Datengeschäft aufhören und mit dem Plattformgeschäft anfangen”, sagte er und meinte, die Regierung selbst solle damit beginnen, die Instrumente und Apps anzubieten, um die Daten lesen und verstehen zu können. Ohne diese finde niemand “die Nadel im Heuhaufen”, ja er könne nicht einmal den Heuhaufen sehen. Zu viele Daten gebe es inzwischen. Er wolle data.gov daher zu einer echten Open-Data-Plattform ausbauen.

Das klingt, als sind die Briten nur bei der schlichten Masse führend. Wenn es um die Möglichkeiten offener Daten geht, denken die USA längst weiter. Zumindest aber soll die britische Seite data.gov.uk in den kommenden Monaten überarbeitet werden, damit sie für Firmen leichter nutzbar sei, kündigte Maude an.

Und wie weit ist Deutschland bei dem Thema? Nunja. Die Datenplattform des Bundes existiert zumindest schon einmal als Website. Ein Prototyp mit ersten Datensätzen soll 2013 fertig sein. Vielleicht. Von der Entwicklung eigener Apps ist das zuständige Bundesinnenministerium wahrscheinlich noch weit entfernt.

Kategorien: Datenpolitik, Datenprojekt

Offene Daten als Werbung

Von 12. März 2012 um 09:49 Uhr

Prozentualer Anteil der Bevölkerung, der älter als 65 Jahre ist - Screenshot einer Grafik vom Datenportal Europe eXplorer

Die 2010 gegründete schwedische Firma NComVA ist eine Ausgründung des National Center for Visual Analytics der Universität Linköping. NComVA beschäftigt sich damit, Dinge zu visualisieren, also grafisch darzustellen, seien es städtische Strukturen oder demografische Daten. Man wolle, so steht es in der Selbstbeschreibung, statistische Informationen so gut wie nur möglich zugänglich machen, damit sie verstanden werden können.

Wie so etwas aussehen kann, zeigt das Unternehmen beispielsweise anhand der europäischen Bevölkerungsstatistik. Unter dem Titel “Europa eXplorer” ist die Altersstruktur der EU-Länder auf vielfältige Weise verarbeitet.

Auf Karten, Diagrammen und Punktwolken ist zu beobachten, wie sich Junge und Alte in Europa verteilen: Irland und Polen sind jung, Deutschland, Italien und Griechenland sind alt.

Der Nutzer kann selbst mit den Daten herumfummeln, kann verschiedene Darstellungsformen wählen, Filter darüber legen oder neue Kategorien hinzufügen und anzeigen lassen.

Die verwendeten Rohdaten sind frei und können heruntergeladen werden.

Außerdem kann die Plattform genutzt werden, um eigene Daten darzustellen. Hochgeladen werden können Daten im Excel- und im PC-Axis-Format.

Das Unternehmen bietet viele weitere Grafiken an. Beispielsweise eine, die den globalen Handel der USA mit OECD-Staaten darstellt, oder eine über Geburtenraten.

Das Ganze ist selbstverständlich Werbung für die Produkte der Firma. Aber es ist gute Werbung, lässt sie dem Nutzer doch die Freiheit, herumzuprobieren und Daten zu importieren und zu exportieren.

Kategorien: Datenprojekt, Datensatz

Datenjournalisten aller Länder, vereinigt euch!

Von 13. Februar 2012 um 10:54 Uhr

Denn es gibt einen reizvollen Preis zu gewinnen, den ersten Data Journalism Award (DJA) ausgerufen vom Global Editors Network, dem European Journalism Center und Google. Insgesamt stehen 45.000 Euro zur Verfügung, die in drei Preiskategorien vergeben werden.

Arbeiten aus dem Bereich des datengetriebenen investigativen Journalismus (Data-driven investigative journalism) werden ebenso ausgezeichnet wie Datenvisualisierungen und datenbasierte Erzählformen (Data visualisation & storytelling) und datengestützte Anwendungen für das Netz und mobile Endgeräte (Data-driven applications (mobile or web)). Projekte können sowohl von Redaktionen und Projektteams, Freelancern als auch von Medienunternehmen und Non-Profit-Organisationen eingereicht werden. Deadline ist der 10. April, 23,59 Uhr. Wichtig ist, dass die eingereichten Projekte zwischen dem 11. April 2011 und dem 10. April 2012 publiziert worden sein müssen. In der Jury sitzt neben Paul Steiger von ProPublica und Peter Barron von Google unter anderem auch Wolfgang Blau, Chefredakteur von Zeit Online.

Alle Projekte müssen übrigens in englischer Sprache verfasst sein oder zumindest mit einer umfangreichen Transkription der Inhalte und einer Übersetzung aller weiteren Elemente (z.B. Benennung von Grafiken oder anderen Visualisierungselementen) versehen werden.

Das sollten jedoch alles keine Hinderungsgründe sein, auch einige der ambitionierten deutschsprachigen Projekte der letzten Monate einzureichen. Deshalb an dieser Stelle auch die Frage an die Leserinnen und Leser von Zeit Online: Welche Projekte halten Sie für preiswürdig? Wir werden einige von ihnen, soweit noch nicht geschehen, hier vorstellen.

 

 

 

Daten und Orte. Die Berliner Ausgabe des internationalen Open Hackday beschäftigt sich mit Geodaten

Von 2. Dezember 2011 um 16:03 Uhr

“Die Koalition wird die Open-Data-Initiative des Landes fortsetzen und ausbauen. Dazu setzt sie sich für eine Prüfung der weitgehenden Offenlegung von öffentlichen Daten (z. B. Geoinformationsdaten) unter Wahrung des persönlichen Datenschutzes ein.”

Mit diesem Zitat aus dem Koalitionsvertrag zwischen SPD und CDU in Berlin lädt ein Artikel im Blog der Open Knowledge Foundation Deutschland zum morgigen Berliner Open Data Hackday ein. (Hier gibt es den Koalitionsvertrag übrigens als PDF). Der Berliner Hackday ist die deutsche Ausgabe des International Open Data Hackathon, der am 3. und 4. Dezember weltweit stattfindet.

Zentren des internationalen Hackathon sind unter anderem in Kanada und Brasilien, weil der Hackathon maßgeblich von dem im kanadischen Vancouver tätigen Open Data Aktivisten David Eaves und der brasilianischen Transparência Hacker Bewegung ins Leben gerufen wurde, sagt Daniel Dietrich. Er ist einer der führenden Köpfe der Open Knowledge Foundation Deutschland.

Nach dem es zuletzt vielfach Kritik an einem Erlahmen der Open Data Bewegung gegeben hatte, wird der weltweite Open Data Hackday zeigen, wie vital die Open-Data-Initiativen in vielen Ländern sind, so Dietrich weiter. Vorbilder des internationalen Open-Data-Events waren die erfolgreichen Music Hackdays der letzten Jahre.

Der Berliner Open-Data-Hackday soll vor allem Akteure der Szene versammeln. Denn aktuell ist nichts wichtiger, als die Kreativen immer wieder zu neuen Teams zusammenzuführen, um möglichst rasch weitere Anwendungen zu entwickeln, die die Relevanz und alltägliche Anwendbarkeit von Open Data zeigen (Der www.opendata-showroom.org liefert übrigens zahlreiche Beispiele bereits vorhandener Applikationen). Um dem Community-Building-Ereignis, so Dietrich, endlich auch eine klare Kontur zu geben, wird der Berliner Open Hackday in diesem Jahr auch ein Leitthema haben. Es geht um Open Data Anwendungen, die mit Geodaten arbeiten. Deshalb lädt die Open Knowledge Foundation auch wie folgt ein:

... zum Open Data Hackday am 03. und 04. Dezember 2011 in Berlin. Wir wollen jeweils den ganzen Tag von 10 Uhr – bis 19 Uhr hacken und uns dabei vor allem die Daten des FIS-Brokers anschauen. Diese können natürlich nach belieben mit anderen Datensätzen z.B. aus dem Berliner Datenportal daten.berlin.de oder dem Katalog für offene Daten www.offenedaten.de oder anderen Fundstellen kombiniert werden….

Im Berliner Stadtteil Kreuzberg wird ab morgen und am Sonntag ab 10 Uhr gehackt, was das Zeug hält. Wer Hackern schon immer mal bei der Arbeit zu sehen wollte oder eigene Fähigkeiten mit denen anderer verbinden möchte, sollte sich in den Hallen von Co-Up einfinden.

Weltkarte deutscher Entwicklungshilfe

Von 2. November 2011 um 14:39 Uhr

Vor einigen Wochen fand in Berlin die Open Aid Data Konferenz statt. Die Möglichkeiten der Optimierung von Geldflüssen und Projektausrichtungen in der Entwicklungshilfe wurden diskutiert. Dass Open Data Entwicklungszusammenarbeit verbessern kann, ist seit Längerem klar. Jetzt hat der Open-Data-Aktivist und Macher des Hyperlocalportals Frankfurt-Gestalten.de, Christian Kreutz, für die Open Knowledge Foundation Germany eine Weltkarte deutscher Geldflüsse im Kontext Entwicklungszusammenarbeit erstellt.

Auf dem ZDF-Blog Hyperland erschien daraufhin ein Making-Of der Karte unter dem Titel “Wie ein Daten-Mashup die deutsche Entwicklungshilfe aufschlüsselt“. Hochspannend erklärt die Autorin Christiane Schulzki-Haddouti im Blogpost, wie die Daten erschlossen wurden, welche eklatanten Defizite es bei der Datenbereitstellung noch gibt und welche überraschenden Erkenntnisse das Mash-Up liefert.

Zum Beispiel fließen die mit Abstand meisten Mittel aus deutschen Fördertöpfen nicht nach Afrika, wie man vielleicht mit Blick auf dortige Hungerkatastrophen erwarten könnte, sondern in die sogenannten BRIC-Länder: Brasilien, Russland, Indien und China.

Datenprojekt macht die versteckten Milliarden der EU sichtbar

Von 13. Oktober 2011 um 17:58 Uhr

Die Europäische Union ist ein Monstrum. Hunderte Behörden hat sie, Tausende Gremien und mindestens zehntausend unterschiedliche Normen für das Gewicht von Bananen, für die Wärmedämmungen von Hausfassaden oder für Schallschutzbestimmungen von Schwerlastzügen. Neben diesen ungezählten Verordnungen und Richtlinien gibt es mindestens ebenso viele Förderprogramme und Subventionstöpfe.

So jedenfalls die allgemeine Wahrnehmung. Die ist nicht ganz falsch, wie der Strukturfonds zeigt, eines der wichtigsten Instrumente europäischer Planungs- und Steuerungspolitik. Allein der Strukturfonds setzt sich aus fünf Unterfonds zusammen, die so attraktive Titel tragen wie Regionalfonds EFRE inklusive Interreg IV oder Landwirtschaftsfonds ELER inklusive Leader. So etwas kann durchaus von der näheren Beschäftigung abschrecken. Doch beträgt das Gesamtbudget des Strukturfonds mehr als 45 Milliarden Euro. Das ist zu gewaltig, als dass Datenjournalisten diesen Fonds ignorieren sollten.

Was sie natürlich auch nicht tun. So arbeitet Celainn Barr an einem Projekt, dass eben jenen Strukturfonds systematisch untersuchbar macht. Barr arbeitet unter anderem für die britische Non-Profit-Organisation Bureau of Investigative Journalism in London. Als Teil eines Teams des Bureau of Investigative Journalism entwickelte sie das Werkzeug in Kooperation mit der Financial Times.

Eine der eher unerfreulicheren Erkenntnisse: Der Missbrauch von EU-Geldern durch die italienische ‘Ndrangheta ist keine Seltenheit. Millionen gingen an sie. Überhaupt gibt es gelegentlich seltsame Empfänger von europäischen Fördergeldern, beispielsweise die Konzerne Coca-Cola, British American Tobacco und IBM. Andere Projekte, die durchaus sinnvoll erscheinen, wurde wie eine spanische Meerwasser-Entsalzungsanlage gefördert und gebaut, aber nie in Betrieb genommen.

Die EU-Kommission begrüßte das Projekt. Kommissar Johannes Hahn erklärte, die Untersuchung sei ein Beitrag zur öffentlichen Debatte über die europäische Förderpolitik. Zum Thema ungewollte Förderung der Mafia äußerte er sich nicht.

Das Ende der Theorie: Data Driven History

Von 5. Oktober 2011 um 17:14 Uhr

Unter dem großspurigen Titel The End of Theory erklärte Wired-Herausgeber Chris Anderson vor einigen Jahren theoretische Konzepte kurzerhand für überflüssig. Die neuen, nun verfügbaren Datenmengen würden induktive Data-Mining-Verfahren ermöglichen, die nichts anderes wären als die Zukunft wissenschaftlicher Methodologie. Und zwar die einzige. Big Data, das Finden von Mustern in großen Datenbeständen, sei der “direkte Weg zur Wahrheit”.

Bislang ist Andersons Prognose nicht eingetreten, da auch große Datenmengen Modelle brauchen, mit deren Hilfe sie durchsucht werden können. Und da auch bei ihnen bewährte statistische Konstrukte nicht vernachlässigt werden dürfen. So schrieb beispielsweise die Ethnologin Danah Boyd, große Datensätze führten zu falschen Beobachtungen, würden Qualitätskriterien wie die Repräsentativität der Daten missachtet. Zitat: “Bigger Data are Not Always Better Data.”

Trotzdem blieb “Big Data” in den Naturwissenschaften nicht ohne Wirkung, die Möglichkeiten sind zu faszinierend. Nun hat dieser Gedanke auch die Geisteswissenschaften erreicht. Die rechnerbasierte Verarbeitung großer Datensätze könne revolutionäres Potenzial besitzen, glauben erste Wissenschaftler. Auf der Tagung .hist 2011 – Geschichte im digitalen Wandel hielt der Medienwissenschaftler Theo Röhle von der Universität Paderborn dazu einen anschaulichen Vortrag.

Das Erstaunliche daran: Die Debatte ist alt. In den USA gab es bereits in den 1950er Jahren eine lebhafte Diskussion darum, wie wichtig die Quantifizierung auch in der Geschichtswissenschaft ist. Das Internet nun scheint die klassische Theoriebildung der Historiker auf eine neue Grundlage zu stellen. Beispielsweise durch die Analyse von Worthäufigkeiten in Tageszeitungen. “Data Driven History” nennt es Röhler und hofft, damit nicht nur über die Moderne mehr zu erfahren, sondern beispielsweise auch über das Mittelalter. Immerhin sind viele Quellen inzwischen in digitaler Form vorhanden.

Die schlaue Parkuhr

Von 15. August 2011 um 10:48 Uhr
parking situation sfpark

Sensoren-Parkplätze: Monatlich wird der Preis für das Parken angehoben oder gesenkt

Parkplätze sind in San Francisco rar und dementsprechend teuer. Ein Tag im Parkhaus kann 30 Dollar und mehr kosten, Parkplätze von Hotels sogar leicht das Doppelte dessen. Das Projekt SFpark will daher die begrenzte Ressource nahezu in Echtzeit organisieren. In sechs Vierteln von San Francisco befinden sich nun im Teer von rund 7.000 Parkplätzen Sensoren. Das sind etwa ein Viertel aller mit Parkuhren ausgestatteten Parkplätze in der Stadt. Diese Sensoren sind mit der Parkuhr gekoppelt, die via Internet bekannt gibt, ob der Platz besetzt oder frei ist.

Die Idee: Gemeldet wird nicht nur ein freier Parkplatz. Je nach registrierter Nachfrage schwankt auch der Preis, der an der Parkuhr zu entrichten ist. “Nachfrage-orientierte Preise ermutigen Fahrer, in weniger genutzten Gegenden sowie Parkhäusern zu parken und somit viel genutzte Gegenden zu entlasten”, heißt es in der Selbstdarstellung. Einmal im Monat wird die Nachfrage in den vorherigen 30 Tagen ermittelt und der Stundenparkpreis dementsprechend angepasst. Die Obergrenze liegt derzeit bei 3,50 Dollar pro Stunde. Er kann allerdings bis auf 6 Dollar steigen und zu besonderer Veranstaltungen, etwa Straßenfesten, kurzfristig bis auf 18 Dollar pro Stunde angehoben werden.

Gleichzeitig steigt die mögliche Parkdauer. Normalerweise darf an Parkuhren in der Stadt zwei Stunden lang ein Auto abgestellt werden. Bei Sensor-Parkplätzen sind es vier Stunden, an einigen ist gar eine unbegrenzte Parkzeit erlaubt. Nicht über die Zeit also soll die Fluktuation geregelt werden, sondern über das Geld.

Weiter…

Kategorien: Datenmessung, Datenprojekt