Die 2010 gegründete schwedische Firma NComVA ist eine Ausgründung des National Center for Visual Analytics der Universität Linköping. NComVA beschäftigt sich damit, Dinge zu visualisieren, also grafisch darzustellen, seien es städtische Strukturen oder demografische Daten. Man wolle, so steht es in der Selbstbeschreibung, statistische Informationen so gut wie nur möglich zugänglich machen, damit sie verstanden werden können.
Wie so etwas aussehen kann, zeigt das Unternehmen beispielsweise anhand der europäischen Bevölkerungsstatistik. Unter dem Titel „Europa eXplorer“ ist die Altersstruktur der EU-Länder auf vielfältige Weise verarbeitet.
Auf Karten, Diagrammen und Punktwolken ist zu beobachten, wie sich Junge und Alte in Europa verteilen: Irland und Polen sind jung, Deutschland, Italien und Griechenland sind alt.
Der Nutzer kann selbst mit den Daten herumfummeln, kann verschiedene Darstellungsformen wählen, Filter darüber legen oder neue Kategorien hinzufügen und anzeigen lassen.
Die verwendeten Rohdaten sind frei und können heruntergeladen werden.
Außerdem kann die Plattform genutzt werden, um eigene Daten darzustellen. Hochgeladen werden können Daten im Excel- und im PC-Axis-Format.
Das Ganze ist selbstverständlich Werbung für die Produkte der Firma. Aber es ist gute Werbung, lässt sie dem Nutzer doch die Freiheit, herumzuprobieren und Daten zu importieren und zu exportieren.
Pete Warden hat mal wieder Daten visualisiert. Warden ist der Gründer von Open Heat Map, einer Seite, mit der jeder in wenigen Schritten verschiedenste Daten in Karten und Darstellungen unwandeln kann.
Dieses Mal fragte sich Warden, wohin Amerikaner so in den Urlaub fahren oder fliegen und nutzte dazu Daten von Facebook. Basis waren die Geodaten vom Aufnahmeort von mehr als 350 Millionen Fotos, die auf Facebook verbreitet wurden. Daraus entstanden ist dann eine Karte der Urlaubsziele amerikanischer Facebooknutzer.
Das sieht schön aus und sagt auch etwas über die Gewohnheiten der Urlauber. So kommen die meisten Chinabesucher aus der Universitätsstadt Stanford, die meisten Spanientouristen aus Miami Beach und New Yorker fliegen am liebsten nach Paris. Wobei die mit Abstand meisten Paris-Reisenden aus West Hollywood kommen. Warum auch immer.
Das eigentlich spannende aber ist gar nicht die Karte oder das Projekt, es ist die Dokumentation dazu. Denn Pete Warden will nicht nur offene Daten erzeugen, er will auch sein Wissen offenlegen.
Und so erklärt er bei Radar O’Reilly Schritt für Schritt, wie es zu der Karte kam. Nebenbei erzählt er viel darüber, was sich mit Daten anstellen lässt und was bei der Verarbeitung beachtet werden sollte.
Ein wichtiges Wort dabei ist „fun„, Spaß. Schließlich haben die Open-Data-Bewegung, Datenjournalismus und Datenvisualisierung den schönen Nebeneffekt, dass sie zeigen, dass in Daten spannende Geschichten stecken, dass sie tatsächlich Spaß machen können.
Bei Warden liest sich das dann so: „My problem is that I want other people to have as much fun exploring the data as I’ve had, so I couldn’t resist adding some interaction to the vacation visualization.“ Weil er wolle, dass andere ebensoviel Spaß am Erforschen der Informationen hätten wie er, baue er gern interaktive Elemente ein. Wobei er im Weiteren erzählt, dass Interaktion nicht immer eine gute Idee sei, weil sie verwirrend sein könne. Manchmal sei eine statische Grafik schlicht besser, weil sie sofort vermittle, worum es bei der Geschichte geht.
Die Facebook-Touristen-Grafik ist dann aber doch interaktiv geworden. Warden sagt auch, warum: „I build these visualizations so I can explore them myself, so my favorite part of the whole process is the chance to sit and play with the results. There’s always unexpected stories hidden in there, and I love uncovering them.“ Denn der schönste Teil des ganzen Prozesses sei für ihn das anschließende Herumspielen mit der Grafik und das Suchen nach versteckten Geschichten. Denn die gebe es immer. „Und ich liebe es, sie zu finden.“
Damit Daten um die Welt reisen können, braucht es eine Infrastruktur. Die besteht vor allem aus Kabeln, die am Meeresboden verlegt sind und die Kontinente miteinander verbinden. Eine aktuelle Karte dieser Verbindungen bietet die interaktive Submarine-Cablemap.
Das Unternehmen, das die Grafik erstellt, verkauft sie als Poster für 250 Dollar. Die Daten zum Erzeugen der Karte jedoch sind frei zugänglich und können bei Github abgerufen werden.
Jede einzelne der fast 190 Verbindungen kann angeklickt werden. Angezeigt werden dann die Länge des Kabels, der Eigentümer und die „landing points“, also wo sie aufs Festland trifft.
Das Unternehmen TeleGeography erstellt solche Karten seit mehreren Jahren, trotzdem ist ein historischer Vergleich leider nicht möglich. Der wäre sicher interessant, ließe sich doch an der Zahl und der Kapazität der Kabel das Wachsen des Internets beobachten. Beziehungsweise das der Fernkommunikation. Denn schon 1901 verband die Kontinente ein dichtes Netz von Telefonkabeln.
Die Bilder der Nasa können schon seit Jahren frei von jedem verwendet werden. Nun hat sich auch das Deutsche Zentrum für Luft- und Raumfahrt (DLR) dazu entschlossen, seine Bilder zu „befreien“. Für die Idee, dass öffentlich finanzierte Daten auch der Öffentlichkeit zur Verfügung stehen sollten, ist das ein großer Fortschritt.
Alle Fotos und Videos, die vom DLR gemacht werden, stehen ab sofort unter einer Creative-Commons-Lizenz. Sie können somit unter bestimmten Bedingungen von jedem genutzt werden, um eigene Projekte zu bebildern. Vor allem die Onlineenzyklopädie Wikipedia profitiert davon.
Sie war es auch, die den Anstoß zu der „Befreiung“ der Bilder gab. Beziehungsweise Wikimedia Deutschland – Gesellschaft zur Förderung Freien Wissens e.V., also der Verein, der sich hierzulande um Belange rund um die Wikipedia kümmert. Im Mai 2009 hatte Mathias Schindler von Wikimedia Deutschland beim DLR gefragt, ob man die Bilder nicht im Rahmen der Wikipedia nutzen könne. Es hat letztlich mehr als zwei Jahre gedauert, dafür aber ist die Erkenntnis beim DLR offensichtlich angekommen. Das DLR schreibt dazu in seinem Blog:
„Nicht nur, dass uns infolge von Mathias Schindlers Anfrage auffiel, dass wir Wikipedia hier sehr gerne unterstützen wollten – uns fiel auch auf, dass wir als Wissenschafts- und Technologiekommunikatoren das Teilen und damit die Verbreitung bzw. Multiplikation unserer Inhalte durch die allgemeine Öffentlichkeit und Medien unnötig erschwerten und dass wir bei genauer rechtlicher Auslegung unserer Nutzungsbedingungen auch den Medien genau das nicht eindeutig erlaubten, da die entsprechenden Verlage bzw. Unternehmen in den meisten Fällen kommerziell arbeitende Wirtschaftsunternehmen sind.“
Der Nachrichtenagentur dpa sagte DLR-Sprecher Marco Trovatello außerdem:
„Wir sind zu sehr großen Teilen aus Steuermitteln finanziert. Was wir machen, hat der Steuerzahler schon bezahlt. Wir geben die Ergebnisse jetzt dem Steuerzahler zurück.“
Die nun verwendete Lizenz ist die CC-BY 3.0. Sie verlangt lediglich, dass bei Verwendung der Bilder der Name des Urhebers korrekt genannt wird. Gleichzeitig muss eben diese Lizenz und ihre Bedingung mitgeteilt werden. Das heißt, wer ein solches Bild nutzt, kann es nicht exklusiv für sich nutzen, andere dürfen es auch weiterverbreiten.
Das DLR will damit aber nicht nur die Öffentlichkeit und die Wikipedia unterstützen, Zitat:
„Bei der Verwendung von CC-Inhalten geht es uns nicht nur um die gewünschte höhere Reichtweite der DLR-Inhalte, sondern auch um die Unterstützung der Vision von Creative Commons.“
Beim Wikimedia Deutschland ist man dementsprechend begeistert. Angesichts des Erfolges für die Idee „Open Data“ rief man die Öffentlichkeit dazu auf, „sich bei Behörden, Archiven und Ministerien Gehör zu verschaffen und für eine freie Lizenzierung von öffentlich finanzierten Werken einzutreten“.
Übrigens eine Forderung, die auch im Zusammenhang mit dem öffentlich-rechtlichen Rundfunk erhoben wird. Auch die von ARD und ZDF produzierten Inhalte wurden durch die Öffentlichkeit finanziert. Daher gibt es nicht wenige Menschen, die fordern, sie müssten auch allen zur Verfügung stehen. Allerdings haben private Verlage genau das Gegenteil durchgesetzt. Laut Rundfunkstaatsvertrag verschwinden die Inhalte nach derzeit meistens sieben Tagen aus den Archiven der öffentlich-rechtlichen Sender und sind damit für niemanden mehr nutzbar.
Denn es gibt einen reizvollen Preis zu gewinnen, den ersten Data Journalism Award (DJA) ausgerufen vom Global Editors Network, dem European Journalism Center und Google. Insgesamt stehen 45.000 Euro zur Verfügung, die in drei Preiskategorien vergeben werden.
Arbeiten aus dem Bereich des datengetriebenen investigativen Journalismus (Data-driven investigative journalism) werden ebenso ausgezeichnet wie Datenvisualisierungen und datenbasierte Erzählformen (Data visualisation & storytelling) und datengestützte Anwendungen für das Netz und mobile Endgeräte (Data-driven applications (mobile or web)). Projekte können sowohl von Redaktionen und Projektteams, Freelancern als auch von Medienunternehmen und Non-Profit-Organisationen eingereicht werden. Deadline ist der 10. April, 23,59 Uhr. Wichtig ist, dass die eingereichten Projekte zwischen dem 11. April 2011 und dem 10. April 2012 publiziert worden sein müssen. In der Jury sitzt neben Paul Steiger von ProPublica und Peter Barron von Google unter anderem auch Wolfgang Blau, Chefredakteur von Zeit Online.
Alle Projekte müssen übrigens in englischer Sprache verfasst sein oder zumindest mit einer umfangreichen Transkription der Inhalte und einer Übersetzung aller weiteren Elemente (z.B. Benennung von Grafiken oder anderen Visualisierungselementen) versehen werden.
Das sollten jedoch alles keine Hinderungsgründe sein, auch einige der ambitionierten deutschsprachigen Projekte der letzten Monate einzureichen. Deshalb an dieser Stelle auch die Frage an die Leserinnen und Leser von Zeit Online: Welche Projekte halten Sie für preiswürdig? Wir werden einige von ihnen, soweit noch nicht geschehen, hier vorstellen.
Erinnerungen sind nie authentisch. Erfolge und Niederlagen erfahren mit wachsendem zeitlichen Abstand erstaunliche Transformationen. Aus einer unappetitlichen Schmach wird im Laufe der Jahre und Jahrzehnte gerne ein heroisches Scheitern. Aus banalem Tagwerk wird schon mal ein hart errungener Triumph. Kein Wunder also, dass auch politische Retrospektiven immer umstritten bleiben. War Helmuth Schmidt tatsächlich der hellsichtigste unter den deutschen Nachkriegsregierungschefs? Oder ragt nicht doch der ungeliebte Wiedervereinigungskanzler Helmut Kohl für alle Zeiten uneinholbar heraus – Trotz aller Spendenaffären und Familientragödien? Die Deutung derartiger Leistungen wird immer von politischen, sozialen und gegenwartsgeprägten Standpunkten aus vorgenommen – und bleiben dementsprechend Interpretationen.
Es verwundert also nicht, dass die Bemühungen wachsen, auch die Analyse zeitgeschichtlicher Ereignisse mit Hilfe von Datenkorrelationen und Datenanalysen zu objektivieren. Wir sprachen an dieser Stelle beispielsweise schon von neuen Formen der Geschichtsschreibung unter dem Schlagwort Data Driven History. Gemeint ist der Versuch, durch die Auswertung historischer Datensätze etablierte Geschichtsbilder zu vervollständigen oder im besten Fall sogar zu erschüttern. Die Auswertungsstrategien erstrecken sich dabei von der Korrelation der Zahl historischer Fundstellen oder Umfang der Funde prähistorischer Artefakte bis hin zu sprachanalytischen Auswertungen von Begriffskonjunkturen in Dokumenten zurückliegender Jahrhunderte.
Das Data Blog des britischen Guardian hat sich nun mit den Spuren beschäftigt, die die Iron Lady, Margaret Thatcher, im Vereinigten Königreich hinterließ. Das Ganze ist natürlich streng datenbasiert. Anlass ist der Start des Kinofilms The Iron Lady, in dem Meryl Streep die mittlerweile an Demenz erkrankte Margaret Thatcher darstellt. Die Produktion hatte in Großbritannien für heftige Debatten gesorgt. Neben der Frage, ob es angemessen ist, ein sogennantes Biopic, also die Verfilmung einer Lebensgeschichte, über Sein und Wirken einer lebende Persönlichkeit zu produzieren, die sich vermutlich nicht mehr mit all ihren geistigen Kräften zur Wehr setzen kann, ist die Bewertung zurückliegender politischer Leistungen Kern der gesellschaftlichen Auseinandersetzung.
Keine Wunder also, dass der Guardian bemüht war, die Leistungen der ehemaligen Regierungschefin mit neuen Methoden sichtbar zu machen beziehungsweise in Frage zu stellen. In einer ganzen Reihe von Infografiken zeigt das Data Blog Team des Guardian, wie sich Großbritannien in der Regierungszeit Margaret Thatchers veränderte. Zu den interessantesten Visualisierungen der Vergangenheit gehören dabei unter anderem Darstellungen der Heirats- und Scheidungsquote. Während die Zahl der Trennungen mehr oder weniger konstant blieb, weist die Statistik einen eindeutigen Rückgang an Hochzeiten auf. Das führt umgehend zu weiteren Fragen: Ist der Regress auf die abschreckende Wirkung der Eisernen Lady auf heiratswillige Männer zurückzuführen oder einfach nur eine Erscheinung der zunehmend unverbindlicheren Lebensstile in einer post- oder sogar postpostmodernen Gesellschaft?
Die Arbeitslosenquote wiederum besitzt eine ganz eigene Dramaturgie. In den knapp eineinhalb Jahrzehnten ihrer Regentschaft konnte Margaret Thatcher alles vorweisen, was man Politikern vorwirft oder wofür man ihnen typischerweise dankt. Erst ging die Quote der Erwerbslosen dramatisch nach oben, dann wieder dramatisch nach unten. Bleibt also die Frage, wie groß das Verdienst beziehungsweise das Verschulden ist.
Ein eher wirres Bild zeigt die Visualisierung der Konjunkturdaten. Die Ausschläge sind stark. In beide Richtungen.
Die Preisentwicklung, insbesondere die Immobilienpreise, dagegen sprechen eine eindeutige Sprache. Ihr Anstieg ist steil, sehr steil. Nicht gerade das, was sich Mieter und Häuslebauer wünschen. Aber natürlich ideal für all jene, die schon Grund und Haus beziehungsweise Häuser besitzen.
Klar wird also anhand dieser Beispiele, das alles weiter unklar ist – trotz der Anschaulichkeit der Vergangenheit durch Datenvisualisierung. Die Bewertung politischer Leistungen ist weiter Interpretationssache. Jede Statistik, jede Infografik, jede Visualisierung ist nur soviel wert, wie der Kontext in dem sie auftaucht oder das Wissen, in dessen Licht der Betrachter sie einordnet. Die Wahrheit wird dauerhaft umstritten bleiben. Auch im Zeitalter von Big Data.
Nein, er war nicht dabei. Diesmal jedenfalls nicht. Aber es ging ja auch nicht um so aufmerksamkeitsträchtige Themen wie den Schutz verfolgter Online-Dissidenten in totalitären Regimen. Kein Kampf für die Verfolgten dieser Erde. Keine Schlagzeilen als Retter in der Not. Kein mediales Greenwashing des talentierten Freiherrn zu Guttenberg. Es ging nur um spröde Daten. Die liegen nach Angaben der EU-Kommissarin für die Digitalstrategie des Staatenbundes, Neelie Kroes, in den umfangreichen Archiven und den gewaltigen Datenbanken der öffentlichen Verwaltungen der Europäischen Union. Dort warten sie nun geradezu darauf, von der Öffentlichkeit entdeckt zu werden. Die Rede ist von der Nutzung öffentlicher Daten als Goldmine. So betitelte das Ressort der EU-Kommissarin in dieser Woche die Ankündigung einer neuen Open-Data-Strategie der Europäischen Union.
Empfohlener redaktioneller Inhalt
An dieser Stelle finden Sie externen Inhalt, der den Artikel ergänzt. Sie können sich externe Inhalte mit einem Klick anzeigen lassen und wieder ausblenden.
Die mit dieser neuen Strategie verknüpften wirtschaftlichen Hoffnungen sind alles andere als bescheiden. Ein schlafender Schatz im Wert von 40 Milliarden Euro (in Zahlen: 40.000.000.000) soll den strapazierten Ökonomien des Kontinents neuen Schwung verpassen. Die Vorgehensweise orientiert sich unter anderem an Frankreich und Großbritannien, die seit einiger Zeit positive Erfahrungen mit dem Angebot eigener Open-Data-Portale machen. In Großbritannien ist data.gov.uk bereits seit Jahren öffentlich und auch data.gouv.fr erfreut sich in Frankreich eines regen Interesses. Aus drei Teilen besteht nun die Strategie der EU:
Erstens wird die Kommission mit gutem Beispiel vorangehen und der Öffentlichkeit ihre Informationsschätze kostenlos über ein neues Datenportal zugänglich machen. Zweitens werden überall in der EU gleiche Wettbewerbsbedingungen in Bezug auf offene Daten geschaffen. Drittens werden für diese neuen Maßnahmen 100 Millionen Euro bereitgestellt, die im Zeitraum 2011–2013 für Forschungsarbeiten zu besseren Technologien im Umgang mit diesen Daten ausgegeben werden sollen.
Gerade die Forschung und Entwicklung neuer Technologien dürfte entscheidend für den Erfolg der Strategie sein. Zuletzt hatte Viktor Meyer-Schönberger auf die großen Defizite der Open-Data-Bewegung hingewiesen (Link zum PDF der Meyer Schönberger Studie: Participation and Power Intermediaries of Open Data; ein Interview dazu in Kürze). Seines Erachtens mangelt es vor allem an konzertierten Aktivitäten staatlicher und freier Akteure. Außerdem fehlen die Masterpläne, um wichtige Handlungsfelder systematisch zu erschließen, und es müssten größere Anreize geschaffen werden, um innovative Projekte umzusetzen.
Nun kommt es zunächst darauf an, dass die spärlichen 100 Millionen Euro Entwicklungsbudget auf dem Weg zu den Entwicklerteams und Projektplanern in ganz Europa nicht in den Verwaltungen versickern. Es wäre nicht das erste Mal.
„Die Koalition wird die Open-Data-Initiative des Landes fortsetzen und ausbauen. Dazu setzt sie sich für eine Prüfung der weitgehenden Offenlegung von öffentlichen Daten (z. B. Geoinformationsdaten) unter Wahrung des persönlichen Datenschutzes ein.“
Zentren des internationalen Hackathon sind unter anderem in Kanada und Brasilien, weil der Hackathon maßgeblich von dem im kanadischen Vancouver tätigen Open Data Aktivisten David Eaves und der brasilianischen Transparência Hacker Bewegung ins Leben gerufen wurde, sagt Daniel Dietrich. Er ist einer der führenden Köpfe der Open Knowledge Foundation Deutschland.
Nach dem es zuletzt vielfach Kritik an einem Erlahmen der Open Data Bewegung gegeben hatte, wird der weltweite Open Data Hackday zeigen, wie vital die Open-Data-Initiativen in vielen Ländern sind, so Dietrich weiter. Vorbilder des internationalen Open-Data-Events waren die erfolgreichen Music Hackdays der letzten Jahre.
Der Berliner Open-Data-Hackday soll vor allem Akteure der Szene versammeln. Denn aktuell ist nichts wichtiger, als die Kreativen immer wieder zu neuen Teams zusammenzuführen, um möglichst rasch weitere Anwendungen zu entwickeln, die die Relevanz und alltägliche Anwendbarkeit von Open Data zeigen (Der www.opendata-showroom.org liefert übrigens zahlreiche Beispiele bereits vorhandener Applikationen). Um dem Community-Building-Ereignis, so Dietrich, endlich auch eine klare Kontur zu geben, wird der Berliner Open Hackday in diesem Jahr auch ein Leitthema haben. Es geht um Open Data Anwendungen, die mit Geodaten arbeiten. Deshalb lädt die Open Knowledge Foundation auch wie folgt ein:
... zum Open Data Hackday am 03. und 04. Dezember 2011 in Berlin. Wir wollen jeweils den ganzen Tag von 10 Uhr – bis 19 Uhr hacken und uns dabei vor allem die Daten des FIS-Brokers anschauen. Diese können natürlich nach belieben mit anderen Datensätzen z.B. aus dem Berliner Datenportal daten.berlin.de oder dem Katalog für offene Daten www.offenedaten.de oder anderen Fundstellen kombiniert werden….
Im Berliner Stadtteil Kreuzberg wird ab morgen und am Sonntag ab 10 Uhr gehackt, was das Zeug hält. Wer Hackern schon immer mal bei der Arbeit zu sehen wollte oder eigene Fähigkeiten mit denen anderer verbinden möchte, sollte sich in den Hallen von Co-Up einfinden.
Wie steht es eigentlich um die Nutzung offener Daten hierzulande? Nicht so gut, scheint es. Zumindest kann Eindruck gewinnen, wer man in den vergangenen Tagen die Stellungnahmen zahlreicher deutscher Open-Data-Experten las. Datenjournalist Lorenz Matzat, Vorgänger hier im Data Blog, warnte unlängst vor einer traurigen Zukunft. Zumindest zitierte er in einem Artikel Ende Oktober Chris Taggarts Vortrag auf dem Open Government Data Camp in Warschau. Der unzweideutige Titel: How the Open Data Community Died.
Auch Christiane Schulzki-Haddouti fragte kürzlich im ZDF Hyperland-Blog, ob Deutschland nicht längst alle Chancen verspielt hat, die Dynamik der Open-Data-Bewegung zu nutzen, beziehungsweise in klare Angebote für eine breite Nutzerschaft umzusetzen.
Behörden in Deutschland erheben, speichern und verarbeiten viele interessante Daten. Dazu gehören Wetterdaten ebenso wie Informationen über die Luftqualität oder über die Verwendung der Steuergelder. Diese Daten sind von öffentlichem Interesse und bergen ein großes Potenzial für unsere Gesellschaft, weil sie Transparenz, Beteiligung, Innovationen und neue Dienstleistungen fördern.
Mit dem Wettbewerb „Apps für Deutschland“ laden wir Designer, Entwickler, Journalisten, Forscher und die breite Öffentlichkeit ein, Anwendungen zu schaffen, um diese Daten nutzbar zu machen.
Die Seite www.opendata-showroom.org liefert dazu die passenden Beispiele, um freie Programmierer und Open-Data-Aktivisten zu inspirieren. Natürlich ließ erste Kritik nicht lange auf sich warten. Allein der Titel Apps4Deutschland sei missverständlich, da Apps häufig eben nicht für Offenheit, sondern für geschlossene Systeme stehen würden.
In der Jury sitzen neben zahlreichen Wissenschaftlern und Repräsentanten der Initiatoren unter anderem auch Vertreter des Bitkom und der Wikimedia. Einsendeschluss für Ideen und Daten ist der 15. Dezemmber 2011, für Anwendungen der 1. Februar 2012.
Als Preise winken übrigens Geldprämien zwischen 500 und 4.000 Euro. Leider deutlich zu wenig, um starke Teams zu motivieren. Hoffentlich dokumentieren diese vielleicht für einzelne Entwickler ansprechenden, aber für ambitionierte Mannnschaften zu geringen Honorarere nicht den Versuch, das Thema Open Data mit Hilfe einer schmalbrüstigen Umarmugsstrategie bewusst klein zu halten. Aber immerhin, es gibt ihn, den bundesweiten Open-Data-Wettbewerb.
Adrian Pohl arbeitet seit 2008 im Hochschulbibliothekszentrum des Landes Nordrhein-Westfalen (hbz). Seit Juni 2010 ist er Koordinator der Arbeitsgruppe der Open Knowledge Foundation zu Open Bibliographic Data. Im Interview berichtet Pohl über die Zusammenarbeit mit anderen Aktiven aus Wissenschaft und Bibliothekswelt. Ihr Ziel: der Aufbau einer Infrastruktur für offene bibliographische Daten.
Herr Pohl, worum geht es bei Open Bibliographic Data (OBD)?
Adrian Pohl: Wir orientieren uns an der Open-Access-Bewegung. Deren Idee wird bereits weitgehend in der Bibliothekswelt unterstützt: Ergebnisse öffentlich finanzierter Wissenschaft sollen auch jedem öffentlich zugänglich sein. Bibliotheken sind ebenfalls meist aus öffentlichen Geldern finanziert. Deshalb sollten die von ihnen produzierten Daten auch offen zugänglich und wiederverwendbar sein. Mit den „Prinzipen zu offenen bibliographischen Daten“ haben wir in der Open Knowledge Foundation klare Anforderungen für die Freigabe solcher Daten formuliert, insbesondere im Hinblick auf die Wahl der Lizenz. Bibliotheksdaten können vielen von Nutzen sein.
Wofür zum Beispiel?
Pohl: Sammlungen bibliographischer Daten können als eine Landkarte verstanden werden, die uns Orientierung gibt in der Landschaft unserer literarischen, wissenschaftlichen oder künstlerischen Erzeugnisse.
So können die Daten etwa in der Forschung genutzt werden. Für Historiker beispielsweise könnte die Frage interessant sein, in welchem Jahrhundert zu bestimmten Zeiten wo wichtige Publikationsorte waren. Mit automatisierten Abfragen offener Daten aus Bibliothekskatalogen ließe sich zügig eine Übersicht über die meistgenutzten Publikationsstandorte erstellen. Das ginge weit über das hinaus, was mit normalen Rechercheoptionen möglich ist.
Ein anderes Beispiel: Bibliotheksdaten werden bereits für Anwendungen genutzt, die den urheberrechtlichen Status eines Werkes berechnen, ob es geschützt oder gemeinfrei ist. Mehr freie Daten könnten diese Dienste enorm verbessern. Es lassen sich unzählige weitere Anwendungen denken.