Lesezeichen
 

Tirol öffnet seine Regierung (ein bisschen)

Open Government Data heißt, dass Daten, die sowieso in der öffentlichen Verwaltung anfallen, Jedermann zur Verfügung gestellt werden. Nicht wenige Länder, Städte und Gemeinden begreifen das als Chance, sich ihren Bürgern zu öffnen und davon noch zu profitieren. Die Tatsache, dass das kleine österreichische Bundesland Tirol nun ein eigenes Datenportal eröffnet hat, kann daher durchaus als Beleg für einen Trend gelten.

Seit dem 2. April gibt es die Tiroler Open-Data-Seite. Viele Daten sind noch nicht darauf, aber es ist ein Anfang. Vor allem aufgrund der Erkenntnis, die dahinter steht. Zitat von der Website: „Das Land Tirol hat sich genau mit den Schwierigkeiten und Herausforderungen der Öffnung des bestehenden Datenfundus auseinandergesetzt und die Potenziale offener und standardisiert verknüpfbarer Daten erkannt. Nicht zuletzt tragen frei zugängliche Daten dazu bei, die öffentliche Verwaltung transparenter zu machen.“

Was für Daten gibt es also? Bislang sind es vor allem geografische Informationen. Insgesamt zwölf Datensätze über die Lage von Seen, Flüssen und Schutzgebieten in Tirol sowie einer mit den Mountainbike-Routen im Bundesland.

Wie gesagt, ein Anfang. Oder, wie es der zuständige Landrat formuliert, ein „Pilotversuch“.

Allzu spannende Projekte werden sich aus den wenigen Datensätzen nicht entwickeln lassen. Trotzdem ist es lobenswert, damit überhaupt zu beginnen.

 

US-Zensus 1940 veröffentlicht

Ankündigung der Veröffentlichung der US-Zensusdaten 1940 Quelle: National Archive

Mehr als drei Jahre lang haben Archivare des National Archive in den USA daran gearbeitet, die Daten der Volkszählung aus dem Jahr 1940 zu digitalisieren.

Diese Daten sind ab dem heutigen Montag im Netz verfügbar und können durchsucht und heruntergeladen werden. Nutzungsbeschränkungen gibt es keine.

Durchgeführt wurde die Befragung damals eigentlich, um zu ermitteln, wie viele Sitze die einzelnen amerikanischen Bundesstaaten im Kongress zu beanspruchen haben, da sich diese Zahl nach der Bevölkerung richtet. Außerdem sollte dabei überprüft werden, wie korrekt die Geburtsregister geführt werden. Neben den Befragungen wurden dazu auch die Registerkarten ausgewertet – allerdings sind die dabei gewonnenen Daten nicht erhalten geblieben.

Doch auch ohne diese ist der Datenschatz gewaltig. Insgesamt 3,8 Millionen auf Mikrofilm gespeicherte Fotos mit den Fragebögen von mehr als 20 Millionen Menschen wurden gesichtet und aufbereitet. In diesen Bögen fragten die „Enumerators“, die Volkszähler, nicht nur nach Standardinformationen wie Name, Alter, Geschlecht, Hautfarbe, Bildung und Geburtsort. Sie wollten auch wissen, wie hoch das wöchentliche Einkommen des Befragten war, wo ihre Eltern geboren wurden und bei Frauen, wie oft sie verheiratet waren.

Die Frage nach dem Einkommen sorgte damals für heftige Debatten und ein republikanischer Senator versuchte, sie aus dem Bogen streichen zu lassen. Ohne Erfolg, doch konnten die Befragten die Antwort verweigern, wenn sie das wollten – es wollten aber nur zwei Prozent.

Die Daten böten heute einen historisch interessanten Einblick in die Zeit der großen Depression, schreibt das Nationalarchiv in der Ankündigung dazu auf seiner Website. Sie erzählen das Leben von 132 Millionen Amerikanern, in einer Zeit, als das Land sich durch Wirtschaftskrise und Weltkrieg wandelte.

Etwas mühsam ist allerdings die Suche darin. Denn verschlagwortet sind die Informationen nach den Befragungsbezirken von damals. Wer also seinen Großvater sucht, muss wissen, wo er damals wohnte und dann auf bereitgestellten Karten nachschauen, in welchem Befragungscluster (enumeration district) diese Adresse lag. Ein Personenindex ist in Arbeit, aber noch nicht fertig. Er soll in sechs bis neun Monaten verfügbar sein, wie es bei der Eröffnungsveranstaltung hieß.

 

Eine Wikipedia für freie Daten

Prototyp einer Eingabemaske für Wikidata
Prototyp einer Eingabemaske für Wikidata

Die Einwohnerzahl von Berlin ändert sich ständig. Jedes Jahr, wenn die neuen Zahlen veröffentlicht werden, setzt sich ein Wikipedia-Autor an den Eintrag über Berlin und aktualisiert ihn. Allerdings müsste die Zahl in jeder Ausgabe der Wikipedia von Hand geändert werden, von der englischen bis zur turkmenischen. Das soll anders werden, sagt Pavel Richter, Vorstand des Vereins Wikimedia Deutschland.

Ab dem 2. April wird ein Team aus zwölf Entwicklern in Berlin am Projekt Wikidata arbeiten. Es ist der offizielle Startschuss für ein Projekt, über das die Wikipedia-Community jahrelang diskutiert hat. „Wikidata ist die Wikipedia für Daten“, sagt Richter. Ziel ist, eine Datenbank aus strukturierten, frei zugänglichen Informationen zu schaffen, die jeder bearbeiten kann. Davon sollen auch die Wikipedia-Ausgaben in aller Welt profitieren.

Eines der ersten Ziele des Projektes ist es, die Daten in den Infoboxen von Wikipedia-Artikeln über Orte, Staaten oder Personen maschinenlesbar aufzubereiten. Denn so könnte die Datenbank alle Wikipedia-Ausgaben gleichzeitig füttern: Aktualisiert jemand die Einwohnerzahl von Berlin, wird diese Änderungen automatisch in allen Sprachausgaben sichtbar. Für die Editoren wäre das eine spürbare Erleichterung.

Doch Richter sagt, dass das Projekt seines Vereins auch anderen zugute kommen soll: „Wikidata stellt die Daten als Variablen zur Verfügung. Jeder, der sie haben möchte, kann sie für seine Zwecke einbinden.“ So ließen sich dynamische Listen erstellen, etwa der zehn größten Städte der Welt, die von einer Frau regiert werden, die älter ist als… Solche Abfragen könnten beliebig komplex sein, je nach Sinn und Zweck.

Auch Visualisierungen der Daten wären möglich. Das jedoch müssten andere übernehmen, es ist nicht Ziel und Aufgabe des Projektteams. Die zwölf Entwickler programmieren erst einmal nur die Datenbank – als Datenquelle, die ihrerseits sagt, woher die Rohdaten stammen.

Geplant sei, sagt Richter, das Projekt innerhalb eines Jahres in mehreren Modulen umzusetzen. Erste Ergebnisse sollen bereits im Juli oder August präsentiert werden. Schnell folgen müsste aber auch eine Schnittstelle, über die man neue Daten einspeisen kann.

Finanziert wird Wikidata durch Spenden. Wer die ersten namhaften Spender sind, will Wikimedia Deutschland am heutigen Freitag bekanntgeben. Zu den Großspendern gehören das Allen Institute for Artificial Intelligence, das die Hälfte des  Gesamtbudgets von 1,3 Millionen Euro übernimmt, die Gordon and Betty Moore Foundation, die ein Viertel der Entwicklungskosten von Wikidata trägt, sowie Google, das ein weiteres Viertel der Kosten übernimmt.

Neben Geld braucht das Projekt aber noch eine andere Art von Spenden: Datenspenden. Eine leere Datenbank hilft niemandem. Richter sagt, man werde gezielt Institutionen ansprechen, die auf großen Datenbergen sitzen und sie fragen, ob sie diese der Allgemeinheit zur Verfügung stellen könnten.

Es wird also noch dauern, bis die Datenbank von Dritten genutzt werden kann. Für die Open-Data-Bewegung hierzulande ist es aber in jedem Fall ein gutes Zeichen, wenn sich ein so bekannter Verein wie Wikimedia Deutschland um die Förderung von freien Daten bemüht.

Für weitere Informationen lohnt sich ein Blick ins Metawiki zu zum Projekt Wikidata: Dort ist unter anderem ein früher Prototyp einer Benutzeroberfläche zu sehen.

 

„Hitzekarten“ von England und New York

National Heat Map des Energieverbrauchs von England, Quelle: http://ceo.decc.gov.uk/nationalheatmap/

Das britische Ministerium für Energie und Klimawandel hat am Donnerstag eine interaktive Karte veröffentlicht, die den Energieverbrauch öffentlicher und privater Gebäude im Land zeigt. Die Heat Map – wie diese Art der grafischen Umsetzung genannt wird – ist eine Hitzekarte im wahrsten Sinne, wird auf ihr doch der Heizbedarf der Gebäude in Kilowattstunden pro Quadratmeter angezeigt.

Die Karte basiert auf Googles Angebot Maps und sie kann bis fast auf die maximale Auflösung herangezoomt werden, wodurch Großverbraucher genau lokalisierbar sind. Auch, da sich Street View nutzen lässt, die Straßenansichts-Funktion.

Überraschend sind die Ansichten nicht, denn selbstverständlich ist der größte Energiebedarf in Großstädten wie London zu erkennen. Um Überraschungen aber geht es bei dem Projekt auch nicht.

Gedacht ist die Heat Map laut Ministerium, damit lokale Planungsbehörden die „heißesten“ Regionen identifizieren können. Das soll ihnen bei der Umsetzung von Kohlendioxid-Vermeidungsprogrammen helfen, beziehungsweise zeigen, wo die größten Energieverbraucher sitzen. Auch könne damit die Energieversorgung besser geplant werden, heißt es auf der Seite.

Entwickelt wurde die Karte vom britischen Zentrum für nachhaltige Energie. Als Basis dienen diesem Zentrum zufolge „modellierte Schätzungen“ des Verbrauchs. Leider sind diese Daten nicht zugänglich.

Heatmap des Energieverbrauchs der Gebäude in New York Quelle: http://modi.mech.columbia.edu/nycenergy/

Ein ähnliches Projekt in kleinerem Rahmen gab es vor Kurzem in den USA. Vijay Modi, Professor für Mechanical Engineering an der Columbia University, und die Studentin Bianca Howard hatten eine solche Heat Map von New York gebaut. Auf dieser ist der geschätzte Stromverbrauch der einzelnen Gebäude verzeichnet, ebenfalls in Kilowattstunden pro Quadratmeter.

Im Gegensatz zur englischen Karte können auf der New Yorker Heat Map bei einem Klick auf eines der Gebäude die Verbrauchsarten Heizung, Kühlung, Strom und heißes Wasser unterschieden werden.

Basis war in diesem Fall eine Studie der beiden zur Berechnung eines möglichst genauen Verbrauchsmodells. Das Modell nimmt an, dass die Höhe des Verbrauchs stärker von der spezifischen Nutzung eines Gebäudes abhängt, als von seinem Alter oder seiner Bauweise. Bislang berücksichtigt die Darstellung dabei aber nicht die Gebäudehöhe, in Manhattan mit seinen Hochhäusern ein wichtiger Punkt. Die Autoren haben angekündigt, die Darstellung zu überarbeiten und die Geschosszahl einzubeziehen.

Auch bei dieser Karte ging es nicht um die Suche nach Auffälligkeiten, sondern in erster Linie darum, den Ist-Zustand abzubilden, um künftige Planungen zu erleichtern.

 

Noch 20 Länder richten Häftlinge hin

Hinrichtungen aufgrund der Todesstrafe 2011. Screenshot einer Grafik bei Chartsbin

Die gute Nachricht zuerst: Nur noch 20 von 198 Staaten weltweit haben die Todesstrafe im vergangenen Jahr vollstreckt, berichtet Amnesty International in einer aktuellen Studie. Damit sei die Zahl der Staaten in den vergangenen zehn Jahren um ein Drittel gesunken.

Die schlechte Nachricht: Die Zahl der so Getöteten ist immer noch hoch. Genau wie die Zahl der Länder, in denen die Todesstrafe zumindest noch gilt: 139. Gleichzeitig sitzen laut der Menschenrechtsorganisation weitere 18.750 Menschen in den Todestrakten dieser Welt.

Im Jahr 2011 wurden in 19 der 20 noch vollstreckenden Länder insgesamt 676 Menschen hingerichtet, 43 davon in den USA. Ein Land wurde dabei nicht mitgezählt: China. Die chinesische Regierung teilt niemandem mit, wie viele Menschen sie umbringen lässt. Schätzungen von Amnesty für 2011 gehen von 1.000 Menschen und mehr aus.

Es gibt ein paar Grafiken, die veranschaulichen, welche Länder wie oft töten lassen. Hier zum Beispiel:


via chartsbin.com

Auch das Data-Blog des Guardian hat eine Grafik, allerdings eine statische. Dafür gibt es dort die Rohdaten als Spreadsheet zum Herunterladen.

Und Amnesty hat die Daten auch in einem Video visualisiert:

Apropos Video: Das hat jetzt mit Daten nichts zu tun, aber zum Sinn, beziehungsweise besser zum Unsinn der Todesstrafe hat der amerikanische Sozialkritiker und Comedian George Carlin schon vor Jahren alles gesagt, was es zu sagen gibt: „The blood is already on our hands. All we are talking about is a matter of degree.“

 

Teenagerschwangerschaften werden in England seltener

Guardian Data-Blog: Teenagerschwangerschaften in England und Wales / Screenshot ZEIT ONLINE

Visualisierungen von Daten werden gern mal als „eye-candy“ abgetan – als schick und bunt, im Ürbigen aber sinnlos. Dabei bieten Grafiken einen schnellen und unkomplizierten Weg, um Auffälligkeiten zu bemerken und komplexe Inhalte zu verstehen. Der britische Guardian hat in seinem sehr lesenwerten Data-Blog gerade wieder eine Visualisierung veröffentlicht, die das belegt.

The teen pregnancy map of England & Wales“ zeigt, in welchen Regionen in England und Wales wie viele Minderjährige schwanger wurden. Die Daten umfassen den Zeitraum zwischen 1998 und 2009 und lassen sich als eine Art Film abspielen, der diesen Zeitraum abbildet. Die Verlaufskurven der einzelnen Regionen können außerdem einzeln betrachtet werden.

Dabei ist dann zu sehen, dass die Häufigkeit insgesamt sinkt. Immer weniger Jugendliche werden schwanger. Gleichzeitig ist erkennbar, dass in bestimmten Regionen die Zahl kaum zurückgeht.

Die Daten stammen von der britischen Statistikbehörde und können beim Guardian auch als Google Spreadsheet heruntergeladen werden.

 

Datenjournalismus-Konferenz

Am Wochenende fand in Hamburg eine Konferenz zum Thema open data statt. Das Netzwerk Recherche hatte dazu geladen, vor allem um über Datenjournalismus zu reden.

Brant Houston von der University of Illinois erzählte etwas über die Geschichte das Datenjournalismus, die sehr viel länger zurückreicht als nur ein paar Jahre.

In einem anderen Panel ging es darum, wie man die Daten von Websites „kratzen“ (scrapen) kann, um sie zu verwenden – wie es beispielsweise der Zugmonitor der Süddeutschen Zeitung tut, um die Verspätungen der Bahn zu visualisieren.

Hier ein Video einer interessanten Podiumsdiskussion. Der Titel ist etwas irreführend, um das Scheitern von open data geht es eher am Rande. Ab 4:18 erzählt Christian Horchert, alias @fukami, ein wenig darüber, was offene Daten eigentlich sind. Ab 8:00 beginnt die Podiumsdiskussion mit Stefan Wehrmeyer, Entwickler der Seite fragdenStaat.de und mit Jan Mönikes, der Anwalt ist und Datenschutzbeauftragter. Sie diskutieren mit Matthias Spielkamp von iRights.info darüber, wo es offene Rohdaten der Verwaltung gibt, wo nicht und was damit möglich ist.

 

Offene Daten genügen nicht

Screenshot des Datenportals der Bundesregierung

Die britische Regierung hat sich gerade selbst gelobt. Wenn es darum gehe, Datenbestände von Behörden öffentlich zugänglich zu machen, sei das Land führend in der Welt, sagte Kabinettsminister Francis Maude bei einer Tagung zum Thema Open Data in Birmingham. Die entsprechende Seite, data.gov.uk, sei die größte ihrer Art, mehr als 40.000 Datensätze stünden dort bereits zur Verfügung.

Das klingt toll. Doch der Zugang zu den Rohdaten ist nur der erste Schritt. Denn Rohdaten erreichen nur Spezialisten. Wer mit ihnen etwas anfangen will, muss sich mit vielen Werkzeugen auskennen, muss im Zweifel programmieren und Grafiken bauen können. Nur dann lassen sich aus ihnen sinnvolle Informationen gewinnen.

Maude hat das auch angedeutet. Immerhin sagte er, offene Daten seien „das Rohmaterial einer neuen industriellen Revolution“.

Etwas klarer drückte sich in diesem Zusammenhang der Chief Information Officer der amerikanischen Regierung aus. Steven VanRoekel sagte laut einem Bericht des Nieman Journalism Labs vor kurzem an der Harvard Law School, eine solche staatliche Datenplattform sei nur eine „dumme Leitung“ (dumb pipe).

Die USA haben mit data.gov eine ebensolche Seite wie die Briten. Damit die Inhalte jedoch von Nutzen wären, müssten sie aufgearbeitet werden, findet VanRoekel – und zwar von der Regierung selbst.

„Wir müssen mit dem Datengeschäft aufhören und mit dem Plattformgeschäft anfangen“, sagte er und meinte, die Regierung selbst solle damit beginnen, die Instrumente und Apps anzubieten, um die Daten lesen und verstehen zu können. Ohne diese finde niemand „die Nadel im Heuhaufen“, ja er könne nicht einmal den Heuhaufen sehen. Zu viele Daten gebe es inzwischen. Er wolle data.gov daher zu einer echten Open-Data-Plattform ausbauen.

Das klingt, als sind die Briten nur bei der schlichten Masse führend. Wenn es um die Möglichkeiten offener Daten geht, denken die USA längst weiter. Zumindest aber soll die britische Seite data.gov.uk in den kommenden Monaten überarbeitet werden, damit sie für Firmen leichter nutzbar sei, kündigte Maude an.

Und wie weit ist Deutschland bei dem Thema? Nunja. Die Datenplattform des Bundes existiert zumindest schon einmal als Website. Ein Prototyp mit ersten Datensätzen soll 2013 fertig sein. Vielleicht. Von der Entwicklung eigener Apps ist das zuständige Bundesinnenministerium wahrscheinlich noch weit entfernt.

 

Schwimmende Drohnen sammeln Daten im Ozean

"Wave Glider", ein autonomer Roboter zum Datensammeln, dessen im Wasser hängende Paddel die Wellenbewegung in Vortrieb umwandeln Quelle: http://liquidr.com/

Das folgende Projekt ist nur zum Teil offen, es steht also nicht vollständig der Allgemeinheit zur Verfügung. Doch es beschäftigt sich mit Daten – und zeigt dabei, wohin sich das Thema Datensammeln bewegt.

Es geht um den sogenannten Wave Glider, einen autonomen Roboter, der allein durch Wellenbewegungen angetrieben wird und sich dadurch lange Zeit auf dem Meer herumtreiben kann. Die Technik hat schon Preise gewonnen und befindet sich derzeit in einem Langzeittest.

Golem hat ein Videointerview mit Suneil Thomas veröffentlicht, dem Vizepräsidenten des Herstellers Liquid Robotics. Denn darin sagt er, worum es den Entwicklern geht: Der Wave Glider revolutioniere die Kosten des Datensammelns auf See, so Thomas, da er keine Besatzung brauche und keinen Treibstoff. „Und diese Daten werden unser Verständnis über die Ozeane verbessern.“

 

Autonome Systeme sind beim Sammeln beispielsweise von Wetterdaten längst selbstverständlich. Und auch in den Meeren wird seit langer Zeit beobachtet, ohne dass Menschen dabei sind. Bislang vor allem mit verankerten Bojen, an Tieren befestigten Messgeräten oder durch Zufälle, wie Tausende herumtreibende Plastikenten.

Roboter wie der Wave Glider sind ein neuer Weg. In der Luft wird dieser schon beschritten. Sogenannte Drohnen können Stunden bis Tage am Himmel kreisen, um ganze Regionen zu beobachten. Berichtet wird über sie derzeit vor allem im Zusammenhang mit Kriegen, da Armeen weltweit mehr und mehr dieser Flugroboter einsetzen und damit ein heftiges Für und Wider auslösen. Doch gibt es auch verschiedene zivile Projekte, die sie nutzen.

Nun ist das Meer dran. Der Wave Glider wird angetrieben vom Hub der Wellen. Der bewirkt, dass sich Paddel heben und senken, die sieben Meter unter der an der Wasseroberfläche schwimmenden Plattform hängen. Diese Paddel sorgen für Vortrieb. Solarpaneele auf dem Deck liefern Strom für die Messgeräte und die Kommunikation.

Die Schwimmdrohne hat mehrere Langstreckentests absolviert und gezeigt, dass sie funktioniert. Garantiert wird sich daher bald auch das Militär für die Technik interessieren. Bislang aber waren ihre Einsätze friedlich. Entwickelt wurde sie ursprünglich, um die Kommunikation von Walen aufzuzeichnen.

Beim aktuellen Test, der Überquerung des Pazifiks, sammeln die vier eingesetzten Wave Glider verschiedene Daten wie Wetterbedingungen, Wassertemperatur, Salz- und Sauerstoffgehalt und Wellenhöhe. Das Unternehmen stellt diese Informationen, schätzungsweise 2,25 Millionen Datenpunkte, jedem Interessierten zur Verfügung. Heruntergeladen werden können sie nach einer Registrierung hier.

 

API – das bald wichtigste Werkzeug des Journalisten

Die API von Twitter bietet Zugang zu den Daten des Dienstes - Screenshot ZEIT ONLINE

Sharing is caring„, lautet einer der Kernsätze des freien Internets. Wer Informationen und Inhalte teilt, heißt das, der vermehrt das Wissen aller. Lange waren Links das einzige Instrument, um an den Inhalt einer Website zu gelangen. Inzwischen gibt es jedoch eines, das viel mächtiger ist, die API.

Die drei Buchstaben sind ein Akronym für Application Programming Interface, also eine Schnittstelle, damit Computer miteinander reden und automatisiert Daten tauschen können. Viele Dienste wie beispielsweise Twitter bieten solche Schnittstellen. Über sie können die in den Diensten enthaltenen Informationen – beispielsweise die Tweets – ausgelesen und weiterverarbeitet werden.

Warum das alles hier erwähnt wird? Weil APIs die Voraussetzung für das Konzept offener Daten sind. Denn niemand wird sich hinsetzen und die europäischen Bevölkerungsstatistiken von Hand in Tabellen eintragen wollen, damit er irgendwann daraus eine Karte bauen kann. Damit Daten überhaupt weiterverarbeitet werden können, müssen sie automatisiert zugänglich sein. Dieser Zugang, eben die API, ist also eine der Bedingungen, damit Daten den Stempel „offen“ verdienen.

Seit einiger Zeit entwickelt sich auch in Deutschland eine neue Arbeitsweise, Daten-Journalismus genannt. Noch beschränkt sich der auf kleine Teams, die frei oder für ein paar große Verlage arbeiten. Das aber wird sich ändern, und APIs werden schon bald eines der wichtigsten Instrumente von Journalisten sein. Sie werden die Bedeutung haben, die früher das Telefon für die Arbeit von Medien hatte und die derzeit Google hat. Denn sie sind ein machtvolles Werkzeug, um an Informationen zu gelangen.

Wer ein wenig mehr zur Arbeitsweise von Schnittstellen wissen will und wie Journalisten sie nutzen können, hier entlang.

Das Poynter-Institut, eine renommierte Journalistenschule in Florida, hat gerade einen interessanten Text dazu veröffentlicht. „Acht APIs, die Ihre Nachrichtenredaktion ab sofort nutzen sollte“, lautet die Überschrift.

Aufgeführt ist dort beispielsweise der Datenzugang der Weltbank. Dort gibt es Finanzdaten aus mehr als 50 Jahren.

Oder der zur Open Library. Die will Informationen über „jedes jemals erschienene Buch“ sammeln. Ein Katalog der Welt-Bibliothek, in dem bereits 20 Millionen Bücher erfasst sind. In vielen Fällen beschränkt sich das auf die bibliografischen Angaben zu den Büchern, also beispielsweise Autor, Verlag, Erscheinungsjahr und Ort. Wenn das Urheberrecht es zulässt, wird aber auch der komplette Inhalt aufgenommen. Bereits eine Million Bücher wurden vollständig eingescannt, sodass sie gelesen und durchsucht werden können.

Aufgeführt sind aber auch zwei Medien, die selbst APIs bereitstellen, um ihren Inhalt weiterzugeben, USA Today und der Guardian. Bei der amerikanischen Zeitung können damit Überschriften und Metadaten durchsucht und sortiert werden. Die britische Tageszeitung stellt sogar den kompletten Inhalt der Texte ab 1999 zur Verfügung und bietet verschiedene Lizenzmodelle an, um diese Inhalte zu nutzen.

Noch sind viele Verlage leider sehr mit der Idee beschäftigt, ihre Inhalte so gut wie möglich gegen eine Nutzung durch andere abzuschotten. Es wäre nicht schlecht, wenn sich das bald änderte. Immerhin sind auch Zeitungsarchive riesige Datenschätze, aus denen sich neue Erkenntnisse gewinnen lassen.