Lesezeichen
 

Weltbank gibt Daten zur Weltentwicklung frei

Die Weltbank hat ihren großen Datenpool auf einer eigenen Website mit Hilfe individuell konfigurierbarer Karten aufbereitet. Über 420 Indikatoren zur Entwicklung der Welt stehen jetzt der Öffentlichkeit in vier Sprachen zur Verfügung. Sie decken den Zeitraum von 1960 bis 2008 ab.

Weitere der insgesamt über 1200 Indikatoren, die die Weltbank erfasst, sollen nach und nach veröffentlicht werden. Der erste Teil bereits noch im Oktober.

Die Karten lassen sich über Widgets auf anderen Websites und Blogs integrieren. Auch die Rohdaten können abgerufen und für neue Zwecke verwendet werden. Sie sollen Grundlage für die Entwicklung nützlicher Apps sein. Hierfür will die Weltbank am 7. Oktober begleitet von einem „Open Forum“ einen eigenen Wettbewerb namens „Apps for Development Competition“ ausrufen.

Außerdem will die Weltbank Medien mit Daten-Analyse-Tools unterstützen und hat hierfür gemeinsam mit Internews und dem Brookings Institute das Projekt MediaMap ins Leben gerufen. Damit soll das Wissen über die gegenwärtige Lage in Entwicklungsländern verbessert werden. Im Mai werde man dazu ein webbasiertes Werkzeug vorstellen.

Ziel der Projekte ist es, zivilgesellschaftliche Organisationen in ihrer Arbeit unterstützen. Getreu dem Motto: offene Daten nützen.

via/via

 

Berlin, offene (Daten-)Stadt

Die Stadt Berlin führt derzeit eine Online-Umfrage durch, mit der sie feststellen will, welche ihrer Datenbestände für die Bürger besonders interessant sind. Zielgruppe sind dabei offensichtlich Open-Data-Entwickler, lautet eine Frage darin doch: „Würden Sie mit den bereitgestellten Daten konkret arbeiten, sie für andere aufbereiten und online zur Verfügung stellen?“

Für die Veröffentlichung kommen demnach folgende Daten infrage:

1. Umweltdaten (Feinstaub, CO2, Pollen)
2. Märkte (Wochen-, Floh-, Weihnachtsmärkte)
3. Events (Straßenfeste, Konzerte, Lange Nacht der …, Sportereignisse)
4. Entsorgung (Termin in meiner Straße, Recyclinghöfe, Containerstandorte, Sondermüll)
5. Infrastruktur (Radwege, Toiletten, Briefkästen, Geldautomaten, Telefone)
6. Verkehr (Baustellen, Staus, Sperrungen)
7. Nahverkehr (Verspätungen, Zugausfälle, Sonderfahrten)
8. Öffnungszeiten (Bibliotheken, Museen, Ausstellungen)
9. Verwaltung (Formulare, Zuständigkeiten, Ämter, Öffnungszeiten)
10. Verbraucherberatung, Schuldnerberatung
11. Familie (Elterngeld, Kindertagesstätten, Kindergärten)
12. Bildung (Schulen, Volkshochschulen, Hochschulen und Unis)
13. Wohnen (Wohngeld, Mietspiegel, Immobilien, Grundstückspreise)
14. Gesundheit (Krankenhäuser, Apotheken, Notdienst, Spezialisten, Beratungsstellen, Blutspende)
15. Haustiere (Tierärzte, Tierheim, Tierpflege)
16. Kontrolle (Badegewässer, Lebensmittel, Gaststätten, Preise)
17. Recht (Gesetze, Vorschriften, Beratung, Schlichter, Gutachter)
18. Polizeiticker (aktuelle Vorfälle, Fahndung, Kriminalitätsatlas)
19. Stadtplanung (Flächennutzungsplan, Bauvorhaben, Verkehr, Flughäfen)
20. Bevölkerung (Zahl, regionale Verteilung, Demografie, Kaufkraft, Beschäftigung/Arbeitslosigkeit, Kinder)

Welche davon die wichtigsten wären, will man nun in der Umfrage wissen. Drei Vorschläge kann jeder bis zum 31. Oktober machen. Die entsprechenden Datensätze sollen anschließend für alle verfügbar im Internet stehen.

Das ist ein gutes Zeichen, hatte es doch einige Zeit lang so ausgesehen, als wollte man im Senat von Berlin Daten eher nicht freigeben. Zumindest hat Entwickler Stefan Wehrmeyer mit seinem Projekt Open Berlin entsprechendes erlebt. Er hatte gemeinsam mit dem Open-Data-Network Daten des Geoportals der Senatsverwaltung für Stadtentwicklung, des so genannten FIS-Broker, verwendet. Die Senatsverwaltung verwies jedoch darauf, die Daten unterlägen dem Urheberrecht und Web-Services daher „grundsätzlich nicht erlaubt“. Eine entgeltpflichtige Lizenzierung sei hingegen möglich.

Mit dieser restriktiven Haltung lässt sich allerdings kein offener Staat machen. Aber genau das hat der Berliner Wirtschaftssenator vor, der gemeinsam mit dem Brandenburger Wirtschaftsministerium mit „Apps 4 Berlin“ einen Apps-Wettbewerb startete. Gleichwohl vergaß die Stadt offenbar, die dafür notwendige Datennutzung zu offerieren. Dass dies nun nachgeholt werden soll, stimmt hoffnungsvoll.

Allerdings, ganz so verschlossen war die Stadt bislang dann doch nicht. Einige offene Datensätze gibt es bereits. Die Seite offenedaten.de hat sie hier gesammelt.

 

Transparente Wahlurne in Strassburg

In der EU wird darum gerungen, das Urheberrecht zu verschärfen. Der jüngste Vorstoß hierzu war der Bericht der konservativen Abgeordneten Marielle Gallo. Er zielt unter anderem darauf ab, das Filesharing zu kriminalisieren. Vorgestern erhielt er im EU-Parlament eine klare Mehrheit mit 328 Ja-Stimmen, 245 Nein- Stimmungen und 81 Enthaltungen. Die Alternativvorschläge seitens der Sozialdemokraten und Grünen sowie der Liberalen fielen durch.

Der Bericht ist übrigens nicht rechtsverbindlich, gibt jedoch eine politische Linie für künftige Entscheidungen vor. Interessant ist daher, dass sich einige konservative und liberale Abgeordnete bei der Abstimmung nicht an die Parteilinie hielten. Vielleicht weil sie  den Bericht auch als Stimmungsbarometer für Internetsperren nach französischem Muster auffassten. Diese Unterschiede im Stimmverhalten in den Parteien dokumentiert Abgeordnetenwatch auf sehr übersichtliche Weise für die deutschen Abgeordneten.

Praktisch ist dabei die Möglichkeit, das Wahlverhalten der Abgeordneten aus dem eigenen Bundesland stammenden Abgeordneten abzufragen.  Die Abfrage funktioniert über Postleitzahlen. Für NRW etwa finden sich zwei CDU-Abgeordnete und ein FDP-Abgeordneter, die sich enthalten haben.

Diese durchsichtige Wahlurne, die über eine automatische Auswertung in Form von Infografiken und Abfragemöglichkeiten ermöglicht wird, ist wertvoll, da es so etwas auf der Website des Parlaments leider nicht gibt. Es wäre eine schöne Sache, wenn Abgeordnetenwatch dies regelmäßig vielleicht für das gesamte EU-Parlament organisieren könnte.

 

Royal Mail veröffentlicht erste Augmented-Reality-Briefmarke

Die britische Post hat eine erste Serie mit Augmented-Reality-Briefmarken beziehungsweise sogenannten intelligent stamps herausgebracht. Anlass ist der 50. Geburtstag der letzten British-Rail-Dampflokomotive „Evening Star Royal“.

Mithilfe der Junaio-Software lässt sich beim Betrachten der Briefmarke durch die Kamera eines iPhones oder Android-Smartphones ein kleines Video aktivieren, in dem der Schauspieler Bernard Cribbins das Gedicht The Night Mail von W. H. Auden vorliest. Dafür muss man lediglich den Junaio-Channel Royal Mail abonnieren.

Auch das SZ-Magazin nutzte Junaio für sein erstes Augmented-Reality-Heft. Dort wurden die entsprechenden Stellen mit kleinen AR-Logos ausgezeichnet. Neu ist, dass für Augmented-Reality-Anwendungen ganz offenbar keine speziellen Logos mehr nötig sind, weil die Bilderkennung schon so fein ist, dass auch spezielle Fotos oder Bilder erkannt werden können. Allerdings reicht die schlechte Bildauflösung auf der Website der Royal Mail  nicht aus, um das ganze vor dem Bildschirm selbst auszuprobieren.

via

P.S. Für die AR-Kritiker in den Kommentaren sei noch folgende neue iPhone-App nachgereicht, die sich ebenfalls an Bildmerkmalen orientiert und dabei das Bild selbst erweitert – diesmal keine Briefmarke, sondern ein Geldschein:

 

Bücher mit erweiterten Ansichten

Die Frankfurter Buchmesse naht und mit ihr schwillt wieder die Zahl der Veröffentlichung zu den neuesten Trends in der Buchbranche an. Vor allem im E-Book-Bereich tut sich einiges – Stichwörter sind hier „enhanced e-book“ oder „enriched e-book“. Darunter versteht man in der Regel E-Books, die nicht mehr aus PDFs bestehen, sondern mit multimedialen und interaktiven Elementen erweitert wurden.

Interessant ist das vor allem dann, wenn man keine schwarz-weißen E-Reader, sondern farbige Multifunktionsreader wie das iPad verwenden. Wie man sich das vorstellen darf, zeigte vor einiger Zeit bereits „Alice im Wunderland“:

Dass den Animationen keine Grenzen gesetzt sind, zeigt das Pop-Up-„Rumpelstilzchen“ von IdealBinary:

Man beachte hier: Der dunkle Hintergrund, der die Animation wirkungsvoll in Szene setzt – und die dramatische Musik. Das Buch als Handkino sozusagen.

Nicht an Pop-Ups, aber an den herkömmlichen CD-Rom-Umsetzungen von Kinderbüchern orientiert sich die „Die Burg in der Ritterzeit“:

Der neueste Trend ist aber „Augmented Reality“. Welche Bereiche bieten sich hier am ehesten an? Natürlich Wissensbücher für Kinder – am Besten mit einem gewissen Gruseleffekt:

 

Wunderschöne Datenmengen

Wer sich für die Visualisierung von Datenmengen interessiert, kommt an dem Blog Information is Beautiful von David McCandless nicht vorbei. Das fanden wohl auch die Organisatoren der berühmten TED-Konferenzen, die David McCandless baten, etwas darüber zu erzählen, wie man mit Design in unübersichtlichen Informationsmengen interessante Muster entdecken kann:

 

Wenn Daten in der Cloud verschwinden

Über „deutsche Daten auf Geheimservern in den USA“ schreibt der Datenschutzexperte Rainer Erd in der „Außenansicht“ der Süddeutschen Zeitung. Googles Server, mutmaßt Erd, stehen in den USA an „geheim gehaltenen Orten“. Und dort gilt nicht das europäische Datenschutzrecht, sondern etwas dem sogenannten Safe-Harbor-Abkommen entsprechend „angemessenes“.

Das Safe-Harbor-Abkommen regelt den Datenaustausch zwischen der EU und den Vereinigten Staaten. Das europäische Gesetz verbietet normalerweise, personenbezogene Daten in Staaten zu übertragen, in denen geringere Datenschutz-Standards gelten. Dadurch wäre aber ein Datenaustausch der EU mit den USA praktisch unmöglich. Der Datenschutz ist dort weniger geregelt als in der EU. Zu diesem Zweck haben EU und USA das Safe-Harbor-Verfahren entwickelt. Firmen, die dem Abkommen beigetreten sind – unter anderem Facebook, Microsoft, Amazon und Google – und die dort verabredeten Grundsätze einhalten, bieten nach derzeitiger Auffassung der EU den Daten ihrer Kunden ausreichend Schutz.

Erd legt nun den Finger auf die politisch richtige Wunde: Das Safe-Harbor-Abkommen ist wunderbar in der Theorie, aber wirkungslos in der Praxis: Laut einer Galexia-Studie halten sich nämlich nur 3,4 Prozent der beigetretenen Unternehmen auch an die vereinbarten Grundsätze.

Doch Widerstand aus der Politik regt sich kaum. Während Politiker medienwirksam gegen Google, Facebook und andere wettern, trauen sie sich an das Thema Cloud Computing bislang nicht heran. Vielleicht, weil das Problem nur im Rahmen von Verhandlungen auf US-EU-Ebene zu lösen wäre. Vielleicht, weil das Thema wenig taugt zu Zwecken der Symbolpolitik. EU-Politik gilt gemeinhin als zu bürokratisch und weniger interessant. Vielleicht aber auch, weil sie ohnehin nicht glauben, dass sie ein besseres Abkommen heraushandeln könnten.

Dieses mittlerweile in die Jahre gekommene Abkommen hinkt jedoch nicht nur der Rechtspraxis, sondern auch den Datenrealitäten hinterher. Wie die Website Data Center Knowledge berichtete, speichert Google seine Daten nicht nur in den USA, sondern weltweit. Details hält das Unternehmen aus Wettbewerbsgründen geheim. Dennoch wurden einige Standorte bekannt, unter anderem

in den USA:

in der EU:

  • Berlin
  • Frankfurt
  • München
  • Zürich
  • Groningen, Niederlande
  • Eemshaven, Niederlande
  • Mons, Belgien
  • Paris
  • London
  • Dublin
  • Mailand

und anderswo:

  • Toronto, Kanada
  • Moskau, Russland
  • Sao Paolo, Brasilien
  • Tokyo
  • Hong Kong
  • Beijing

Auf einer Karte – einer Google Map – haben Freiwillige alle derzeit bekannten Standorte markiert. Weitere Orte in Asien werden angeblich zurzeit ausgekundschaftet.

Was Google in diesen Rechenzentren genau tut, ist unbekannt. Gemunkelt wird in der Szene nur, dass nicht nur Suchanfragen abgearbeitet, sondern Daten jeglicher Art gespeichert und verarbeitet werden, darunter auch sensible Daten aus den Google Apps. Die Daten werden aus Kapazitäts- und Effizienzgründen heute in Berlin, morgen in San Jose und übermorgen vielleicht in Hong Kong gespeichert. Vielleicht werden die Daten auch nicht täglich, sondern nur monatlich, vielleicht aber auch stündlich oder minütlich physisch hin- und hergeschoben. Je nach Erfordernis.

Fest steht jedenfalls: Für den Nutzer ist völlig uneinsehbar, wo sich seine persönlichen Daten befinden, und ob sie tatsächlich vor unbefugten Zugriffen geschützt sind.

Fraglich ist zudem, ob europäische Nutzer den ihnen auf dem Papier gewährten Datenschutz mit allen Konsequenzen einfordern könnten. Würden die bestehenden Abkommen dies in der Praxis tragen? Daraus ergeben sich zahlreiche, bislang ungeklärte Fragen: Unter welcher Jurisdiktion werden Daten von deutschen Privatpersonen und Unternehmen verarbeitet, die Google Docs verwenden? Welches Recht gilt, wenn ausländische Strafverfolgungsbehörden oder gar Geheimdienste von ihren territorialen Rechten Gebrauch machen und auf die Daten aus irgendeinem Grund zugreifen wollen? Transferiert Google die Daten dann schnell in den Bereich einer anderen Jurisdiktion oder gewährt es, den nationalen Gesetzen entsprechend, Zugriff?

In der Diskussion um Google Books und Google Streetview betonte das Unternehmen stets, dass es sich an nationale Gesetze halte.

Auch den Justiziaren anderer Cloud-Anbieter bereitet diese keineswegs abwegige Frage Kopfschmerzen. Microsoft, das ebenfalls Cloud-Dienste anbietet, hat bereits beim US-Gesetzgeber ein internationales Abkommen für amerikanische Cloud-Anbieter eingefordert, weil sich amerikanische Anbieter schon heute in verschiedenen Ländern vor Gericht für Datenverluste verantworten müssen. Ein internationales Cloud-Gesetz gibt es nämlich ebenso wenig wie eine „Lex Google“, „Lex Amazon“ oder „Lex Microsoft“.

Allein zwischen den USA und der Europäische Union lassen sich die juristischen Probleme des Cloud Computing nicht mehr lösen. Angesichts der weltweiten Verteilung wäre wohl eine höhere Stelle gefragt – wie die Vereinten Nationen zum Beispiel. Aber ob sich die Staaten hier auf gemeinsame Regeln verständigen könnten, ist wohl bis auf weiteres mehr als fraglich.

 

Skype: Abhören nach jahrelanger Kontaktanbahnung?

In seinem Law Blog berichtet Rechtsanwalt Udo Vetter, dass deutsche Strafbehörden im Zeitraum 2008 bis 2009 Skype-Gespräche abhören konnten. Noch vor einiger Zeit sei dies den Behörden nicht möglich gewesen.

Die Internet-Telefoniesoftware Skype galt ähnlich wie der Blackberry lange Zeit als abhörsicher, da die Gespräche und Chats seitens des Unternehmens verschlüsselt werden. Offenbar konnten die Strafverfolger jedoch nun eine einschlägige Kooperation mit dem Luxemburger Unternehmen etablieren.

Verwunderlich ist eigentlich an der Sache nur, dass das innerhalb des Schengenraums wohl ein paar Jahre gedauert hat. Vielleicht waren die US-Kollegen hier ein wenig schneller: Schon im Februar hatte die US-Whistleblower-Plattform Cryptome einen entsprechenden Handzettel veröffentlicht, der den US-Behörden die rasche Kontaktaufnahme erleichtert.

Nachtrag:

Die Deutschen sind technisch wohl schon länger in der Lage Skype abzuhören, glaubt man der Antwort des Innenministerium auf eine Bundestagsanfrage aus dem Jahr 2007. Dabei wird ein Trojaner auf den Zielrechner geschleust, der das Gespräch vor der Verschlüsselung abfängt. Diskutiert wurde die Methode in Hinblick auf den Online-Lauschangriff. 2008 wurde bekannt, dass sie auf Bundesebene allein vom Zollkriminalamt verwendet wird. Eine BKA-Studie wertete aus den Jahren 2006 bis 2008 13 „Vorfälle“ aus. In Hessen ist der Einsatz eines VoIP-Trojaners für die Polizei seit 2009 gesetzlich geregelt. Die Verschlüsselung von Skype gilt noch als sicher – wurde sie denn bislang nur ansatzweise geknackt.

Fragt sich nur, was die Amerikaner mit dem Skype-Kontakt konkret anfangen. Welchen Wert hat er?

Danke an Jürgen Kuri für die rasche Bereitstellung einiger historisch relevanter Tatsachen! Das Ergebnis ist wohl ein Beispiel für live vorgeführten „Prozess- / Korrekturjournalismus“ 😉

 

Wenn Autoren zu Verlegern werden

Weitgehend unbemerkt hat sich in den letzten Jahren auf dem Buchmarkt der USA eine kleine Revolution ereignet: Es werden inzwischen mehr als doppelt so viele Bücher jenseits der traditionellen Verlage veröffentlicht als noch vor drei Jahren.

Zahlen zu dieser Entwicklung in den Jahren 2002 bis 2009 (prognostiziert) liefert der US-amerikanische Bibliografie-Informationsdienst Bowker, in der folgenden Grafik übersichtlich aufbereitet. Bowker unterscheidet dabei zwischen traditionellem und nicht-traditionellem Publishing, wobei letzteres vor allem Print-on-Demand-Angebote sind, also die Titel erst nach der Bestellung ausgedruckt werden. (Für eine statische Ansicht wählt man oben rechts den Button „Säulendiagramm“ und drückt dann den Play-Button):

Ähnliche Zahlen gibt es für Deutschland nicht, weil der Börsenverein des deutschen Buchhandels solche Statistiken nicht erhebt. Anzunehmen ist, dass sich der Markt hierulande ähnlich entwickelt, nur leicht zeitversetzt.

Das liegt zum einen daran, dass immer mehr Internetplattformen diese Dienste für Autoren anbieten. Der Großteil bietet Print-on-Demand, zunehmend gehören aber auch E-Books dazu. Und vor allem im E-Book-Bereich sind die Autorenprovisionen mindestens doppelt so hoch wie im Print-Bereich.

In den USA hat vor allem Amazon das Geschäft mit den E-Books aufgemischt – mit einer Autorentantieme von 70 Prozent. Sie gilt allerdings bislang nur für US-Autoren, die ihr Buch bei Amazon zu einem Höchstpreis von maximal 9,99 Dollar anbieten. Dieses 9,99-Dollar-Diktat von Amazon bestimmt den amerikanischen E-Book-Markt maßgeblich – und führt anders als in Deutschland, wo Verlage sich etwa bei Libreka noch in mühsamen Preisfindungsprozessen befinden, zu erstaunlichen Abverkäufen: Amazon verkauft inzwischen fast doppelt so viele E-Books wie Printwerke gebundene Bücher.

Für die deutschen Verlage ist die Buchpreisbindung noch eine Art Rettungsanker – verhindert sie doch, dass ein Anbieter sich einen Günstigst-Preis ausbedingen kann. Ebenfalls profitieren sie davon, dass Amazon, Apple sowie etliche E-Book-Reader ihre Kataloge noch nicht für einen automatischen Datentransfer seitens der Self-Publishing-Plattformen geöffnet haben.

Dieser momentane Stillstand ist allerdings nur eine Art Schonfrist: Immer mehr Autoren machen sich angesichts der lukrativen Tantiemen im E-Book-Markt auf die Suche nach Selbstvermarktungs-Möglichkeiten. Den Verlagen droht also Ungemach von beiden Seiten, sowohl von den Autoren als auch von den Händlern.

Chancen und Vorteile haben die Verlage, was das Marketing betrifft. Das gilt bei der drohenden Titelschwemme nur umso mehr. Autoren wird es kaum genügen, eine Website zum Buch oder einen Twitter-Account zu führen. Verlage könnten Autoren hier mit Rundum-Paketen unterstützen – von der kollaborativen Manuskripterstellung, über ein professionelle Publishing über Mediengrenzen hinweg bis hin zu neuen, innovativen Vermarktungsmodellen.