Lesezeichen
 

Ushahidi: wissen, was wo in Japan passiert

Stündlich, minütlich ändert sich in Japan jetzt die Lage. Für die Betroffenen sind Nachrichten über das Atomkraftwerk Fukushima-1 wichtig, noch wichtiger sind jedoch Informationen darüber, wo sie in ihrer Umgebung am schnellsten Hilfe finden. Wo gibt es Unterkunft, wo gibt es etwas zu essen?

In Japan wurde nun die Ushahidi-Plattform aufgesetzt, um den Katastrophenopfern zu helfen. Ushahidi wurde 2008 in Kenia entwickelt, um die Unruhen nach den Wahlen zu dokumentieren. Das Wort bedeutet „Zeuge“ und die Plattform hat es sich zur Aufgabe gemacht, lokale Entwicklungen zu dokumentieren. Jeder Bürger kann mit seinem Handy Informationen beitragen.

Die Daten werden im Crowdsourcing-Verfahren von vielen Freiwilligen erhoben und in verschiedene Kategorien wie etwa „Vertrauenswürdige Berichte“, „Zustand der Infrastruktur“, „Versorgung“, „Gefahrenzone“ oder „Andere Sprachen“ eingeordnet. Aber auch Daten des Wetterdienstes zu den neuesten Erdbeben werden automatisiert eingelesen. Das ist wichtig, da es nahezu ununterbrochen zu mehr oder weniger schweren Nachbeben kommt. So kann Hilfe geleistet – aber auch ein minutiöser Überblick über die Entwicklung behalten werden:

Die Ushahidi-Daten können wiederum über offene Schnittstellen in andere Dienste importiert werden, zum Beispiel in diese Krisenkarte des Geodatenunternehmens Esri, die die Daten in einem Mashup zusammen mit RSS-Nachrichtentickern, Erdbebendaten, Twitter- und Youtubeinformationen anzeigt. Die Youtube-Einträge sind allerdings in vielen Fällen nicht treffend lokalisiert, auch die Nachrichtenmeldungen passen noch nicht ganz. Dafür dass die Karte aber erst vor wenigen Tagen eingerichtet wurde, bietet sie eine gute Orientierung.

Ein Klick auf den Link, der in die oben ausgewählten Ushahidi-Meldung eingefügt wurde, führt beispielsweise weiter zu einem Mobildienst, der über die Einbindung von GoogleMaps anzeigt, an welchen Orten es Verpflegung und Unterkunft gibt:

 

Buzz over?

Schon länger habe ich mir keine Google-Buzz-Posts mehr angesehen. Ein Grund war wohl dieser stete Strom an duplizierten Twitter- und Google-Reader-Meldungen, die ich anderenorts ja auch schon registiert habe. Heute fasste ich mir ein Herz und guckte wieder rein – und siehe da: Google hat die Einstellung zu jedem Beitrag so erweitert, dass man den Twitter- oder Google-Reader oder Blog-Stream der Nutzer gezielt ausblenden kann.

Das habe ich nun bei all denjenigen gemacht, denen ich über meinen RSS-Reader oder per Twitter bereits folge. Und siehe da: Von rund 400 Posts, die übrigens bis auf einen einzigen nicht kommentiert worden waren, blieben nur noch vier Beiträge übrig, die nicht automatisch eingestellt worden waren. Und von diesen vier Beiträgen war auch nur einer für kommentierungswürdig befunden worden. Hier der automatisch generierte Beitrag, der kommentiert wurde:

Wahrscheinlich war es keine gute Idee, Google Buzz mit einem Hauruck-Verfahren bei Millionen Nutzern einzuführen – und dann nicht sehr zügig mit verschiedenen Kontroll-Optionen nachzubessern. Wahrscheinlich bestand der größte Fehler darin, das Einspeisen von Feeds monatelang ungefiltert zuzulassen. Google Buzz eignet sich einfach nicht als Feed-Aggregator. Wer über 100 Nutzern folgt wie ich, wird nur wenig kommentieren wollen. Doch gerade in den Kommentaren liegt der Mehrwert von Google Buzz.

Die nahe liegende Frage ist natürlich: Ist Buzz tot? Und wird Google auch diesen Dienst wie schon Google Wave bald entsorgen? Immerhin brachte Techcrunch anlässlich des 1. Geburtstags von Google Buzz ein als Gag gedachtes Zitat des Business Angels Jason Calacanis. Calacanis hatte kurz nach Einführung des Dienstes gejubelt, dass Google nun das um den Faktor zehn bessere Facebook an den Start gebracht habe. Und dass Facebook damit die Hälfte seines Werts eingebüßt habe. Was für eine Fehleinschätzung.

Oder wird es ein Revival geben, wenn die Nutzer ihre Ausblend-Optionen entdecken? Ich glaube es eigentlich nicht. Denn das Social Web zerfleddert sich in zu viele Streams. Der RSS-Reader wird damit zur zentralen Plattform. Und der linkt nicht auf Google Buzz oder eine andere Aggregationsplattform, sondern auf den Originalbeitrag. Dass die Kommunikation damit an ihren Ursprung zurückkehrt, ist eigentlich nur richtig.

Google Buzz hätte damit nur noch als Konferenztool gute Chance. Entsprechend konfigurieren lässt es sich ja. Aber das wiederum ist etwas aufwändig. Wahrscheinlich ist es einfach so, dass Google seinen Fokus längst auf andere, auf dediziert lokale Dienste wie HotPot und Latitude gerichtet hat. Dort werden nämlich die lokalen Werbeeinnahmen sprudeln.

 

Sorgen um bit.ly in revolutionären Zeiten

In den USA sorgen sich einige Internetkenner um den beliebten URL-Abkürzungsdienst bit.ly. Die Endung -ly nutzt nämlich die libysche Länder-Domain, die in der Hand der Regierung ist. Muammar Gaddafi könnte theoretisch bit.ly erpressen. Auch eine neue Regierung könnte neue Regeln für die Verwendung der .ly-Domain aufstellen, die Geschäften abträglich sein könnte. Ein nationaler Blackout nach ägyptischem Vorbild hätte aber wohl keine Auswirkungen, da die fünf bit.ly-Server in den USA und Europa stehen.

Bald könnte die Abhängigkeit von einzelnen Regierungen obsolet sein, da die Internetverwaltung ICANN noch in diesem Jahr Unternehmen und zivilgesellschaftlichen Organisationen die Möglichkeit einräumen wird, neue Top-Level-Domains wie etwa .auto oder .revolution zu beantragen. Nicht diskutiert wird jedoch die ebenfalls in diesem Jahr anstehende Entscheidung über die Verlängerung des Vertrags zwischen ICANN und dem US-Handelsministerium. So wurde wohl die wikileaks.org-Domain auf politischen Druck hin deaktiviert. Doch offenbar scheint man die Kontrolle der US-Regierung über die Domain-Verwaltung nicht aufgeben zu wollen, da die Entscheidung über Top-Level-Domains unter dem UNO-Dach noch kontroverser werden dürfte.

 

Korrumpiert Facebook mit seinem Like-Button das Netz?

Eigentlich eine auf den ersten Blick etwas unspektakuläre Nachricht: Facebook erweitert die Funktionalität des Like- bzw. „Mag ich“-Button: Alles was vorher auf irgendwelchen Websites mit „Mag ich“ angeklickt wurde, erscheint jetzt auch auf der eigenen Pinnwand. Der Like-Button wird damit zum Share-Button. Jeder Klick generiert automatisch auch  einen Beitrag mit Titel, Unterzeile und Bild. Bei mehreren möglichen Bildern lässt sich keines aussuchen. Der Nutzer kann lediglich im Nachhinein den Beitrag wieder per Hand löschen, aber nicht ändern.

Die Umstellung gilt nicht nur für künftige Klicks, sondern für alle vergangenen. Klar wird damit wieder einmal: Der Nutzer darf sich bei Facebook nie der Illusion hingeben, dass die Daten funktionell getrennt sind. Sie sind alle in der riesigen Facebook-Datenbank auf Vorrat gespeichert und ihr Verwendungszweck kann jederzeit umdefiniert werden. Was hinter dem Begriff „informationelle Selbstbestimmung“ steckt, scheint Facebook trotz monatelanger Datenschutz-Schlagzeilen immer noch nicht verstanden zu haben – oder verstehen zu wollen.

Ob sich der Button für Facebook auszahlt, ist unklar. Zwar macht Facebook die Einbettung des „Mag ich“-Button für Website-Betreiber noch attraktiver, da diese nun sicher gehen können, dass der Link über die Pinnwand der Nutzer weitere Aufmerksamkeit erfahren wird. Doch manchmal wird die Facebook-Funktionalität nur mit Verzögerung geladen, was den Seitenaufbau empfindlich verlangsamen kann. Je attraktiver der Button wird, desto mehr Probleme könnte es hier geben und Website-Betreiber könnten sich entscheiden, lieber auf den Button zu verzichten.

Viel gravierender dürfte jedoch sein, dass Facebook mit dem Button eine neue Bewertungswelt aufbaut, die für Link-basierte Suchmaschinen nicht zugänglich ist. Suchergebnisse könnten damit mangels Gewichtungs-Input durch die Nutzer schlechter werden. Der eigentliche Mehrwert des Internet, der vor allem auf seiner Offenheit basiert, würde über kurz oder lang beeinträchtigt – und es würden viele kleine, privatisierte Teilnetze entstehen, die jeweils gewinnbringend vermarktet werden.

Für die Informationsbeschaffung könnte sich der Like-Button damit als schlimmer erweisen als sämtliche Zensurversuche, da viele Informationen einfach hinter Zugangssperren verschwinden. Das eigentliche Teilen der Information würde exklusiv werden. Der Grundgedanke, der hinter dem World Wide Web steht, der offene Informationsaustausch, wäre damit korrumpiert.

 

Smartphone-App erstellt Krebsdiagnose

Nein, es ist noch nicht der 1. April. „Live Science“ berichtet über ein neues Gerät, das relativ zuverlässig innerhalb von einer Stunde eine Krebsdiagnose anhand von neun Proteinen erstellen kann. Das Gerät, ein kleiner, mobiler Kernspintomograph, untersucht eine präparierte Gewebeprobe und gibt seine Scan-Ergebnisse an eine Smartphone-App weiter. Diese wertet sie angeblich in 96 Prozent der Fälle richtig aus. Getestet wurde das Gerät bislang an 50 Patienten im Massachusetts General Hospital.

via Andreas Milles

 

Plagiats-Wiki auch für Gaddafi-Sohn

Nachdem Verteidigungsminister zu Guttenberg mehr oder weniger freiwillig seinen Doktortitel zurückgegeben hat, könnte bald schon Saif Al-Islam Gaddafi vor einer ähnlichen Entscheidung stehen. Seine Dissertation an der London School of Economis steht ebenfalls unter Plagiatsverdacht. In diesem Falle dürften ihm keine angeheuerten Söldner helfen.

Wie BoingBoing meldet, gibt es nun auch hier ein Wiki, in dem Nutzer ihre Plagiatsfunde dokumentieren können. Eingerichtet wurde es, nachdem einfaches Googlen bereits zwei Plagiatsfunde erbringen konnte. Der Verdacht kam nach seiner Fernsehansprache auf, in der er wenig Verständnis für die zivilen Proteste in seiner Heimat aufbrachte und in lässig zurückgelehnter Haltung vor einem Bürgerkrieg warnte. In seiner Dissertation hatte er sich vorgeblich mit der Rolle der Zivilgesellschaft in Demokratisierungsprozessen beschäftigt.

 

Notruf aus Libyen

Die Lage in Libyen ändert sich derzeit stündlich. Ein Gebäude des Staatsfernsehens soll geplündert worden sein, das Gebäude des Volkskongresses wurde am Wochenende von Aufständischen niedergebrannt. Während das libysche Staatsfernsehen jubelnde Gaddafi-Unterstützer zeigt und ruhige Straßen, werden in Youtube Handyvideos über Straßenschlachten, Tote und brennende Autos hochgeladen.  Al Dschasira greift für seine Berichterstattung hauptsächlich auf Handyvideos zurück. Die laufende Berichterstattung lässt sich übrigens auch im Internet, unter anderem auch bei Facebook verfolgen.

Bereits vergangenen Freitag wurde das libyische Internet mehrere Stunden lang abgeschaltet. Der Netzwerkdienst Facebook soll gar nicht mehr erreichbar gewesen sein. Seitdem die Verbindung am Wochenende wiederhergestellt war, berichteten zahlreiche Twitter-Nutzer über die aktuellen Vorgänge. Ein Twitter-Nutzer namens @Arasmus pflegt aus seiner Sicht vertrauenswürdige Nachrichten in eine GoogleMaps-Karte ein. Sie zeigt, wo es wie viele Verletzte und Tote gegeben hat. Es ist eine Art Katastrophenmanagement „von unten“.

Eine automatisiert aktualisierte Karte hält Arasmus für zu gefährlich: „The danger of an automatic map is that you will reveal too much information too soon and put protestors in danger.“ Vielleicht aber ist sogar eine handgepflegte Karte zu riskant. Seit heute morgen gibt es keine Updates mehr. Ein Twitter-Hashtag, der viele relevante Tweets verbindet, ist übrigens #feb17.


View Mapping Violence Against Pro-Democracy Protests in Libya in a larger map

 

Der Internetzugang als Privileg für wenige

Das Thema „Cyber-Sicherheit“ treibt zurzeit die Bundesregierung um. Das angekündigte Cyber-Abwehrzentrum soll vor allem der Koordination dienen. Dabei ließe sich rein rechtlich noch einiges koordinieren, um den Status Quo zu verbessern:

Erst kürzlich hatte ich darüber berichtet, dass in Deutschland in Krisenfällen die Kommunikation durchaus eingeschränkt werden kann. Einen zentralen Ausknopf gibt es nicht, das Ganze läuft etwas subtiler: über „Bevorrechtigungen“, die bestimmte Einrichtungen im Notfall erhalten, um kommunizieren zu können. Während anderen das dann möglicherweise verwehrt ist.

Die entsprechende „Verordnung zur Sicherstellung von Telekommunikationsdienstleistungen sowie zur Einräumung von Vorrechten bei deren Inanspruchnahme“ verlangt von den Telekommunikationsbetreibern ein „Mindestangebot“ etwa bei „bei erheblichen Störungen der Versorgung mit Telekommunikationsdienstleistungen, insbesondere bei einer Naturkatastrophe oder bei einem besonders schweren Unglücksfall“ oder „im Spannungs- und im Verteidigungsfall“. Dabei müssen die Betreiber „Festverbindungen“ mit einer Mindestleistung vorhalten. In der Verordnung heißt es hierzu in Klammern: „analog, 64kbit/s, 2Mbit/s.“ Halbe ISDN-Leistung also wohl für das Festnetz und 2MBit/s für das Internet.

Damit kann ein Unternehmen oder eine Behörde keine großen Sprünge machen, aber die Kommunikation kann zu einem gewissen Maß noch aufrecht erhalten werden. Wer gehört nun zu dem Kreis derer, die in den Genuss dieser Mindestleistung kommt? Laut Verordnung sind das Behörden, Katastrophenschutz- und Zivilschutzorganisationen, Aufgabenträger im Gesundheitswesen, Hilfs- und Rettungsdienste, Bundeswehr und Aufgabenträger in Presse und Rundfunk. Voraussetzung dafür ist, dass diese Stellen bei der Bundesnetzagentur einen entsprechenden Antrag auf Bevorrechtigung stellen. Alle, die dieses Privileg nicht erhalten, müssen sich auf einen der Lage entsprechend eingeschränkten Zugang einstellen.

Offensichtlich geht das jedoch nicht Hand in Hand mit dem Schutz kritischer Infrastrukturen, wie ihn der „Umsetzungsplan KRITIS“ vorsieht. Bei diesem geht es ebenfalls darum, im Krisenfall die Stellen am Leben zu halten, die für das Land relevant sind. Als schützenswert gelten laut diesem Plan nun Energieunternehmen, Banken und Versicherungen, Transport- und Verkehrsunternehmen sowie die Chemie- und Pharmabranche.

Laut Sicherstellungs-Verordnung gehören sie aber nicht zu dem Kreis der Privilegierten, die einen Bevorrechtigungs-Antrag stellen dürfen. Diese Lücke ist bemerkenswert – angesichts der jahrelangen Kritis-Planung und angesichts des kürzlich angekündigten Cyber-Abwehrzentrums. Eine kohärente IT-Sicherheitspolitik sieht anders aus.

 

Warum man „auf der Arbeit“ nicht wirklich arbeiten kann

Der amerikanische Softwareunternehmer Jason Fried ist der Ansicht, dass man „auf der Arbeit“, also beispielsweise in einem klassischen Büroraum seine Aufgaben nicht wirklich erledigen kann.

Ganz meine Meinung, wenn ich mich an meine eigenen Büroerfahrungen vor mittlerweile gut 20 Jahren erinnere: Der Tag ging schnell vorbei, da immer wieder unerwartete Unterbrechungen vorkamen: Ein Kollege kam vorbei, die Post wurde angeliefert, eine Essenspause, das Telefon klingelte, eine Besprechung, eine kleine Feier, der Chef will einen kleinen Zwischenbericht. Schwierig, sich auf eine Sache, die man sich vorgenommen hatte, wirklich zu konzentrieren.

Jason Fried hat sich mit diesem Büroalltag zehn Jahre lang beschäftigt und meint: Ganz normal, dass man nicht zum Arbeiten kommt. Und Facebook und Twitter seien nicht das Problem. Die Probleme lägen ganz woanders … Meetings etwa unterbrechen relativ unwirklich den Arbeitsfluss einer ganzen Reihe von Menschen und ziehen meist weitere Meetings nach sich. Und ein einstündiges Meeting mit zehn Leuten ist nicht wirklich ein einstündiges Meeting, sondern ein zehnstündiges, usw., usf.

Jason Fried hat natürlich auch einige Lösungsvorschläge. Sie laufen darauf hinaus, das eigene Kommunikationverhalten stärker zu kontrollieren – unter anderem auch mit Hilfe von Kommunikationstools. Und auf das nächste Meeting vielleicht einfach mal zu verzichten. Eigentlich nahe liegend, da Fried als Mitbegründer von 37signal, einem Unternehmen, das Kollaborationstools entwickelt, sehr Tool-orientiert denkt. Aber sehen Sie selbst:

 

Alte Sachen neu erzählt

Iconoscope: Star Wars als Piktogramm
Iconoscope: Star Wars als Piktogramm

Star Wars scheint das Material zu sein, an dem neue Darstellungskonzepte am liebsten getestet werden. Noch vor dem Herrn der Ringe. Hier ist wieder einer: Der Versuch, die komplexen Handlungsstränge der Saga allein mit Piktogrammen zu vermitteln.

All jenen, die das Original kennen, wird das ein Schmunzeln entlocken. Für die, die es nicht kennen (ja, die soll es geben), sind die Bilderfolgen aber wahrscheinlich eher sinnloses Gestempel. Dabei ist der Ansatz so untauglich nicht. Auch eine Mobiltelefon-App versucht, nur mit Piktogrammen zu arbeiten: als universaler Übersetzer, der unabhängig von Sprache funktioniert.

via.