Lesezeichen
 

Duo, Trio oder Elefantenrunde? Zur Diskussion über die Fernsehdebatte in Baden-Württemberg

Von Jürgen Maier und Thorsten Faas
Ministerpräsident Stefan Mappus (CDU) hat sich durchgesetzt. Überlegungen des SWR, nicht nur den CDU-Spitzenkandidaten und seinen Herausforderer von der SPD, Nils Schmid, für eine Fernsehdebatte einzuladen, sondern auch den Top-Kandidaten von Bündnis 90/Die Grünen, Winfried Kretschmann, erteilte er eine klare Absage: „Für Trio-Konstellationen stehe ich nicht zur Verfügung. Ein Duell besteht aus zwei Personen, wie der Name schon sagt.“ Tatsächlich kommt es nun am 16. März zu einem Aufeinandertreffen von Mappus und Schmid.

Fernsehdebatten (oft etwas martialisch auch als „TV-Duelle“ bezeichnet) sind ein aus den USA importiertes Format, in dessen Rahmen die aussichtsreichsten Kandidaten für das Amt des Regierungschefs miteinander die zentralen Themen des Wahlkampfs diskutieren. In der Regel sind es tatsächlich zwei Kandidaten, die sich dabei gegenüberstehen. Allerdings gab und gibt es Ausnahmen davon: Der prominenteste Fall sind die TV-Debatten im amerikanischen Präsidentschaftswahlkampf 1992, als der demokratische Herausforderer Bill Clinton nicht nur mit dem damaligen republikanischen Präsidenten George Bush sen., sondern auch mit dem unabhängigen Kandidaten Ross Perot diskutierte. Auch bei der Erstauflage solcher Debatten in Großbritannien im vergangenen Jahr waren drei Kandidaten geladen: Gordon Brown für Labour, James Cameron für die Conservatives und Nick Clegg für die Liberalen.

Auch in Deutschland wäre ein Dreikampf kein Novum. In den Landtagswahlkämpfen 2004 und 2009 in Brandenburg und Thüringen standen sich Vertreter von CDU, SPD und PDS bzw. Die Linke gegenüber. Ein „Duell“ besteht also nicht immer aus zwei Personen. Nun könnte man argumentieren, dass es sich hierbei eigentlich nicht um TV-Duelle, sondern um Elefantenrunden – also eine Diskussion zwischen Repräsentanten aller im Parlament vertretenen Parteien – handelte. Dies stimmt jedoch nur für Thüringen (hier saßen tatsächlich nur diese drei Parteien im Landtag). In der brandenburgischen Volksvertretung war zum Zeitpunkt der Fernsehdebatten allerdings auch die DVU vertreten – der man allerdings keine öffentliche Bühne geben wollte. Auf diese Weise kam es zumindest in Brandenburg schon einmal zu einem aus drei Personen bestehenden Duell.

Die Rationalität hinter diesem Vorgehen war die hohe Popularität der eingeladenen politischen Kräfte – sowohl in den USA als auch in Großbritannien als auch in Thüringen und Brandenburg. Aus diesem Grund regt sich auch in Baden-Württemberg Widerstand. Bündnis 90/Die Grünen reagierten in einem offenen Brief an den Intendanten des SWR auf die Entscheidung des Fernsehsenders. Sie argumentieren unter Berufung auf Umfrageergebnisse, dass ein Ausschluss von Kretschmann die (sich abzeichnenden) politischen Kräfteverhältnisse „verzerren“ würde. Im Kern geht es den Grünen natürlich nicht nur um bloße Sichtbarkeit, sondern vor allem um die Möglichkeit, ein vergleichsweise großes Publikum direkt, d.h. unter Umgehung journalistischer Selektionskriterien, anzusprechen. Damit verknüpft ist die Hoffnung, dass dieser direkte Zugang zu den Wählern sich positiv auf die eigenen Wahlchancen niederschlägt. Wissenschaftliche Untersuchungen zu den TV-Debatten auf Bundesebene belegen immer wieder, dass diese Hoffnung durchaus zur Realität werden kann.

Wie kann man die Situation nun auflösen? Kurzfristig damit, nochmals darüber nachzudenken, ob das Duo Mappus-Schmid nicht doch um den Grünen Kretschmann ergänzt werden sollte. Dies muss – wie ein Blick nach Österreich zeigt – nicht unbedingt darin münden, alle drei Kandidaten gemeinsam vor der Kamera stehen. In der Alpenrepublik debattiert traditionell jeder gegen jeden. Alternativ dazu könnte man natürlich auf eine Elefantenrunde ausweichen – und auch Liberale (und Linke?) zu einer Diskussion bitten. Mittelfristig müssen klarere Regeln her, wann Parteien einen Repräsentanten in ein solches Duell entsenden dürfen. Zwar wurde vom Bundesverfassungsgericht 2002 entschieden, dass ein solcher Anspruch generell nicht besteht und die Fernsehsender (und zwar auch die öffentlich-rechtlichen) in der Zusammenstellung solcher Diskussionsrunden grundsätzlich frei sind. Aber auch hier könnte ein Blick in die USA weiterhelfen: Dort werden alle Kandidaten geladen, die eine rechnerische Chance haben, die Mehrheit im Electoral College zu gewinnen, bzw. die in landesweiten Umfragen mindestens 15 Prozent der Wähler hinter sich vereinigen können. Außerdem liegt die Organisation solcher Debatten dort in den Händen einer unabhängigen „Commission on Presidential Debates“, was auch der Situation in Deutschland angesichts der zu beobachtenden Institutionalisierung solcher Diskussionsrunden sicher gut tun würde.

 

Auf der Jagd nach den 50.000 Klicks: E-Petitionen in Deutschland

von Andreas Jungherr, Pascal Jürgens und Harald Schoen

Geht man nach den Nutzerzahlen, so gehört das E-Petitionssystem des Deutschen Bundestages zu den erfolgreichsten Beispielen für demokratische Partizipation über das Internet. Tatsächlich bündeln jedoch nur sehr wenige E-Petitionen mehr als die Hälfte aller Unterschriften. Die öffentliche Unterstützung konzentriert sich also auf einem verschwindend kleinen Bruchteil aller öffentlichen E-Petitionen. Das E-Petitionssystem scheint allerdings nicht dem “Winner takes all”-Prinzip zu folgen. Auch wenn nur ein kleiner Bruchteil der E-Petitionen einen Großteil der Unterstützung auf sich konzentriert, profitieren auch kleinere, weniger erfolgreiche E-Petitionen von der Aufmerksamkeit, die erfolgreiche E-Petitionen erregen. Es scheint, als ob Aufmerksamkeit und Unterschriften von erfolgreichen auf weniger erfolgreiche E-Petitionen gleichsam überspringen.

Auf einer vom Bundestag bereitgestellten Internetplattform können interessierte Bürger online Petitionen an den Bundestag richten. Falls die Urheberin einer Petition dies wünscht, kann sie die Petition als „öffentlich“ kennzeichnen. Dies ermöglicht es dann anderen Nutzern des E-Petitionssystems, diese Petition auf der Internetplattform mitzuzeichnen. Gelingt es einer E-Petition, in den ersten drei Wochen nach ihrer Veröffentlichung auf der Petitionsplattform mehr als 50.000 Unterschriften zu sammeln, so wird die Petition in einer öffentlichen Sitzung des Petitionsausschusses des Deutschen Bundestages im Beisein der Urheberin der E-Petition diskutiert. 50.000 Unterschriften sind damit die entscheidende Hürde, die überwunden werden muss, ehe einer E-Petition und ihrer Urheberin Öffentlichkeitswirksamkeit garantiert ist (siehe zum deutschen E-Petitionswesen z.B. Riehm et al. 2009).

Wir untersuchten E-Petitionen seit der Einführung der derzeitigen E-Petitionsplattform am 14. Oktober 2008 bis zum 19. Januar 2010. In dieser Zeit fanden sich auf der Plattform 886 E-Petitionen mit mindestens einer Unterstützerunterschrift. 495.611 Nutzer hatten sich der Plattform bedient, um eine oder mehrere E-Petitionen einzureichen oder zu unterstützen. Insgesamt waren über eine Million Unterschriften zugunsten der 886 öffentlichen E-Petitionen geleistet worden. Dies sind beeindruckende Zahlen, vor allem wenn man die übliche Gelassenheit der deutschen Internetnutzer gegenüber Partizipationsangeboten im Netz bedenkt (man denke nur an das dröhnende Schweigen des „18. Sachverständigen“, also der Bürger, in der Enquete-Kommission Internet und digitale Gesellschaft).

Mit den Methoden der „Computational Social Science“ (Lazer et al. 2009) haben wir das E-Petitionsverhalten genauer untersucht. Das folgende Schaubild zeigt die Summe aller Unterschriften im Laufe des Untersuchungszeitraums. Schwarz markiert sind alle Unterschriften die für E-Petitionen eingingen, denen es nicht gelang, über 10.000 Unterschriften zu sammeln. Die farblich abgesetzten Flächen zeigen die Unterschriften für E-Petitionen, die mehr als 10.000 Unterschriften auf sich vereinigen konnten. Von den 886 öffentlichen E-Petitionen im Untersuchungszeitraum gilt das nur für vierzehn E-Petitionen. Nur 1,5% der öffentlichen E-Petitionen bündeln also gut die Hälfte aller auf der E-Petitionsplattform eingegangenen Unterschriften.

[Für eine größere Version bitte das Schaubild anklicken]

Welche sind nun diese außerordentlichen E-Petitionen? Im Schaubild zeigen sich die E-Petitionen mit über 10.000 Unterschriften als plötzlich ansteigende und wieder abfallende Farbflächen. So sehen wir im Frühjahr 2009 die in der Öffentlichkeit stark diskutierte E-Petition für ein bedingungsloses Grundeinkommen. Im Sommer 2009 finden sich dann gleich mehrere dieser populären E-Petitionen. Allen voran die E-Petition „Keine Indizierung und Sperrung von Internetseiten“ die im Sommer 2009 Teil der #zensursula-Kampagne gegen das umstrittene Netzsperrengesetz der damaligen Bundesregierung wurde.

Auf den ersten Blick könnte man meinen, für das E-Petitionswesen gelte die Devise „Die Reichen werden reicher“ oder gar das Prinzip „The winner takes all“. Bei näherem Hinsehen wird jedoch deutlich, dass eine andere Dynamik am Werk ist. Betrachtet man die Entwicklung der schwarzen Fläche im Schaubild, so sieht man, dass die E-Petitionen unter 10.000 Unterschriften zu Beginn des Untersuchungszeitraums täglich einige hundert Unterschriften erhalten. Dieses Muster wird gebrochen, sobald die außergewöhnlich erfolgreiche E-Petition für das bedingungslose Grundeinkommen auftritt. Während des Zeichnungszeitraums dieser E-Petition steigt auch die Summe der Unterschriften für kleinere E-Petitionen deutlich an. Der Erfolg einer E-Petition springt also, mit abgeschwächter Wirkung, auf andere in diesem Zeitraum unterzeichenbare E-Petitionen über. Dieses Muster findet sich im weiteren Verlauf des Untersuchungsraumes immer wieder und deutet auf eine Regelmäßigkeit hin. In Zahlen ausgedrückt, scheint eine E-Petition, die mehr als 10.000 Unterschriften erhält, weniger erfolgreichen E-Petitionen zusätzliche Unterschriften einzubringen. Aufmerksamkeit und Unterschriften scheinen also von erfolgreichen auf weniger erfolgreiche Petitionen überzuspringen. Oder, in anderen Worten: Politische Partizipation erzeugt politische Partizipation.

Literatur:

Jungherr, A., und P. Jürgens (2010) ”The political click: political participation through e-petitions in Germany,” Policy & Internet 2(4), 131-165.

Lazer, D., et al. 2009. “Computational Social Science.” Science 323 (5915): 721–723.

Riehm, U., C. Coenen, R. Lindner, und C. Blümel. 2009. Bürgerbeteiligung durch E-Petitionen: Analysen von Kontinuität und Wandel im Petitionswesen. Volume 29 of Studien des Büros für Technikfolgen-Abschätzung beim Deutschen Bundestag. Berlin: Edition Sigma.

Die Autoren:

Andreas Jungherr arbeitet als wissenschaftlicher Mitarbeiter am Lehrstuhl für Politische Soziologie an der Universität Bamberg. Dort promoviert er zur Dynamik politischer Twitternutzung. Er twittert unter dem Namen @ajungherr.

Pascal Jürgens ist Kommunikationswissenschaftler und promoviert demnächst im Bereich der Online-Kommunikation. Seine Forschungsschwerpunkte liegen in empirischen Methoden, insbesondere bei Sozialen Netzwerken und Modellierung.

Harald Schoen ist Politikwissenschaftler und Professor für Politische Soziologie an der Otto-Friedrich-Universität Bamberg. Zu seinen Forschungsgebieten gehören Wahlverhalten, Wahlkämpfe und ihre Wirkungen, Einstellungen zu außen- und sicherheitspolitischen Themen sowie Fragen der politischen Psychologie und der Politischen Kommunikation.

 

Twitterprognosen, oder: Warum die Piratenpartei beinahe die Wahl 2009 gewonnen hätte

von Andreas Jungherr, Pascal Jürgens und Harald Schoen

Die zunehmende Nutzung internetgestützter Dienste wie zum Beispiel Google, Facebook oder Twitter hat für Sozialwissenschaftler den erfreulichen Nebeneffekt, dass sie auf immer größer werdende Datensätze zugreifen können, die menschliches Verhalten dokumentieren. So wurde zum Beispiel erfolgreich gezeigt, dass die Häufigkeit von Google-Suchanfragen Rückschlüsse auf die Entwicklung von Verbraucherzahlen oder Grippeepidemien zulässt. Mit Hilfe von Daten des Microblogging-Dienstes Twitter wurde versucht, den Kassenerfolg von Kinofilmen vorherzusagen oder die Struktur von Fernsehereignissen aufzuzeigen. Verschiedene Studien zeigen das Potential dieser neuen, durch Internetnutzung entstandenen Datensätze. Die Art und Größe dieser Datensätze birgt neben der Chance eines tatsächlichen Erkenntnisgewinns über gesellschaftliche Entwicklungen außerhalb des Internets für Forscher jedoch auch die Gefahr, zufällige Muster in den Daten als bedeutungsvolle Ergebnisse zu interpretieren.

Wie schnell man solchen Fehlschlüssen aufsitzen kann, zeigt der Aufsatz „Predicting Elections with Twitter: What 140 Characters Reveal about Political Sentiment“ von Andranik Tumasjan, Timm O. Sprenger, Philipp G. Sandner und Isabell M. Welpe. In ihrem Text versuchen die Autoren, das Ergebnis der Bundestagswahl 2009 mit Hilfe von Twitter-Nachrichten zu prognostizieren, die vor der Wahl gesendet wurden. Für die sechs im Bundestag vertretenen Parteien gelingt das so gut, dass die Autoren folgern, “the mere number of tweets mentioning a political party can be considered a plausible reflection of the vote share and its predictive power even comes close to traditional election polls”. Ein faszinierendes Ergebnis: Das einfache Zählen von Twitternachrichten führt zu sehr ähnlichen Resultaten wie kostspielige Erhebungen von Meinungsforschungsinstituten, die so gerne als Prognosen gelesen werden.

Die anfängliche Freude über dieses Ergebnis verfliegt allerdings schnell, betrachtet man sich die Analyse genauer. Eine einfache Replikation der Studie von Tumasjan und Kollegen ergibt Ergebnisse, die der Originalstudie sehr ähneln (Tabelle 1). In der Replikation der Studie stellten wir fest, dass für die Bundestagsparteien der mit Hilfe von Twitternennungen prognostizierte Stimmenanteil im Durchschnitt nur um 1,51 Punkte vom tatsächlichen Stimmenanteil ab. So weit, so gut.

Tabelle 1: Anteile der Bundestagsparteien an den Stimmen und Twitternennungen

a In Anlehnung an Tumasjan et al. wurden nur die auf die betrachteten Parteien entfallenen Stimmen berücksichtigt.

In ihrer Untersuchung entschieden sich Tumasjan und Kollegen dafür, nur die Nennungen von Parteien zu zählen, die auch tatsächlich im Bundestag vertreten waren. Diese Entscheidung ist etwas überraschend, da die Autoren so eine politische Prognose auf der Basis von Onlinekommunikation erstellen, aber diejenige Partei nicht berücksichtigen, die von allen Parteien die meisten Unterstützer im Internet sammeln konnte. Um zu überprüfen, wie robust die Ergebnisse von Tumasjan und Kollegen tatsächlich sind, beschlossen wir, die Piratenpartei in unsere Replikation der Originalstudie einzubeziehen. Abbildung 1 zeigt das Ergebnis.

Abbildung 1: Anteile der Bundestagsparteien und der Piratenpartei an den Stimmen und Twitternennungen

 

*In Anlehnung an Tumasjan et al. wurden nur die auf die betrachteten Parteien entfallenen Stimmen berücksichtigt.

Die Twitterprognose identifiziert hier eindeutig die Piratenpartei als stärkste Kraft. Wäre diese Prognose korrekt, so hätte die Piratenpartei am Wahltag 35 Prozent der abgegebenen Stimmen erhalten und damit mit hoher Wahrscheinlichkeit den Kanzler gestellt. Dieses Szenario hat offensichtlich wenig mit den tatsächlichen Wahlergebnissen zu tun, da die Piratenpartei am Wahltag etwa 2 Prozent der abgegeben Stimmen erzielen konnte und damit nicht in den Bundestag einziehen konnte. Es scheint, als würde zumindest dieses Instrument versagen, sobald man internetgestützte politische Bewegungen in die Analyse einbezieht.

Nun könnte man die Twitterprognose mit dem Argument zu retten versuchen, es sei zu ambitioniert, ausgerechnet die Piratenpartei in die Analyse einzubeziehen, von der ja vor der Wahl 2009 jeder gewusst habe, dass sie nicht in den Bundestag einziehen würde. Auf den ersten Blick erscheint dieser Einwand überzeugend, nicht jedoch auf den zweiten. Denn eine Methode, die Informationen darüber voraussetzt, welche Parteien in den Bundestag einziehen werden, dürfte schwerlich als eigenständiges Prognoseinstrument akzeptiert werden.

Dieses Beispiel zeigt, wie leicht es ist, sich von Mustern in Datenspuren menschlichen Online-Verhaltens irreführen zu lassen. Gerade die Reichhaltigkeit dieser Daten und ihre komplexen Zusammenhänge legen es nahe, Muster zu erkennen. Schwierig wird es allerdings, wenn diese Muster auf ihren Realitätsbezug überprüft werden sollen. Gerade hier entscheidet sich jedoch, ob die Ergebnisse einer solchen Untersuchung tatsächlich gesellschaftliche Entwicklungen außerhalb des Internets abbilden oder nur statistische Artefakte sind.

Literatur:

Tumasjan, Andranik, Timm O. Sprenger, Philipp G. Sander and Isabell M. Welpe. (2010). “Predicting Elections with Twitter: What 140 Characters Reveal about Political Sentiment,” Proceedings of the Fourth International AAAI Conference on Weblogs and Social Media. Menlo Park, California: The AAAI Press. 178-185.

Die Autoren:

Andreas Jungherr arbeitet als wissenschaftlicher Mitarbeiter am Lehrstuhl für Politische Soziologie an der Universität Bamberg. Dort promoviert er zur Dynamik politischer Twitternutzung. Er twittert unter dem Namen @ajungherr.

Pascal Jürgens ist Kommunikationswissenschaftler und promoviert demnächst im Bereich der Online-Kommunikation. Seine Forschungsschwerpunkte liegen in empirischen Methoden, insbesondere bei Sozialen Netzwerken und Modellierung.

Harald Schoen ist Politikwissenschaftler und Professor für Politische Soziologie an der Otto-Friedrich-Universität Bamberg. Zu seinen Forschungsgebieten gehören Wahlverhalten, Wahlkämpfe und ihre Wirkungen, Einstellungen zu außen- und sicherheitspolitischen Themen sowie Fragen der politischen Psychologie.

 

Bundeswehrreform und Auslandseinsätze: Der Verteidigungsminister in Übereinstimmung mit den Deutschen?

Seit Monaten ist Verteidigungsminister zu Guttenberg der Spitzenreiter in allen Umfragen zur Beliebtheit von Politikern. Einige Kritiker weisen jedoch darauf hin, der Minister müsse erst noch zeigen, dass er schwierige Entscheidungen treffen und durchsetzen könne. Denn dann könnte die Beliebtheit des Ministers beim Wahlvolk rasch nachlassen. Dabei verweisen sie nicht zuletzt auf die anstehende Reform der Bundeswehr. Wie steht es also um die Unterstützung der Bürger für diese Vorhaben?

Die Aussetzung der Wehrpflicht und der damit verbundene Übergang zu einer Freiwilligenarmee findet in der Gesellschaft weitgehend positive Resonanz. Wie die Ergebnisse einer telefonischen Befragung von 1162 zufällig ausgewählten Bundesbürgern, die zwischen 21. Oktober und 25. November 2010 vom Bamberger Centrum für Empirische Studien (BACES) durchgeführt wurde, votieren über Parteigrenzen hinweg zwischen 60 und 80 Prozent der Befragten für den faktischen Abschied von der Wehrpflichtarmee.

Auch die angestrebte Verkleinerung der Bundeswehr stößt nicht auf Widerstand in der Gesellschaft. Knapp die Hälfte der Befragten kennt die momentane Truppenstärke nicht einmal der Größenordnung nach, was auf geringes Interesse an der Bundeswehr hindeutet. Gefragt nach der gewünschten Truppenstärke, machen 20 Prozent der Befragten keine Angabe. Von den übrigen Befragten sprechen sich gut 10 Prozent für die vom Minister angestrebten 180.000 Soldaten aus, jeweils knapp 20 Prozent sogar für eine Reduzierung auf 100.000 oder 150.000 Soldaten. Ein solches Meinungsklima macht es Gegnern einer Verkleinerung nicht leicht, wirksamen Widerstand zu organisieren.

Beim Umbau der Bundeswehr kann der Minister also eher mit Rücken- als mit Gegenwind aus der Gesellschaft rechnen. Das sieht anders aus, wenn es um den Einsatz der Bundeswehr geht. Die Deutschen lehnen den Einsatz militärischer Mittel zwar nicht rundweg ab, betrachten bestimmte Einsätze jedoch mit großer Zurückhaltung. So spricht sich eine große Mehrheit gegen militärische Eingriffe zur Beseitigung von Gewaltherrschern, wie etwa im Irak, aus. Gar nur jeder zehnte Befragte befürwortet die Idee, wirtschaftliche Interessen mit militärischen Mitteln durchzusetzen. Als der Minister jüngst – wie vor ihm Horst Köhler – die These vertrat, Wirtschaftsinteressen militärisch zu sichern, hatte er demnach die große Mehrheit der Deutschen gegen sich. Sollte die Bundesregierung in die Verlegenheit geraten, über einen vorwiegend wirtschaftlich begründeten Militäreinsatz zu entscheiden, wäre die Öffentlichkeit dafür nicht leicht zu gewinnen. Hier könnte das Ansehen des Ministers beträchtlichen Schaden nehmen – oder ihm würde die Überzeugungsarbeit gelingen, was für manchen Beobachter wohl mehr als ein politisches Gesellenstück wäre.

 

Wikileaks und offene Daten – zwei Seiten einer Medaille?

Gastbeitrag von Christoph Bieber

Was haben die „Enthüllungsplattform“ Wikileaks und die scheinbar nur für Verwaltungsexperten und Programmierer interessanten E-Government-Angebote wie data.gov, data.gov.uk oder bund.offenerhaushalt.de miteinander gemein? Auf den ersten Blick nicht viel, doch bei einem Vergleich der Konstruktionsprinzipien zeigen sich durchaus Ähnlichkeiten: In beiden Fällen geht es um „offene Daten“, die Verfügbarmachung und Verbreitung großer Informationsmengen, ganz gleich ob als subversive Enthüllung oder kontrolliertes Leck.

Folgerichtig entwickelt sich in den USA bereits eine Debatte um die Frage, ob Wikileaks in das Modell des „Open Government“ passt (vgl. Alex Howard, Is Wikileaks Open Government?). In Deutschland dominieren dagegen die Bestürzung über die unverblümten Einschätzungen des politischen Spitzenpersonals sowie eine diffuse Empörung über das Internet als sprudelnder Datenquelle. Immerhin, in der öffentlichen Debatte wird Wikileaks als Akteur nun etwas mehr Respekt entgegengebracht – in den Affären um die Publikation geheimer Militärdokumente galt das Netzwerk um Julian Assange eher als medialer Emporkömmling mit unklarem Antrieb. Besonders pointiert vorgetragen wurde die Frage nach dem Bedeutungsverlust der alten Medien durch den New Yorker Journalismus-Forscher Jay Rosen, der Wikileaks als neuartige „stateless news organization“ bezeichnet hatte.

Die ersten beiden Publikationswellen waren deutliche Hinweise darauf, dass die technologisch veränderten Möglichkeiten zur Dokumentenerstellung, -vervielfältigung und -weitergabe für eine „Konjunktur des Lecks“ sorgen. Hier liegt im Übrigen eine bislang noch kaum beachtete Differenz zu den „War Logs“ aus Afghanistan und Irak: Waren damals auch multimediale Dokumente veröffentlicht worden, handelt es sich bei den diplomatischen „Kabeln“ bislang offenbar um pures Textmaterial. Gerade hier sind gemeinschaftliche Anstrengungen notwendig, um sich mit der immensen Materialmenge überhaupt beschäftigen zu können. Profiteure sind hier nicht allein Journalisten und interessierte Bürger, sondern auch Wissenschaftler. So gerät der britische Historiker Timothy Garton Ash angesichts dieser Quellenflut regelrecht ins Schwärmen:

„In den nächsten Wochen können wir uns auf ein mehrgängiges Festmahl zur Geschichte der Gegenwart freuen. Ein Historiker muss normalerweise 20 bis 30 Jahre warten, um solche Schätze zu finden. Hier sind die jüngsten Berichte kaum älter als 30 Wochen. Diese Fundgrube enthält mehr als 250.000 Dokumente. (…) Wie alle Archivforscher wissen, eröffnet die Untersuchung großer Datenmengen neue Einsichten – seien es die Briefe eines Schriftstellers, Unterlagen aus einem Ministerien oder diplomatischer Schriftverkehr. Das gilt auch dann, wenn vieles nur Routinematerial ist, denn ein langes Eintauchen in den Stoff schärft den Sinn für Prioritäten, Charakter und Denkmuster.“

Eine zweite Unterscheidung liegt in der Verortung des geleakten Materials innerhalb des politischen Systems: Aus politikwissenschaftlicher Perspektive können die ersten beiden „Datenhaufen“ als ein Leck im policy-Bereich verstanden werden, denn im Mittelpunkt stand die Einflussnahme auf konkretes außenpolitisches Handeln mit dem Ziel der Diskreditierung der militärischen Konflikte als legitimes politisches Mittel. Die dritte durch Wikileaks geöffnete Material-Fundgrube enthält (sofern man das bisher sagen kann) dagegen eher Informationen aus dem politics-Bereich und wirft Licht auf die Art und Weise, wie innerhalb und zwischen politischen Organisationen und Institutionen kommuniziert worden ist. Die Orientierung auf den politischen Prozess verschiebt auch die Bedeutungsebene dieses dritten Lecks – die ersten beiden Veröffentlichungswellen dürften sich in der Rückschau als die brisanteren erweisen.

Offene Daten-Plattformen als kontrollierte Lecks?

Man darf also vermuten, dass das „Leck“ als Standardsituation öffentlicher Kommunikationsprozesse vor einer großen Karriere steht. Nicht zuletzt, weil dafür auch einige Projekte sorgen, die auf Regierungsseite vorangetrieben werden und sich ebenfalls mit der gezielten Veröffentlichung großer Datenmengen befassen – gewissermaßen ein bewusstes „leaking“ durch staatliche Stellen. Beispiele für diese „Open Data“-Initiativen sind Portale wie data.gov in den USA oder data.gov.uk in Großbritannien. In Deutschland zielt offenerhaushalt.de in eine ähnliche Richtung, ist im Gegensatz zu den vorgenannten jedoch kein offizielles Regierungsprojekt.

Auch diese Leuchtturmprojekte dokumentieren einen veränderten Umgang mit öffentlich verfügbaren Daten und Informationsmaterial – und wie bei Wikileaks stehen dabei radikale Publizität und Transparenz im Vordergrund. In einem offenen, auf Kollaboration angelegten Arbeitsumfeld sollen neue Produkte und Dienstleistungen entstehen, die der Allgemeinheit zugute kommen und staatliche Akteure in der Ausübung ihrer Tätigkeiten unterstützen. Der Ansatz dieses „Open Government“ überträgt die Ideen des auf Offenheit, Beteiligung und Rekombination ausgelegten Web 2.0 in die Umgebung regierungsgebundener Dienstleistungen. Und auch hier geht es um eine Verschiebung von Machtstrukturen, schreiben die Management- und Verwaltungswissenschaftler Ai-Mei Chang und P. K. Kannan: „Aus einer Perspektive der Regierungsinstitutionen zielen Fragen zur gemeinsamen Entwicklung von Services und Regulierungsfragen auf (1) die Machtverschiebung in Richtung der Nutzer sowie (2) das Verhältnis zwischen Nutzern und externen Organisationen, die als Vermittler für andere auftreten.“

Wesentliche Triebfeder für Projekte mit offenen Daten ist die Idee der Co-Creation neuer Inhalte im Rahmen flexibler, datengestützter Kooperationen zwischen Bürgern und öffentlichen Akteuren. Ziel ist dabei nicht etwa eine vertragsbasierte Zusammenarbeit, sondern die Hoffnung auf individuelle Weiterentwicklungen und Re-Kombinationen der öffentlich verfügbaren Daten durch Dritte. Auffallend ist dabei auch, dass bereits mehrere Non-Profit-Organisationen den Datenreichtum solcher staatlichen Repositorien systematisch auszuschöpfen versuchen. Dazu zählen die „Open Knowledge Foundation“ mit Sitz in England und Wales, die US-amerikanische „Sunlight Foundation“ und auch die deutschen Netzwerke „Open Data e.V.“ und Government 2.0 e.V.

Sichtbar wird hier eine starke Verankerung in einer „digitalen Zivilgesellschaft“, deren Akteure als Übersetzer tätig werden und mit Hilfe von Auswertungen und Visualisierungen die Informationen einem größeren Publikum zugänglich machen. Zugleich stehen sie damit aber auch öffentlichen Verwaltungsstrukturen helfend zur Seite, denn aufgrund begrenzter Ressourcen sind die Behörden oft nicht in der Lage, die enormen Datenmengen ausführlich zu erschließen und aufzubereiten.

Das Konstruktionsprinzip der Plattformen, die in den USA und auch in Großbritannien sehr positiv aufgenommen wurden, weist also tatsächlich einige Ähnlichkeiten mit der ursprünglichen „Geschäftsidee“ von Wikileaks auf. Schließlich hatte die Nicht-Regierungsorganisation ihre Arbeit zunächst als offene Plattform zur Verbreitung von Informationen begonnen, von dem bereit gestellten Rohmaterial sollten Dritte profitieren und durch eine Weiterbearbeitung der Daten einen gesellschaftlich relevanten Mehrwert generieren – erst mit der Publikation der „Afghan War Logs“ wandelte sich dieses Selbstverständnis hin zu einem eher investigativ-journalistisch handelnden Akteur mit einer eigenen politischen Agenda.

Dennoch basieren „Enthüllungs-Website“ und „Verwaltungs-Plattform“ auf ganz ähnlichen Funktionsprinzipien: Sie machen umfangreiche Datenmengen einer größeren Zahl von Menschen zugänglich, und sie erlauben denjenigen, die über die nötigen Kompetenzen und eine individuelle Motivation verfügen, einen kreativen Umgang damit. Somit entsteht in beiden Fällen die Grundkonstellation für eine innovative, online-basierte Politik- bzw. Gesellschaftsberatung.

Interessanterweise scheinen die offiziellen Regierungs-Aktivitäten einer offeneren Struktur zu folgen, als das weder hierarchiefreie noch transparent arbeitende Wikileaks-Netzwerk. Bei den Verwaltungsplattformen steht tatsächlich der Gedanke einer offenen, gleichberechtigten Kollaboration im Vordergrund. In einer sehr vorläufigen und durchaus paradoxen Schlussthese könnte man also festhalten: Während die Regierungsplattformen eher als ein (ergebnis-)offener Prozess der Gesellschaftsberatung zu charakterisieren sind, lassen sich die Bemühungen von Wikileaks als eine in zielgerichtetes Beratungshandeln verkleidete Intervention verstehen, wobei eine bestehende Agenda unter Nutzung vernetzter medialer Öffentlichkeiten gegenüber politischen Akteuren durchgesetzt werden soll.

Textnachweis

Der Text ist eine gekürzte, aktualisierte Fassung des Beitrags „Offene Daten – neue Impulse für die Gesellschaftsberatung? Die Online-Plattformen Wikileaks.org und Data.gov als internet-basierte Gestaltungsöffentlichkeiten“, der in der kommenden Ausgabe der Zeitschrift für Politikberatung erscheint (Nr. 3/4, 2010).

Der Autor

Dr. Christoph Bieber ist Politikwissenschaftler an der der Justus-Liebig-Universität Gießen, bei Twitter hört er auf den Namen @drbieber. Im Oktober ist sein Buch „politik-digital. Online zum Wähler“ im Blumenkamp Verlag erschienen.

 

Das nicht allzu überraschende vorzeitige Aus von Schwarz-Grün in Hamburg

Die Koalition von Christdemokraten und der sich in Hamburg „Grün-Alternative Liste“ (GAL) nennenden Grünen funktionierte über mehr als zwei Jahre relativ reibungslos. Ein Grund dafür wird im guten Koalitionsklima gesehen, dass maßgeblich durch die relevanten Personen in einer Koalition bestimmt wird: Mit Ole von Beust als dem Musterexemplar eines liberalen Christdemokraten konnten die Grünen in der Hansestadt vertrauensvoll regieren, was mit von Beusts Nachfolger, dem häufig „Law and Order“-Mann bezeichneten Christoph Ahlhaus, von Beginn an wesentlich schwieriger war.

Doch war nach der Bürgerschaftswahl vom Februar 2008 eine Koalition aus CDU und GAL überhaupt das optimale Ergebnis des Koalitionsbildungsprozesses? Oder wären andere Parteienkombination, die sich aus der vier Fraktionen (CDU, SPD, GAL und Linke) umfassenden Hamburger Bürgerschaft hätten ergeben könnten, von Anfang an wahrscheinlicher gewesen? Auf der Grundlage aller Regierungsbildungen in den Bundesländern von 1990 bis zur Hamburg-Wahl im Februar 2008 lassen sich mit Hilfe statistischer Verfahren die Determinanten der Koalitionsbildung ermitteln und auf dieser Basis auch die Wahrscheinlichkeiten für alle potentiell möglichen Koalitionen in der Hamburgischen Bürgerschaft für die Legislaturperiode von 2008 bis 2012 berechnen. Die Ergebnisse zeigen, dass „Schwarz-Grün“ einen starken Konkurrenten hatte: gemäß den in der Tabelle abgetragenen Wahrscheinlichkeiten war eine große Koalition aus CDU und Sozialdemokraten mit einer Chance von 48,5% nur geringfügig unwahrscheinlicher als ein Bündnis von Christdemokraten und GAL. Daran ändert sich auch nichts, wenn man die Koalitionsaussage der SPD und ihres damaligen Spitzenkandidaten Michael Naumann, kein Bündnis mit der „Linken“ einzugehen, nicht in der Analyse berücksichtigt: Noch immer dominieren Schwarz-Grün und Schwarz-Rot das Koalitionsspiel.

Koalitionsoption SPD schließt Koalition mit der „Linken“ aus SPD schließt Koalition mit der „Linken“ nicht aus
CDU und GAL 48,9% 42,2%
CDU und SPD 48,5% 41,9%
CDU-Minderheits-
regierung
1,9% 1,6%

 

Ein Grund für den „Gleichstand“ beider Parteikombinationen liegt in den programmatischen Unterschieden zwischen den Hamburger Parteien. Trotz der – im Vergleich zu anderen Landesverbänden der Union – sehr moderat ausgerichteten Hamburger CDU waren die Schnittmengen zwischen GAL und Union aufgrund ihrer Wahlprogramme deutlich geringer als zwischen SPD und Grün-Alternativen. Dies gilt sowohl für wirtschafts- und sozialpolitische Fragen als auch für das Politikfeld Gesellschaft, das auch die insbesondere für Hamburg relevante Bildungspolitik mit abdeckt. Wenn sich die programmatischen Positionen von CDU und Grünen nicht maßgeblich annähern, worauf momentan nichts hindeutet, dann wird Schwarz-Grün mittelfristig keine stabile Konstellation sein. Ob dies auch für „Jamaika-Koalitionen“ gilt, wird die Entwicklung des Bündnisses aus CDU, FDP und Grünen an der Saar in den kommenden Monaten zeigen.

 

All the news that’s fit to print? Die Verständlichkeit der Berichterstattung zur Bundestagswahl 2009 in ausgewählten Print- und Online-Medien

Die Verständlichkeit der politischen Medienberichterstattung ist eine zentrale Voraussetzung für das Funktionieren und die Legitimität moderner Demokratien. Dieser Zusammenhang wurde von Toni Amstad im Rahmen seiner Verständlichkeitsanalyse von Schweizer Tageszeitungen bereits Ende der 1970er Jahre treffend auf den Punkt gebracht: „Was nützt Entscheidungsfreiheit, wenn über Dinge entschieden werden soll, über die ein erheblicher Teil der Bürger nicht in verständlicher Weise – und damit nur schlecht oder überhaupt nicht – informiert ist?“

Das Problem stellt sich dabei als umso relevanter dar, je wichtiger die betreffende Berichterstattung für die Wahlentscheidung der Bürger ist. Eine Studie der Universität Hohenheim hat deshalb nun die Verständlichkeit der Berichterstattung von drei wichtigen Meinungsführermedien (BILD, Der Spiegel, Süddeutsche Zeitung) in den vier Wochen vor der letzten Bundestagswahl analysiert. Hierbei wurden nicht nur die Print-, sondern auch die jeweiligen Online-Ausgaben der drei Medien untersucht.

Betrachtet man die Ergebnisse der Hohenheimer Studie, so lässt sich zunächst feststellen, dass die BILD-Zeitung erwartungsgemäß verständlicher abschneidet als die beiden anderen Medien. So erreichen die BILD-Artikel auf einer Skala von 0 (kaum verständlich) bis 100 (sehr verständlich) im Durchschnitt einen Wert von 61 Punkten, die übrigen Artikel hingegen einen Wert von 54 (Spiegel) bzw. 53 (Süddeutsche). Auch die hiermit verbundenen Bildungsvoraussetzungen wurden von den Hohenheimer Forschern prognostiziert: Demnach dürfte etwa ein Viertel der Artikel aus Spiegel und Süddeutscher Zeitung für Hauptschul-Absolventen eine Überforderung darstellen, bei der BILD-Zeitung hingegen nur fünf Prozent der Artikel.

Ähnliche Befunde ergeben sich für die Online-Portale der drei Medien. Auch hier schneidet die bild.de (57 Punkte) verständlicher ab als spiegel.de (51) und sueddeutsche.de (53). Entgegen den ursprünglichen Erwartungen der Forscher fiel die Verständlichkeit von zwei der drei Online-Portale damit jedoch geringer aus als die ihrer jeweiligen Print-Varianten. So lag selbst bei bild.de der Anteil an Artikeln, für deren Verständnis die Hohenheimer Forscher eine Mittlere Reife als Mindestvoraussetzung ansehen, bei 12 Prozent, bei spiegel.de sogar bei einem Drittel.

Einen wichtigen Grund für die teilweise geringe Verständlichkeit der untersuchten Artikel sehen die Forscher in unnötig komplexen Satzstrukturen. So lag die mittlere Satzlänge bei Spiegel und Süddeutscher Zeitung bei etwa 15 Wörtern pro Satz. Die Empfehlung der dpa für eine optimale Verständlichkeit liegt jedoch bei nur neun Wörtern pro Satz. Es lässt sich zudem nachweisen, dass Leser in einer Verarbeitungseinheit maximal neun Wörter aufnehmen können. Sätze, die diese Länge überschreiten, müssen demnach zwischengespeichert werden und führen so zu einer höheren kognitiven Belastung, insbesondere bei komplexen Themen wie Politik.

„All the news that’s fit to print”? Überträgt man das Leitmotiv der New York Times auf die hier betrachteten deutschen Medien, so lässt sich festhalten: Für einen nicht unbedeutenden Teil der deutschen Wahlbevölkerung dürfte die Berichterstatttung zur Bundestagswahl teilweise überwindbare Verständlichkeitshürden enthalten haben. Dass sich dieser Befund nicht nur auf Spiegel und Süddeutsche Zeitung beschränkt, sondern in abgeschwächter Form auch für die BILD-Zeitung gilt, sollte deren Machern zu denken geben.

Weiterführende Links

PolitMonitor: http://www.polit-monitor.de

Homepage des Hohenheimer Fachgebiets: http://komm.uni-hohenheim.de

 

„Stuttgart 21“ in den Programmen der baden-württembergischen Parteien seit 1992: Kein zentrales Thema der Grünen

Durch das Vermittlungsverfahren zum Großbauprojekt „Stuttgart 21“ hat sich – wohl auch aufgrund des (zumindest zeitweise) rollenden Castor-Transports – die Lage am Hauptbahnhof in der baden-württembergischen Landeshauptstadt wieder etwas beruhigt. Dennoch bleibt das Thema auf der Agenda und wird eine, wenn nicht die zentrale Rolle im Landtagswahlkampf im kommenden Frühjahr 2011 spielen. Ein Aspekt, der in der Debatte um das Ausmaß der Demonstrationen immer wieder aufkam, war die Behauptung, dass die das Projekt befürwortenden Parteien und die Landesregierung von Baden-Württemberg in den letzten Jahrzehnten ihre Haltungen zu „Stuttgart 21“ nicht deutlich genug kommuniziert hätten und daraus die momentanen Verwerfungen zwischen einem Teil der (Stuttgarter) Bürgerinnen und Bürger einerseits und CDU, FDP sowie der SPD andererseits entstanden sind. Haben Christ-, Sozial- und Freidemokraten im Südwesten wirklich dieses Thema in den letzten Jahren derart missachtet und ihre Haltungen nicht deutlich genug gemacht? Sind wirklich die Bündnisgrünen die einzige Partei, die ihre ablehnende Haltung gegenüber dem Bauprojekt über einen langen Zeitraum hinweg deutlich gemacht hat?

Ein Blick in die Wahlprogramme der Parteien seit 1992 sowie in die Koalitionsabkommen der Landesregierungen kann ein wenig Licht ins Dunkel bringen. Man kann relativ einfach über die Häufigkeit der Wörter, die sich auf „Stuttgart 21“ explizit bzw. auf Infrastrukturmaßnahmen im baden-württembergischen Schienennetz allgemein beziehen, die Bedeutung dieses Themas für die Parteien bzw. – wenn man das Koalitionsabkommen heranzieht – für die Landesregierungen messen. Dabei zeigen sich erstaunliche Ergebnisse: so sind die Grünen in Baden-Württemberg mitnichten die Partei, die dieses Themengebiet am häufigsten in ihren Programmen nennt. Bei der Landtagswahl 1992 waren dies vor allem FDP und SPD: 1,6 bzw. 1,4% der Wörter in den Wahlprogrammen beider Parteien bezogen sich auf den Ausbau des Schienennetzes und dabei die – aus der Sicht dieser Parteien bestehende – Notwendigkeit, Stuttgart und den Stuttgarter Flughafen besser an den Bahn-Fernverkehr anzubinden. Auch 0,7% des Wahlprogramms der Union gingen inhaltlich in diese Richtung. Hingegen bezogen sich nur 0,1% der Wörter im Wahlprogramm der Grünen 1992 auf das Thema von Aus- und Neubau von Schienenstrecken. Zwar widmeten die südwestdeutschen Grünen zu den Landtagswahlen 1996 und 2001 diesem Thema mehr Raum in ihren Wahlprogrammen, allerdings war der Anteil inhaltlicher Aussagen zu „Stuttgart 21“ 1996 bei SPD und FDP sowie fünf Jahre später bei den Sozialdemokraten noch immer deutlich höher als in den Dokumenten der Grünen. Zur Wahl des Landesparlaments 2006 ging der Anteil an Wörtern, die sich auf Bahnbauprojekte in Baden-Württemberg bezogen, bei den Grünen im Vergleich zu 2001 sogar von 1% auf 0,6% zurück, wohingegen neben der SPD auch die CDU dieses Issue in höherem Ausmaß ansprachen.

Es gilt somit festzuhalten, dass die Grünen in Baden-Württemberg auf keinen Fall die Partei bei den vergangenen Landtagswahlen waren, die dieses Thema in ihren Wahlprogrammen in besonders hervorgehobener Weise angesprochen und problematisiert hatten. Dies taten auch – und noch dazu in zum Teil deutlich größerem Ausmaß – SPD, Liberale und die Christdemokraten. Zudem widmet sich ein nicht unerheblicher Teil der Koalitionsabkommen den Themengebieten „Schienennetz“ und „Stuttgart 21“ in sehr expliziter Form. Letzteres gilt insbesondere für den „schwarz-roten“ Koalitionsvertrag aus dem Jahr 1992, aber auch für das zweite christlich-liberale Koalitionsabkommen von 2001. Somit mögen zwar von Seiten der Landesregierung und der sie tragenden Parteien das Thema „Stuttgart 21“ und seine Implikationen nicht in ausreichender Form während der Legislaturperiode der Wählerschaft kommuniziert worden sein. Allerdings haben alle Parteien – insbesondere SPD, FDP und auch die CDU – ihre inhaltlichen Positionen zu diesem Thema im Durchschnitt seit 1992 mehr Gewicht in den Wahlprogrammen beigemessen als es die Grünen taten. Es scheint daher so, als ob die Grünen die wahlstrategische Bedeutung von „Stuttgart 21“ erst mit der Kommunalwahl 2009 entdeckt haben und nun versuchen, durch die explizite Herausstellung dieses Themas bei der Landtagswahl 2011 auf Stimmenfang zu gehen. Ob sich die Abkehr der SPD von Stuttgart 21 – „für die rasche Realisierung der Schnellbahntrasse Stuttgart/Ulm“ (SPD-Wahlprogramm 1992); „Mit „Baden-Württemberg 21“ das Land zum Treffpunkt Europas machen“ (SPD-Wahlprogramm 2001) – auszahlen wird, kann eher bezweifelt werden. Wähler mögen es in der Regel nicht, wenn Parteien inhaltliche Positionen auf einmal ins Gegenteil verkehren.

 

Der vergangene Freitag in Stuttgart aus sozialwissenschaftlicher Perspektive, oder: „Gut, dass mer gschwätzt hän“

AndreaDemokratien werden in den Sozialwissenschaften an (mindestens) zwei Kriterien gemessen: An ihrer Effizienz und an ihrer Responsivität. Das Regieren ist heutzutage durch trans- und suprantionale Zusammenschlüsse geprägt und steht unter dem Eindruck von Internationalisierung und Globalisierung. Die Themen und Problemlagen gewinnen dadurch an Komplexität. So ist der Aspekt der Effizienz in jüngerer Vergangenheit verstärkt in den Vordergrund gerückt: Wie können Staaten mit Blick auf die genannte Komplexität einerseits und ihre begrenzten Ressourcen andererseits die Ziele erreichen, die sie sich setzen? Darüber hinaus haben wir nun aber am vergangenen Freitag erlebt, wie wichtig auch die Responsivität nach wie vor ist: Ist der Staat in der Lage, Forderungen und Kritik seiner Bürger aufzunehmen und seine Entscheidungen klar zu kommunizieren? Lange wurde dieser Prozess als Kernaufgabe der Parteien verstanden. Der offene Dialog zu Stuttgart 21 zeigt nun aber neue Wege auf, wie man auf die Bedürfnisse der Bürger eingehen kann.

Fassen wir den Freitag kurz einmal zusammen: Im Ergebnis nichts Neues, aber eine Art von Befriedung. Auf gut schwäbisch: „Es isch nix rauskomme, aber gut, dass mer gschätzt hän“! Positiv formuliert bedeutet dies, dass wohl in Zukunft kein Großprojekt mehr durchgeführt werden kann, ohne dass Bürgerinnen und Bürger in der Planungsphase ernsthaft und nachhaltig eingebunden werden.

Die konkrete Ausgestaltung dieser Prozesse muss kontinuierlich diskutiert und verbessert werden. Das Verfahren in Stuttgart ist vermutlich noch nicht der Weisheit letzter Schluss. Für die Frage, wie solche Verfahren dauerhaft in die politische Entscheidungsfindung eingebunden werden können, lohnt der Blick in die Schweiz. Und zwar nicht auf die derzeit sehr populären Volksentscheide, die auch in Zusammenhang mit Stuttgart 21 immer wieder als Beispiel bemüht werden. Eher sollten wir von den Erfahrungen der Schweizer mit einem anderen festen Bestandteil ihrer Demokratie lernen: Das sogenannte Vernehmlassungsverfahren ist – Nuancen und Details beiseite gelassen – die Vorab-Prüfung eines Großprojektes durch alle relevanten Gruppen, Befürworter wie Gegner. In der Sprache der Schweizer Bundesbehörden geht es um „Vorhaben des Bundes von erheblicher politischer, finanzieller, wirtschaftlicher, ökologischer, sozialer und kultureller Tragweite“, die „auf ihre Akzeptanz, auf ihre sachliche Richtigkeit und auf ihre Vollzugstauglichkeit hin geprüft werden.“

Bürgerinnen und Bürger werden also schon bei der Ausgestaltung eines Projektes mit an Bord geholt – quasi in einer institutionalisierten Form der Bürgerbeteiligung. Dies ist nicht gleichzusetzen mit dem bei uns gültigen Planfeststellungsvefahren. Dies ist ein Verwaltungsverfahren, welches für Bauvorhaben vorgesehen ist. Die Bürger haben zwar die Möglichkeit, sich bei der zuständigen Anhörungsbehörde einzuschalten – allerdings nicht schon bei der Ausgestaltung des Plans, sondern erst nach der Veröffentlichung des Vorhabens. Dies ist ein erheblicher Unterschied.

Gehen wir also noch einmal zurück zum Freitag in Stuttgart: Ging es wirklich um Responsivität oder war das mehr eine kleine Demokratie-Show? Vermutlich beides. Man sollte jedoch zugestehen, dass sich momentan alle Beteiligten in einem Lernprozess befinden. Und dadurch ergibt sich eine spannende Situation, welche die Politik ansonsten so gut es geht zu vermeiden sucht: Unsicherheit. Natürlich haben der Ministerpräsident und viele andere stets betont, dass der Umbau des Bahnhofes im Kern nicht verhandelbar sei. Allerdings können das nicht einmal die zentralen Akteure wirklich einschätzen, weil sie schlichtweg zu wenig Erfahrung mit solchen Verfahren haben und somit auch nicht wissen können, welche Dynamiken sich im Zuge eines solchen „joint fact finding“ ergeben können – von der nächsten Stufe des Prozesses (über die ja bisher nur wenig bekannt ist) einmal ganz zu schweigen.

Insofern ist die Botschaft „Gut, dass mer gschwätzt hän“ gar nicht so gering, wie sie sich zunächst anhören mag. Denn solange geredet wird, können sich die Prozesse entwickeln – und werden uns vielleicht noch ein ums andere mal überraschen…

 

Nach der Wahl ist vor der Wahl? Die Parteien-Kommunikation vor und nach der Bundestagswahl 2009

Moderne Wahlkämpfe finden unter Vielkanalbedingungen statt. Im Vergleich zu früheren Wahlkämpfen hat insbesondere die Verbreitung des Internets zu einer Vervielfachung der Kommunikationskanäle zwischen Parteien und Wählern beigetragen. Vor diesem Hintergrund stellt sich die Frage, inwiefern sich die Qualität und die Inhalte heutiger Parteien-Kommunikation in der Wahlkampfphase verändern. Können die Anforderungen eines professionellen Themenmanagements von den Parteien angesichts des enormen Aufwands einer Wahlkampfkommunikation unter Vielkanalbedingungen erfüllt werden? Oder allgemeiner: Wie beeinflusst der Wahlkampf die Themensetzung und die Qualität der Parteienkommunikation?

Dieser Frage sind Wahlkampfforscher der Universität Hohenheim nun erstmals nachgegangen. Hierfür wurden alle Pressemitteilungen und Homepage-News der sechs Bundestagsparteien von Juni 2009 bis März 2010 einer Themen- und Lesbarkeitsanalyse unterzogen. Für den Vergleich zwischen Wahlkampfphase und „Normalphase“ wurde hierbei jedoch die zweimonatige „Übergangsphase“ nach dem Wahltermin (in die Regierungsbildung, Koalitionsvertrag und die Aufnahme der Regierungsgeschäfte fielen) ausgeklammert, um kommunikative Nachwirkungen des Wahlkampfs in der Nachwahlzeit möglichst gut ausklammern zu können.

Die Ergebnisse der Hohenheimer Forscher sprechen dafür, dass die Parteien im Bundestagswahlkampf 2009 gegen zentrale Regeln des Themenmanagements im Wahlkampf verstießen. So zeigte sich zunächst, dass bei keiner der untersuchten Parteien eine verstärkte Konzentration und Fokussierung auf wenige Kernthemen zu beobachten war. Im Gegenteil: Betrachtet man die Kommunikation über inhaltliche Themen (und klammert den beträchtlichen Anteil der Wahlkampfkommunikation zum Thema „Wahlkampf“ selbst aus), so verteilt sich die Parteienkommunikation im Wahlkampf bei allen Parteien ausgewogener über die unterschiedlichen Themenkategorien als in der Vergleichsphase nach der Bundestagswahl. Und auch unter Einbeziehung des Themas „Wahlkampf“ in die Analyse kommt es bei keiner Partei zu einer stärkeren Themenfokussierung vor der Wahl (der Fokussierungsgrad vor und nach der Wahl fällt dann sehr ähnlich aus).

Auch die Verständlichkeit der Parteienkommunikation ist im Wahlkampf nicht höher als sonst. Lediglich bei der SPD zeigten sich in der Wahlkampfphase etwas höhere Ausprägungen der Werte des sog. Hohenheimer Verständlichkeitsindexes, der auf der Grundlage der durchgeführten Lesbarkeitsanalyse berechnet wurde. Bei allen anderen Parteien wurden die jeweils dominanten Themen im Wahlkampf ähnlich verständlich oder sogar unverständlicher dargestellt als nach der Wahl. Auch bei ihren „Kernkompetenz-Themen“ schneiden nicht alle Parteien verständlicher ab als die Konkurrenz. So belegen die beiden Unionsparteien die letzten beiden Plätze beim Thema Wirtschaftspolitik, die SPD den vorletzten Platz beim Thema Sozialpolitik. Lediglich der Linkspartei bzw. der FDP gelingt es beim Thema Sozialpolitik bzw. Wirtschaftspolitik den Spitzenplatz im Ranking des Hohenheimer Verständlichkeitsindexes zu ergattern.

Nur in einem Punkt wurden die ursprünglichen Erwartungen der Hohenheimer Forscher bestätigt: Mit Ausnahme der CDU kommunizieren alle Parteien im Wahlkampf häufiger als sonst über eines ihrer Kernkompetenz-Themen. Besonders deutlich zeigte sich dieser Effekt bei der CSU (Wirtschaftspolitik) und der SPD (Bildungspolitik), schwächer auch bei FDP (Steuerpolitik), Grünen (Umweltpolitik) und Linken (Sozialpolitik). Gewisse Richtlinien des Themenmanagements scheinen den Parteien also durchaus bekannt zu sein. Sie täten jedoch gut daran, bis zur nächsten Bundestagswahl auch die übrigen Regeln zu lernen.

P.S.: Die Daten zur Hohenheimer Studie stammen alle aus dem öffentlich zugänglichen Langzeit-Projekt „PolitMonitor“ , das die Parteienkommunikation auf monatlicher Basis erhebt und auf Themen, Verständlichkeit und Vokabular analysiert.