Zum Inhalt springen

Pressefreiheit auf dem Prüfstand

Das jährliche Pressefreiheit-Ranking der Reporter ohne Grenzen ist da. Bei aller Sympathie – vollkommen unkritisch sollten Journalisten dieses nicht betrachten!

Einmal mehr hat Reporter ohne Grenzen diese Woche sein jährliches Ranking zur Pressefreiheit publiziert. Demnach ist Finnland derzeit globaler Spitzenreiter (Rang 1). Deutschland hat sich um eine Position verschlechtert (von Platz 16 auf 17). Österreich und die Schweiz fallen zurück (von Platz 5 auf Platz 12 sowie von Rang 8 auf 14). Deutlich verbessern konnten sich die USA (Platz 32 statt 47). Am finstersten sieht es weltweit angeblich in Turkmenistan, Nordkorea und Eritrea für unabhängige journalistische Arbeit aus (Plätze 177 bis 179).

Kein Zweifel: Das Anliegen ist nobel. Und Journalisten sind heiß auf Rankings – vermutlich ja auch deshalb, weil sie wissen, dass ihre Publika auf solche Ranglisten „abfahren“. So ist es kaum verwunderlich, dass Jahr für Jahr dort, wo Pressefreiheit herrscht, auch dieser Pressefreiheits-Index beträchtliche mediale Aufmerksamkeit erzielt.

Irritierend ist allerdings, dass die meisten Journalisten diese Rankings Jahr für Jahr ungeprüft weiterverbreiten. Eigentlich gälte es, solche Statistiken mit Vorsicht zu genießen. Man braucht noch nicht einmal viel Phantasie, um sich auszumalen, wie schwer die Daten international vergleichend zu erheben sind – noch dazu in Ländern, wo es eben keine Pressefreiheit gibt und somit Verstöße gegen sie nicht öffentlich gemacht werden. Wie sollen die Aktivisten und Experten von Reporter ohne Grenzen im Iran, in Syrien, China oder Russland wirklich zuverlässig erfassen, wie oft Geheimdienste oder andere Staatsorgane Journalisten mundtot machen – und ob das Klima von Angst und Selbstzensur im einen Land schlimmer ist als im anderen?

Gewiss verdienen die Gewährsleute unsere Sympathie, weil sie hohe persönliche Risiken eingehen, wenn sie „Staatsgeheimnisse“ an ausländische Organisationen verraten. Das macht sie aber noch lange nicht zu wirklich zuverlässigen Informanten, deren Einschätzungen und Erhebungen international vergleichbar sind.


Diese Kolumne erschien in leicht modifizierter Form auch in der österreichischen Wochenzeitung „Die Furche“.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind markiert *

Kommentare

  1. Lieber Herr Ruß-Mohl, Sie thematisieren m.E. ein professionell (zunehmend) wichtiges Thema: Rankings und zusammengesetzte Indikatoren werden immer häufiger verwandt (auch in „meinem“ Umweltbereich), ja sind (auch) eine Mode (Extrembeispiel stellt übrigens die TIME dar – zu sehr vielen Themen finden sich auf deren Website ständig vorgehaltene Top 10, Top 50, Top 100). Rankings sind praktisch verwendbar, vermitteln aber teils eine Illusion: die einfache (und durch Andere vornehmbare) Bewertung trotz komplexer Merkmale. Die drastisch angeschwollenen Datenflüsse weltweit, die neue Zugreifbarkeit durch jedermann und überhaupt das Digitalisieren von Information haben auch in der expliziten Form des „Datenjournalismus“ (eigentlich nur ein Werkzeug recht allgemein in den Mittelpunkt rückend) ihren professionell relevanten Niederschlag gefunden. Zugleich, wie gesagt, betrifft mich Ihr Anstoß persönlich, da ein langjähriger Schwerpunkt meiner umweltpolitologischen Arbeit auf Umweltinformationen – Daten, Indikatoren, umweltökonomische Statistiken – liegt (besonders: UGR, Umweltökonomische Gesamtrechnungen des Statistischen Bundesamtes).
    Ich gebe Ihnen einerseits Recht: Ohne Prüfung, wie Sie sagen, ohne methodische Hinterfragung und auch (verständliche) Mit-Vermittelung bei Präsentation solcher Daten ist die Norm journalistischer Sorgfalt (und Verantwortung) verletzt.
    Andererseits sehe ich jedoch die methodische bzw. Validitäts-Problematik des ROG-Ansatzes gelassener, den ich im Folgenden sogleich (in der Tat eigentlich Aufgabe des Journalisten) grob prüfe. Zwar werden dabei qualitative und quantitative Aspekte in nicht weiter erläuterter Weise für das Ranking vermischt (die Organisation verzichtet auch explizit auf einen wissenschaftlichen Anspruch); zwar kann wohl nicht mit im strengen Sinne vergleichbarer Beteiligung von Experten je Land gerechnet werden, Und die Beantwortung des Fragebogens (und weiterer Punkte, die ROG prüft) ist vor allem, wie Sie sagen, großen Problemen, Wissenslücken und Subjektivität ausgesetzt.
    Aber ich betrachte die Dinge gerne bevorzugt von der *Nutzen*-Seite, d.h. aus der Sicht der Nutzer und der pragmatischen Verwertbarkeit (die natürlich *u.a.* auch von obiger Methodik abhängt). Es geht ja nicht etwa um Grundlagenforschung, sondern um Wissen, das in der politsch-medialen Debatte (und Diplomatie) – möglichst mit Wirkung – eingesetzt werden kann. Das erlaubt natürlich immer noch keine irgendwie zusammengeschusterten, halben Phantasie-Kenngrößen.
    Aber ich denke hier an einen sehr vernünftigen, m.E. übertragbaren Rat zur Frage einer Messung von Sustainable Development (Nachhaltigkeit), also eines höchst komplexen Ansatzes (oder Leitbildes). Bereits vor 22 Jahren, vor der ersten Rio-Konferenz, lautete die Antwort von Kuik/Verbruggen auf das Problem, solche Komplexität vergleichbar und fortschreibbar messen zu wollen:

    „Given this state of affairs, it is preferable to monitor sustainable development with a set of ‚quick and dirty‘ indicators.“

    Zudem: Deshalb auf ein Ranking zu verzichten wäre in dem Fall von ROG (hohe Länderzahl) nicht sinnvoll – wer läse zig Einzelberichte, wenn es darum geht, einen Vergleich für die politische PR und für verändernde Maßnahmen (hierzulande wie in der Entwicklungspolitik z.B.) anbieten zu können.
    Gefragt werden kann allerdings, was sich als Quick-and-dirty-Ansatz eher anbietet: Eine relativ „weiche“ Hochaggregation heterogener Indikatoren wie es die ROG jetzt praktizieren – oder eine Messung mit weniger und zudem nicht zusammengesetzten, sondern sog. „Leitindikatoren“, bei denen die Methodik jederzeit leicht verständlich ist, die Daten „härter“ sind; aber die genutzte Informationsvielfalt stark reduziert.
    Im Übrigen erscheint mir auch die Mischung von quantitativer Erhebung und Verrechnung/Zusammenführung auch in qualitativer Weise nicht allzu nachteilig, wenn man diese versch. Urteile, die das Ranking letztlich herstellen, mit Recht als eine anerkannte Methodik empirischer Sozialforschung sieht: die des Expertengesprächs.

Nach oben