Weiter zum Inhalt Weiter zum Inhaltsverzeichnis

Epic fail: Amnesty International und Alexey Navalny

Anmesty International hat dem russischen Oppositionellen Alexey Navalny den Status des Gewissenhäftlings entzogen – ein gewaltiges Geschenk an den Kreml, gegen dessen zynische Politik sich AI ja andererseits wendet. Im konkreten moralischen Versagen der Organisation spiegeln sich gleich mehrere zeitgeschichtlich virulente Probleme, von Umgang mit hate speech bis zum Glauben an die eindeutige Trennbarkeit von gut und böse.

(Dieser Text auch als facebook-Post hier)

Die Sache mit Amnesty International und Navalny ist natürlich ein epic fail, vor allem in moralischer Hinsicht. Ein kleines Gut ist gewonnen (eine hate speech bestraft), ein um Ordnungen grösseres dafür verloren (Willkürjustiz, Giftmörderei und Autoritarismus in Russland nur weiter munitioniert).

Wie konnte es dazu kommen? Auslöser für den Skandal war die Anti-Navalny-Kampagne einer Allianz aus Kreml-Autoritären und pseudolinken Poststalinisten. So seltsam diese Verbindung anmuten mag, man gewöhnt sich allmählich an ihre Existenz, und auch AI musste wissen, welche Gegenstürme ihnen da von rechtslinks vereint ins Gesicht wehen würden.

Angesichts der bekannten Videos aus Navalnys nationalpopulistischer Zeit hätte AI von vornherein auf die Zuerkennung des Status „Gewissenshäftling“ verzichten können. Aber man wollte ja, wie aus dem hochpeinlichen gestrigen Prankster-Video hervorgeht (in dem AI-Vertreter glauben, mit Navalnys Teamleiter zu sprechen), erst einmal ein „möglichst starkes Signal setzen“. Alles nur Naivität?

concept creep und ethische Prinzipien
Icon Link

Ich denke, der Grund für das Versagen liegt tiefer. Zwei Dinge kommen zusammen. Zum einen die schleichende Aufweitung des Gewaltbegriffs (concept creep) in Richtung auf seine Rand- und Grauzonen der „hate speech“ hin. Dadurch wird die Anforderung der Gewaltlosigkeit zunehmend unerfüllbar, denn ausser tätlicher Gewalt (wie im Fall Mandela) wird nun auch aggressive oder feindselige Agitation zum Ausschlussgrund. Dazu kommt die Vorstellung, man könne überhaupt den moralischen Status einer Person nach formalisierten Prinzipien bestimmen, nach Art eines Gesetzbuches: Wenn Du X getan hast, dann bist du Y’s schuldig und verdienst die Strafe Z: nicht Gewissenshäftling sein zu können.

Seriositätssiegel für schreiendes Unrecht
Icon Link

Was tut denn AI eigentlich? Es verteilt ein Gütesiegel oder ein Siegel für Seriosität, ähnlich der Stiftung Warentest oder einer Friedenspreis-Stiftung. Von AI als Gewissenshäftling anerkannt zu werden, verleiht einen gewissen Status, vielleicht auch einen gewissen Schutz, auf jeden Fall aber eine beträchtliche Sichtbarkeit und Aufmerksamkeit. Organisationen wie AI bringen damit tatsächlich auch eine Ordnung in die Welt: Sie ermöglichen es, schon mit einen flüchtigen Blick die Unterstützenswerten von den Unwürdigen zu unterscheiden, die Unterdrückten von ihren Unterdrückern. Jedenfalls erwarten wir das – der Fall Navalny zeigt, wie im Opfer plötzlich der Täter entdeckt werden kann.

Dass der Gewaltbegriff heute der Tendenz nach weiter gefasst wird als vor zwanzig oder dreissig Jahren, hat ja auch seine Gründe. Wir haben festgestellt, dass es zuhauf entwürdigende und entmündigende Aggressionen gibt, die nicht tätlich verlaufen und denen sich die Betroffenen dennoch nirgendwohin entziehen können. Die Diskussionen um strukturelle Gewalt, hate speech etc. sind dadurch motiviert und gerechtfertigt. Die Frage ist nur, was geschieht, wenn eine Organisation wie AI ein Zwischenergebnis solcher Diskussionen (dass hate speech tätlicher Gewalt gleichzusetzen sei) zum unmittelbaren Bestandteil seiner Statuten macht.

Will man an der Idee eines „Seriositäts-Siegels“ oder eines „Siegels für schreiendes Unrecht“ festhalten – und ich denke, das ist sinnvoll, denn das Prinzip hat sich ja bewährt – dann liegt der Gedanke nahe, dass man auch die jeweiligen politischen und kulturellen Rahmenbedingungen mit in Anschlag bringen muss. Wenn AI jetzt vorgeworfen wird, es fehle ihnen offenbar die „Russland-Kompetenz“, dann wird damit ja gesagt: In Deutschland zum Beispiel hätte sich Navalny mit seinen nationalpopulistischen Aktivitäten moralisch disqualifiziert, in Russland mit seiner zugleich wilden wie repressiven politischen Matrix kann man sie ihm aber nicht gleichermassen ankreiden.

Gilt für Russen eine andere Moral?
Icon Link

Ist das so? Kann man das so relativieren? – Man gelangt hier schnurstracks zu den grossen moralischen Aporien, aus denen bis heute kein befriedigender Ausweg existiert. Gibt es eine einzige Moral oder derer viele? Ethischer Universalismus oder ethischer Partikularismus? Wann rechtfertigt der Zweck die Mittel? Sind Gewalt und / oder Aggression je nach Umständen unterschiedlich zu bewerten? Manchmal sicher ja – Stichwort: Tyrannenmord –, andererseits aber auch nein: Humanität fordern wir von jedem Menschen, egal wo und wann.

Meine persönliche Ansicht – und ich denke, der Fall AI / Navalny stützt sie – ist, dass jegliche strenge Formalisierung von Ethik, sei sie universalistisch oder partikularistisch, nur scheitern kann. Konkret heisst das hier: Weder kann eine Organisation wie AI sagen „wenn jemand hate speech geäussert hat, verdient er nicht mehr unser Siegel für schreiendes Unrecht“ – denn dann bringt im Zweifelsfall, wie gerade geschehen, ein kleines Gut ein grosses Übel hervor. Aber auch, mit zweierlei Mass zu messen – „ein Russe darf, was für einen Deutschen unverzeihlich wäre“ – führt in eine endlose Spirale von fragwürdigen Rechtfertigungsversuchen. So oder so scheint der Selbstwiderspruch unausweichlich.

Fangstricke der advocacy
Icon Link

Hieraus muss kein ethischer Nihilismus folgen, und auch nicht die Idee, AI müsse abgeschafft werden. Der britische Ethiker Bernard Williams – in Deutschland viel zu wenig rezipiert – hat sein gesamtes akademisches Leben damit verbracht zu zeigen, dass es zwar keine konsistenten ethischen Theorien geben kann, sehr wohl aber situatives ethisch verantwortungsvolles Handeln, in dem sich universalistische und partikularistische Elemente mischen.

Ein Fall wie der mit Navalny demonstriert, denke ich, Wert und Berechtigung dieser Auffassung. Einerseits kann der Einzelfall jedes politischen Gefangenen jeweils auch nur individuell beurteilt werden, wobei in der Tat das politische Umfeld, die kulturellen Realia usw. mit in Anschlag gebracht werden müssen. Andererseits sind allgemeine Standards zur Menschenwürde und zu Menschenrechten Voraussetzungen, die die Existenz von Organisationen wie AI überhaupt erst möglich machen. Man muss also beides zusammenbringen, das Partikulare wie das Universelle, und diese Kreisquadratur können keine noch so ausgefeilten Statuten oder Kriterienkataloge leisten, jedenfalls nicht sie allein.

AI: Komitee statt Katalog?
Icon Link

Über dieses Dilemma – hier konkret befeuert durch die rechtslinke Kampagne – ist AI gerade gestolpert. Aus ihm lassen sich aber auch auf produktive Weise Konsequenzen ziehen. Wenn die derzeitigen Prozeduren der Beurteilung, für wen Organisationen wie AI sich einsetzen, zu einem solchen Versagen führt, dann liegt es nahe, diese Prozeduren zu überdenken und ggf. zu verändern oder zu ergänzen.

AI könnte zum Beispiel die letztendliche Entscheidung einem Komitee mit Persönlichkeiten übertragen, die mit ihrer eigenen Biographie für die entsprechenden Werte einstehen. Jedes der Mitglieder solch eines Komitees würde sich mit den Konflikten, die ein Fall wie Navalny aufwirft, individuell auseinandersetzen und seine Entscheidungen dann jeweils auch öffentlich persönlich begründen. Auch Konflikte zwischen den Komitee-Mitgliedern müssten – im Unterschied etwa zum Nobel-Komitee – transparent sein. Solch ein Vorgehen würde meiner Meinung nach den Respekt gegenüber der Tätigkeit von Organisationen wie AI nur erhöhen, und damit auch den Wert des durch sie zugesprochenen Status als zuunrecht Verfolgter.

Aber das sind natürlich Fragen, die sich AI selbst zu stellen hätte. Und sie führen auch ein bisschen zu weit für so einen kurzen, aktualitätsbezogenen Text.

showcase für aktuelle Problemlage
Icon Link

Ich wollte aus zwei Gründen noch einmal (zuvor schon hier und hier) etwas zu diesem Fall schreiben. Er ist für sich schon bedauerlich genug, macht aber darüber hinaus auch Themen oder Probleme sichtbar, die sowieso derzeit in vieler Hinsicht virulent sind. Erstens, dass die Suche nach einer sinnvollen und auch in der Praxis tauglichen Differenzierung des Gewaltbegriffs wohl noch lange nicht abgeschlossen ist, und man – meiner Einschätzung nach – daher gut beraten ist, bei der operativen Umsetzung von Zwischenergebnissen (wie dem hate speech-Gewaltkriterium) eine gewisse Zurückhaltung zu üben. Und zweitens führt der Fall ganz generell die Grenzen formaler ethischer Kriterienkataloge vor Augen, wie sie AI verwendet: Der unweigerlich entstehende Selbstwiderspruch öffnet die Flanke für die Attacken derjenigen, die gerade das Gegenteil von dem anstreben, wofür man sich eigentlich einsetzen wollte. Der aktuelle „fail“ war unter diesen Bedingungen wohl leider kaum vermeidlich.



Putinversteher verstehen: Ein Stück zu Liberalismus und Realismus in der internationalen Politik