„Das relative Gute“ von Steve Ayan

Ist Moral allein ein Produkt der Kultur – oder gibt es Werte, die alle Menschen teilen? Laut Forschern beruhen ethische Urteile auf Emotionen. Doch deshalb sind sie noch lange nicht »naturgegeben«.

Es gibt Dinge, die gehen einfach gar nicht. Lügen etwa, Versprechen brechen, andere betrügen oder ihnen mutwillig schaden. »Was du nicht willst, das man dir tu, das füg auch keinem andern zu!« Den größten Teil unserer Kindheit verbringen wir damit, solche Regeln zu verinnerlichen – und zwar weniger durch Einsicht als durch langes Üben. »Gib ab! Nicht hauen! Entschuldige dich!« Der ständige Appell, sozial verträglich zu handeln, sowie eine Fülle von Konventionen formen mit der Zeit eine Vorstellung davon, was sich gehört und was nicht.

Hier gibt es aber durchaus großen Spielraum, wie ein Bick auf andere Kulturen zeigt: Unter den Etoro, einem Naturvolk auf Papua-Neuguinea, ist es üblich, dass Jungen, um in die Gemeinschaft der Erwachsenen aufgenommen zu werden, ältere Männer oral befriedigen! Zugegeben, ein weit hergeholtes Beispiel. Doch man muss nicht in entlegene Winkel der Welt fahren, um Sitten zu finden, die uns hier zu Lande moralisch fragwürdig erscheinen. Koreaner essen unsere treuesten Gefährten – Hunde. Im arabischen Raum verheiraten viele Eltern ihre Töchter nach eigenem Belieben. Und US-Amerikaner befürworten mehrheitlich die Todesstrafe.

Das Erstaunliche ist nun nicht, dass es solche Praktiken gibt – auch bei uns geht ja vieles moralisch nicht astrein zu. Erstaunlich ist vielmehr die Bandbreite dessen, was Menschen als ethisch richtig oder zumindest unbedenklich ansehen. In multikulturellen Gesellschaften wird das besonders brisant, weil hier unterschiedliche Moralvorstellungen aufeinanderprallen. Dann ist Toleranz gefragt. Beziehungsweise Konsens darüber, dass manche Werte allen gemeinsam sein sollten. Nur welche?

In Zeiten der Neuroethik stellen sich Forscher wie auch Laien immer wieder die Frage: Hilft der Blick ins Gehirn vielleicht, eine natürliche, angeborene Moral des Menschen zu definieren? Sind nicht zumindest einige Normen fest im Denkorgan verankert? Sicher gibt es Grundfesten, auf die jede Gesellschaft baut: etwa das Verbot zu töten, zu betrügen oder zu rauben. Sie sind essenziell für eine funktionierende Gemeinschaft – aber sind sie auch naturgegeben? Angesichts zahlloser gewalttätiger Konflikte mag man das bezweifeln. Womöglich gibt es die moralischen Auflagen von Fairness und Friedfertigkeit ja gerade, weil wir uns »von Natur aus« selbst am nächsten sind und Interessen notfalls auch brutal durchsetzen?

Augenscheinlich ist es alles andere als trivial, die Grenzen zwischen sozial erworbener und angeborener Moral abzustecken. Philosophen und Theologen galten die Regeln der Ethik jahrhundertelang als gottgegeben. Ehrfürchtig staunte etwa Immanuel Kant (1724 – 1804) über das moralische Gesetz in ihm, das so unbezweifelbar sei, dass es von einer höheren Macht stammen musste. Der »kategorische Imperativ« galt ihm als oberster Grundsatz. Er zielt auf ein allgemeines Gesetz des Handeln, das für Kant über eine bloße gegenseitige Rücksichtnahme hinausgeht, wie sie der eingangs zitierte Kindervers fordert.

Das Prinzip der Reziprozität, das darin zum Ausdruck kommt, halten heute zwar viele Ethiker für universell gültig – doch das liegt wohl vor allem daran, dass es so abstrakt ist. Welche konkreten Forderungen in Form alltäglicher Ge- und Verbote sich daraus ergeben, bleibt offen. Bei so handfesten Fragen wie der, ob und welche Tiere man essen oder welche Formen der Sexualität man leben darf, herrscht heute ein historisch wohl einzigartiger ethischer Relativismus: Es ist uns quasi in Fleisch und Blut übergegangen, dass andere Menschen – zumal in fremden Ländern – oft nicht nur andere Sitten pflegen, sondern auch andere Vorstellungen davon haben, was ethisch akzeptabel ist.

Die Suche nach einem natürlichen »Moralinstinkt« erhielt in jüngerer Zeit jedoch neuen Auftrieb durch Ergebnisse der Hirnforschung. Den Stein ins Rollen brachten etwa Studien des experimentellen Philosophen Joshua Greene, der heute an der Harvard University lehrt. Er konfrontierte Probanden mit einer inzwischen berühmten moralischen Zwickmühle: Stellen Sie sich vor, ein außer Kontrolle geratener Zug rast auf eine Gruppe von fünf Gleisarbeitern zu. Durch Umlegen einer Weiche können Sie das Gefährt auf ein Nebengleis lenken, wo ein einzelner, nichts ahnender Kollege steht. Würden Sie diesen einen opfern, um fünf andere zu retten?

Die meisten Probanden bejahen das. Was aber, wenn man einen Mann von einer Brücke stürzen müsste, um den Waggon aufzuhalten? Die Art der Beteiligung macht einen großen Unterschied, obwohl es rechnerisch aufs Gleiche hinausläuft. Nun will fast niemand den Fünfertrupp retten, egal wie vernünftig es erscheinen mag; ein Mord von eigener Hand ist dafür ein zu hoher Preis.

Die Hirnaktivität von Versuchsteilnehmern, die solche Entscheidungen in Greenes Labor fällen sollten, unterstreicht das: Wie Messungen per funktioneller Magnetresonanztomografie (fMRT) ergaben, wird unser Urteil im ersten Fall unter anderem von vermehrtem Feuern der Neurone in dorsolateralen präfrontalen Kortex (DLPFC) begleitet. Dieses Areal ist am Abwägen von Handlungsoptionen beteiligt – ein Kosten-Nutzen-Rechner, der besonders das Arbeitsgedächtnis beansprucht. Das zweite Szenario dagegen löst stärkere Aktivität in Bereichen wie dem zingulären Kortex aus, der emotionale Reaktionen vermittelt. Offenbar sticht die Gefühlsaufwallung das kühle Für und Wider aus.

Greene gründete auf diese und weitere Befunde seine Dual Process Theory (»Zwei-Prozess-Theorie«) des moralischen Urteilens. Sie besagt kurz, dass ethische Fragen im Gehirn zwei verschiedene Pfade aktivieren, einen kognitiven und einen emotionalen. Die Gefühle hätten dabei das letzte Wort: Wir mögen manches zwar vernünftig finden, gut und richtig werde es erst kraft unserer Emotionen.

Damit knüpft die Zwei-Prozess-Theorie an einen alten Streit der Moralphilosophie an: den zwischen Rationalisten und Sentimentalisten. Erstere – darunter Kant – glaubten, ethische Urteile seien nur dann legitim, wenn man sie als richtig erkenne. Bauchgefühle allein genügten nicht; erst Einsicht in die zu Grunde liegenden Prinzipien mache den Menschen zu einem moralischen Wesen. Dieser »Begründungsethik« widersprach etwa der Brite David Hume (1711 – 1776) mit dem Hinweis darauf, dass sich ethische Regeln nicht rational herleiten ließen. Als entscheidende Zutat betrachtete er vielmehr das moralische Empfinden (englisch: sentiment). Daher auch der Name dieser Ethik der Gefühle: Sentimentalismus.

Viele Laborstudien der letzten 20 Jahre belegen, dass unsere moralischen Urteile tatsächlich eng an Emotionen geknüpft sind. Menschen mit einer Schädigung in Hirnbereichen, die emotionale Bewertungen steuern, haben meist auch große Probleme, Handlungen moralisch einzuordnen. Forscher wie der Bielefelder Neuropsychologe Hans Joachim Markowitsch vermuten solche Defekte auch bei Psychopathen.

Ein weiterer wichtiger Hinweis: Wissenschaftlern gelang es, moralische Urteile zu manipulieren, indem sie die Gefühle der betreffenden Probanden zuvor in bestimmte Bahnen lenkten. Wie zum Beispiel Arbeiten der Psychologin Simone Schnall von der University of Cambridge (England) ergaben, verurteilen Menschen moralische Vergehen wie Kannibalismus oder das Überfahren eines Hundes oft schärfer, wenn sie sich gleichzeitig ekeln – etwa weil ein übler Geruch in der Luft liegt. Eine ganze Reihe solcher Studienbefunde machten den Ekel zum heißesten Anwärter auf den Titel der »moralischen Emotion«.

Paul Rozin von der University of Pennsylvania in Philadelphia erforscht die Macht des Angewidertseins bereits seit den 1980er Jahren. Wie er und seine Kollegen zeigen konnten, löst Unmoral regelrecht körperliche Abscheu in uns aus. So bereitet es Probanden starkes Unbehagen, wenn sie etwa die (vermeintliche) Kleidung eines Serienmörders anziehen oder Leuten mit offenbar rassistischen Ansichten die Hand geben sollen. Aus dem gleichen Grund befreit simples Händewaschen häufig von Schuldgefühlen.

Ekel, erklärt Rozin, habe nicht nur eine biologische Schutzfunktion und bewahrte schon unsere Vorfahren davor, potenziell giftige Nahrung zu sich zu nehmen. Der »nützliche Widerwille« habe sich im Lauf der Evolution auf die Regeln der Gemeinschaft übertragen. Unrecht, Betrug, Mord ekeln uns seither an – und auf Grund der gemeinsamen neuronalen Ausstattung fühle sich das für alle Menschen wohl auch ähnlich an. Doch gibt es deshalb angeborene Werte?

Für den Neurophilosophen Jesse Prinz von der New York University zeugt die enge Verbindung von Ekel und Moral im Gegenteil davon, wie stark uns Erziehung und Kultur prägen. Denn was genau dem Einzelnen widerwärtig erscheint, sei nicht weniger flexibel als das soziale Gefüge selbst. Dass sich moralische Emotionen im Gehirn niederschlagen, beweise keineswegs, dass ihr jeweiliger Gegenstand irgendwie biologisch festgelegt sei.

Das Gehirn kann sogar auf verschiedenen Wegen zur gleichen moralischen Bewertung kommen. Das berichten etwa Forscher der kalifornischen Stanford University und der Seoul National University in Südkorea. Sie verglichen die Hirnaktivität von 16 amerikanischen und asiatischen Probanden, während diese moralische Dilemmata bewerteten. Waren die vorgelegten Szenarios persönlicher Art (etwa bei der Frage, ob man einem Baby den Mund zudrücken würde, wenn dessen Geschrei feindliche Soldaten in einem Kriegsgebiet alarmieren könnte), machte sich ein wohl kulturell bedingter Unterschied bemerkbar: So zeigten Koreaner vermehrt neuronale Aktivität im Putamen, einem Teil der Basalganglien; es gehört zu einem Schaltkreis, der unter anderem zur Feinabstimmung von Bewegungen dient. Bei den US-Bürgern sprang dagegen der »Konfliktvermittler« im vorderen zingulären Kortex (ACC) an.

Erklärung der Forscher: Amerikaner ringen stärker mit Für und Wider, weshalb sie im Schnitt auch etwas länger für ihre Entscheidung brauchten, während Asiaten eher Handlungen durchspielen oder vergleichbare Erfahrungen heranziehen. Unterm Strich bewerteten beide Gruppen das skizzierte Verhalten aber ganz ähnlich.

Es gibt vor allem zwei relativ harte Indizien dafür, dass uns eine Eigenschaft oder ein Verhalten in die Wiege gelegt ist: wenn sich etwas Vergleichbares auch bei Tieren nachweisen lässt und wenn es über unterschiedliche Kulturen hinweg uniform auftritt. Zwar zeigen andere Säuger durchaus Ansätze von moralischer Entrüstung, die der beim Menschen ähnelt. Doch sie bezieht sich allein auf solche Situationen, in denen sie selbst zu kurz kommen – von allgemein gültigen Leitfäden keine Spur. Und im interkulturellen Vergleich fällt auf, dass so universell erscheinende Prinzipien wie das der Anteilnahme oder der Reziprozität eben sehr verschieden ausgeformt sind und gelebt werden. Man muss nur tief genug in eine soziale Gemeinschaft hinabsteigen, bis sich solche »Gesetze« in den Tumulten und Konventionen des Alltags aufzulösen scheinen.

Für Jesse Prinz hat die empirische Moralforschung zwar den Streit zwischen Ratio und Emotionen zu Gunsten Letzterer entschieden. Doch deshalb seien die Maßstäbe, die wir anlegen, noch lange nicht fix und unhinterfragbar. Warum müssten wir auch sonst so viele Worte darum machen und so viel Mühe auf ihre Beachtung verwenden, wenn nicht zu dem Zweck, sie uns und unseren Kindern beizubringen? Die meisten ethischen Urteile, mahnt Prinz, sind wenig durchdacht, weshalb sie uns intuitiv oft so unabweisbar erscheinen. Solche Intuitionen, auch das zeigen Experimente, sind gleichwohl manipulierbar.

In einer Studie von 2014 demonstrierten Forscher um Danique Jeurissen vom Niederländischen Institut für Neurowissenschaft in Amsterdam, dass Probanden moralische Fragen anders bewerten, wenn ihr dorsolateraler präfrontaler Kortex (DLPFC) kurzzeitig lahmgelegt wird. Dies gelingt Forschern heute recht zielsicher, indem sie ein starkes Magnetfeld am Schädel über der betreffenden Hirnregion anlegen. Die so genannte transkranielle Magnetstimulation (TMS) unterbindet das koordinierte Feuern der Neurone. Wie Jeurissen aus ihren Daten schlussfolgert, kontrolliert der DLPFC jene emotionale Erregung, in die uns ethische Probleme versetzen können. Fällt die innere Handbremse aus, urteilen wir rascher und eher gemäß dem spontanen Bauchgefühl.

Machen Sie zum Schluss noch einen kleinen Selbsttest und entscheiden Sie, frei von der Leber weg, wie (un)moralisch Ihnen die folgenden Handlungen erscheinen. Fertig? Und los: Fremdgehen. Für Erdbebenopfer spenden. Ein Kind töten. Strom sparen. Waffen exportieren. Schwarzfahren. Vegetarier sein. Ein Geheimnis verraten. Einen Freund belügen. Okay, das war einfach. Wie sieht es nun hiermit aus: Fleisch essen. Illegale Aktionen eines Geheimdienstes aufdecken. Ein ungeborenes, schwer behindertes Kind abtreiben. Waffen in den Irak liefern. Einen Freund belügen, um ihn vor sich selbst zu schützen.

Offenbar hängt das Urteil über ein Tun stark vom Drumherum ab, sei es die persönliche Situation (Lüge), die verfolgte Absicht (Verrat) oder der politische Kontext (Waffen). Schon diese wenigen Beispiele zeigen: Es gibt oft keine moralisch saubere Lösung. Wir müssen stets neu entscheiden, worauf es im jeweiligen Fall mehr ankommt – und die ethischen Kosten abwägen.

Wie bereits der antike Philosoph Aristoteles (384 – 322 v. Chr.) erklärte, bedeutet Moral nicht das Anwenden eines strikten Regelwerks, sondern das Gewichten verschiedener Ansprüche, die wir an unser Handeln und seine Konsequenzen stellen. Wer nach den biologischen Wurzeln der Ethik sucht, unterschätzt dabei leicht die Macht der Kultur. Dann ist es häufig nur noch ein kleiner Schritt, vermeintlich »Widernatürliches« wie Homosexualität oder Suizid kategorisch abzulehnen.

Andererseits birgt auch zu großer Relativismus Risiken für die Gemeinschaft, denn die lebt davon, dass Menschen miteinander und nicht bloß nebeneinanderher agieren. Wie viel Toleranz muss also sein? Eine Antwort darauf gilt es immer wieder auszuhandeln; auch die Neuroethik liefert keine bessere Lösung. Doch sie lehrt zumindest eins: Nicht Gut und Böse selbst sind im Gehirn angelegt, sondern unsere Fähigkeit, sie zu empfinden. Der Mensch ist zur Moral geboren, nur nicht zu einer bestimmten.

Literaturnachweise:

  • Greene, J. D. et al.: An fMRI Investigation of Emotional Engagement in Moral Judgment. In: Science 293, S. 2105 – 2108, 2001
  • Jeurissen, D.: TMS Affects Moral Judgment, Showing the Role of DLPFC and TPJ in Cognitive and Emotional Processing. In: Frontiers in Neuroscience 8, 18, 2014
  • Prinz, J. J.: Beyond Human Nature. Norton, New York 2012

In dem Buch „Rätsel Mensch“ von Steve Ayan (Hrsg.) geht es um die großen Fragen an der Schnittstelle von Philosophie, Psychologie und Hirnforschung: Wer bin ich? Wie handle ich richtig? Wie entsteht Bewusstsein? Gibt es einen freien Willen? Wie hängen Sprache und Denken, Gefühle und Moral, Körper und Geist miteinander zusammen? Was ist der Sinn des Lebens? Steve Ayan ist Psychologe und Redakteur beim Magazin »Gehirn&Geist« in Heidelberg.

Quelle:

  • Steve Ayan (2016). Rätsel Mensch – Expeditionen im Grenzbereich von Philosophie und Hirnforschung. Springer-Verlag.

Hier finden Sie weitere Leseproben.