Technisches Risiko und soziales Risiko

Die Frage nach dem Umgang mit Risiken gehört, so scheint es, in den Kernbereich der Ethik. Solche Fragen haben die Ethik in der Tat seit der Antike beschäftigt, wobei im Blick auf das Rad der Fortuna insbesondere die Unwahrscheinlichkeit und Unbeständigkeit des Glücks im Mittelpunkt stand. Eine Risikoethik im engeren Sinn ist erst im Rahmen der sogenannten Technikfolgenabschätzung entstanden.

Technisches Risiko und soziales Risiko
Überlegungen zur Risikoethik

Von Ruben Langer, Andreas Niederberger

Risiko in der philosophischen Diskussion

Die Frage nach dem Umgang mit Risiken gehört, so scheint es, in den Kernbereich der Ethik. Geht es dabei doch zumeist darum zu entscheiden, ob ein sicherer Vorteil ergriffen werden darf, auch wenn er möglicherweise mit einem gravierenden Nachteil einhergeht, oder ob ein sicherer Nachteil hingenommen werden soll, wenn der Vorteil sich nur eventuell einstellen wird. Sollten wir das Haus um eine weitere Etage erhöhen und damit mehr Wohnraum schaffen, auch wenn wir nicht ausschließen können, dass die Fundamente diese Etage nicht tragen? Oder sollten wir mit hohem Einsatz Roulette spielen, obwohl wir nicht wissen können, ob wir gewinnen werden? Solche Fragen haben die Ethik in der Tat seit der Antike beschäftigt, wobei im Blick auf das Rad der Fortuna insbesondere die Unwahrscheinlichkeit und Unbeständigkeit des Glücks im Mittelpunkt stand. Heutzutage wird von Risiken demgegenüber vor allem dann gesprochen, wenn es um mögliche Probleme geht, die etwas an sich Wünschenswertes mit sich bringt. Angesichts dessen ist es auch nicht überraschend, dass eine Risikoethik im engeren Sinn erst im Rahmen der sogenannten Technikfolgenabschätzung entstanden ist. In ihr wird dabei mehr oder weniger explizit ein bestimmtes Verständnis von Risiko vorausgesetzt, das mit Blick auf technische Neuerungen entwickelt und erprobt wurde. Ein oft angeführtes, ja vielleicht sogar das Paradebeispiel für ein solches technisches Risiko ist der Unfall in einem Atomkraftwerk.

Dieser Fokus auf technische Risiken hat der Ethik großes Gewicht in politischen Diskussionen und Entscheidungen der letzten Jahrzehnte gegeben. Risikoethiker*innen waren und sind an Enquête- und Ethik-Kommissionen und -Beiräten beteiligt und konnten beziehungsweise können dort wichtige normative Überlegungen einbringen.¹ Wir werden in diesem Aufsatz allerdings dafür argumentieren, dass unter dem Eindruck der außerordentlich großen Bedeutung, der der Technikfolgenabschätzung mit Recht im gesellschaftlichen Diskurs über Risiken zukommt, auch ihrer Natur nach anders zu beschreibende Risiken in den Sog einer technischen Betrachtungsweise geraten. Diese, ihrer Natur nach anders zu beschreibenden Risiken, wollen wir in Abgrenzung zu technischen Risiken als soziale Risiken bezeichnen. Dass es bedeutende Folgen hat, wenn auch diese Risiken nach dem Vorbild technischer Risiken verstanden werden, wird vor allem dann deutlich, wenn man sich Fragen der Risikoprävention und des Risikomanagements zuwendet. Hier zeigt sich nämlich, dass beide Arten von Risiken ganz unterschiedliche Weisen nahelegen, wie mit dem jeweiligen Risiko umzugehen beziehungsweise wie es einzudämmen ist.

Diese Unterschiede gewinnen umso mehr an Bedeutung je komplexer und umfassender das betrachtete Risiko ist. Sogenannten Großrisiken widmet sich das interdisziplinäre Forschungsprojekt BIG RISKS.² Es bringt Forscher_innen aus den Geistes, Gesellschafts- und Wirtschaftswissenschaften zusammen, die gemeinsam die komplexe Struktur von Großrisiken analysieren. Im Zentrum steht dabei unter anderem der Klimawandel. Im Folgenden präsentieren wir wichtige Ergebnisse dieser Forschung, wobei insbesondere Antworten auf die Frage nach der adäquaten konzeptuellen und normativen Fassung von Großrisiken systematisch dargestellt werden.

Dazu werden wir zuerst den Unterschied zwischen technischen und sozialen Risiken allgemein herausarbeiten und am Beispiel des Klimawandels veranschaulichen. Wir wollen aufzeigen, warum einige Risiken besser als soziale Risiken verstanden werden (2.). Im Anschluss wird die Tragweite der unterschiedlichen Beschreibungen eines Risikos als primär technisch oder sozial für den Bereich der Risikoprävention und des Risikomanagements deutlich gemacht. Auch hier werden wir die abstrakten Resultate am Gegenstand des Klimawandels erläutern (3.). Mit diesen wichtigen Unterscheidungen eröffnen sich interessante neue Forschungsfelder im Bereich sozialer Großrisiken, worauf wir abschließend einen Ausblick geben (4.).

Technische und soziale Risiken

Um den Unterschied zwischen technischen und sozialen Risiken herauszuarbeiten, ist es hilfreich, sich erst einmal Klarheit darüber zu verschaffen, was überhaupt ein Risiko ist. Im Detail variiert das Risikoverständnis von Disziplin zu Disziplin und von Autor*in zu Autor*in. Jedoch lassen sich in erster Annäherung zwei Elemente unterscheiden, die die große Mehrzahl aller Risikodefinitionen kennzeichnen:³

  • Zum einen liegt jeder Beschreibung einer Situation als risikohaft die Wahrnehmung eines Kontrolldefizits hinsichtlich der Folgen des   eigenen Handelns zugrunde,
  • zum anderen wird bei der Beschreibung möglicher Folgen des eigenen Handelns als eines Risikos eine normative Perspektive eingenommen.

Ein bestimmtes Ereignis als ein Risiko zu beschreiben bringt also zum Ausdruck, dass der (Nicht-)Eintritt des Ereignisses nicht allein der Entscheidung oder Verfügung des Akteurs unterliegt. Die Handlungsfolge ist noch nicht eingetreten und wird auch nur möglicherweise eintreten. In manchen Fällen wird diese Eintrittsmöglichkeit durch die Angabe einer Wahrscheinlichkeit quantifiziert. Was der Status dieser Wahrscheinlichkeitsaussage genau ist, das heißt ob sie sich tatsächlich auf un- beziehungsweise unterbestimmte Entwicklungen richtet oder ob es sich um eine Aussage über fehlendes Wissen handelt, ist eine sehr schwierig zu beantwortende Frage, die wir hier beiseitelassen.⁴

Die normative Perspektive, die mit der Deutung einer möglichen Handlungsfolge als eines Risikos einhergeht, zeigt sich darin, dass die Folge, indem sie als Risiko begriffen, zugleich als unerwünscht charakterisiert wird. Wir hoffen, dass sie nicht eintritt. Der Gegenbegriff hierzu ist der der Chance. So sprechen wir von dem Risiko, bei einem Lottospiel leer auszugehen, also eine gewisse Menge an Geld zu investieren, ohne etwas zu gewinnen. Bei einem Lottospiel zu gewinnen, würden wir aber genau nicht als ein Risiko, sondern als Chance beschreiben, da der Gewinn das erwünschte Ziel des Lottospiels ist⁵. Hier zeigt sich, dass die Entscheidungssituationen, die zu Beginn gemeinsam angeführt wurden, in der normativen Perspektive wichtige Unterschiede aufweisen.

Schließlich ist der Risikobegriff auch von demjenigen der Gefahr abzugrenzen. Im Unterschied zu letzterem bezieht sich der Risikobegriff auf Entscheidungssituationen. Risiken bestehen, insofern Akteure mögliche Folgen ihres Handelns abwägen und bewerten, um dann eine Entscheidung zu treffen, mit der sie einen Verlust oder Kosten bei sich selbst oder anderen nicht ausschließen können. Ein Risiko gehen wir ein und sind ihm nicht einfach ausgesetzt – auch wenn mit der eigenen Entscheidung andere einer Gefahr ausgesetzt werden können. Gefahren liegen im Unterschied zu Risiken unabhängig von einer konkreten eigenen Entscheidungssituation vor. Ein Beispiel hierfür wäre ein Kometeneinschlag. Trotz einer gewissen „Ähnlichkeit“ der Gefahr zum Risiko – auch hier gibt es ein Kontrolldefizit – bleibt jedoch der entscheidende Unterschied bestehen: Der Gefahrenbegriff bezieht sich nicht direkt auf Handlungen und Entscheidungen. Gefahren können zu Handlungen führen, mit denen jemand ihnen ausweicht oder sie reduziert, während beim Risiko die Handlung die Folge hat, dass das unerwünschte Ereignis eintreten beziehungsweise die/den Entscheidende*n oder dritte betreffen kann.

Technische und soziale Risiken

Nach dieser kurzen Klärung des Risikobegriffs im Allgemeinen können wir uns der Frage zuwenden, was technische Risiken von sozialen Risiken unterscheidet. Hierzu müssen wir uns das Element des Kontrolldefizits und insbesondere seinen Ursprung genauer ansehen. Die beiden Risikoarten unterscheiden sich nämlich danach, woraus das Kontrolldefizit resultiert. Dazu soll im Folgenden je ein idealtypisches Beispiel für ein technisches und ein soziales Risiko betrachtet werden.

Als paradigmatisches Beispiel für ein technisches Risiko lässt sich der oben bereits genannte Reaktorunfall ansehen. Die Existenz eines solchen Risikos wird zum Beispiel durch Meldungen über Sicherheitslücken belgischer Reaktoren jüngst wieder ins Bewusstsein gerufen. Dabei wird auf das Alter der Atomkraftwerke und insbesondere Risse im Reaktordruckbehälter hingewiesen. Was ist der Grund dafür, dass wir in diesem und ähnlichen Fällen von dem „Risiko eines Reaktorunfalls“ sprechen? Woraus resultiert im Fall eines solchen Unfalls das Kontrolldefizit?⁶ Hier gibt es prinzipiell zwei Möglichkeiten: Man mag erst einmal geneigt sein, in der Technik selbst oder, ganz allgemein gesprochen, in den physikalischen Prozessen, die in einem Atomreaktor und daher ganz „außerhalb von uns“ als Handelnden ablaufen, den Aspekt zu vermuten, der sich unserer Kontrolle entzieht. Man müsste also sagen, dass wir durch den Bau eines Atomkraftwerks und die Entscheidung über bestimmte Wartungsstandards eine Situation schaffen, in der bestimmte physikalische Prozesse stattfinden, auf die wir keinen Zugriff mehr haben und deren Ausgang in einem zu klärenden Sinn offen zu sein scheint. Wenn dies auch prinzipiell möglich wäre, so ist die damit aufgeworfene Frage, ob die Welt deterministisch verfasst ist oder nicht, aber nach wie vor umstritten.

Unser Interesse, das Selbstverständnis von Handelnden zu erhellen, erlaubt uns diese Schwierigkeit hier beiseite zu lassen:⁷ Im Alltag gehen wir nämlich von einer in physikalischen Hinsichten kausal determinierten Welt aus. Wenn man also nicht behaupten möchte, dass wir im Alltag einfach inkohärente Annahmen machen, so stellt sich die Frage, wie sich die Risikorede trotz Determinismus verständlich machen lässt? Wäre die Welt tatsächlich determiniert, so würde dies ja bedeuten, dass jeder zukünftige Weltzustand abschließend berechnet werden könnte – vorausgesetzt wir hätten vollständige Informationen über die Ausgangsbedingungen, d.h. über den gegenwärtigen Zustand der Welt und die die Welt regierenden Naturgesetze. Nimmt man dies einmal an, so wird schnell deutlich, dass mit der Risikoaussage nicht gemeint sein kann, dass „in der Welt“ und daher „außerhalb von uns“ irgendwelche Prozesse stattfinden, die mit einer gewissen Offenheit ablaufen. Wie ist es dann aber zu verstehen, dass wir einen Reaktorunfall als Risiko bezeichnen? Liegt hier vielleicht eine falsche Verwendung des Begriffs vor?

Wenn der Grund dafür nicht „in der Welt“ verortet werden kann, muss er „in uns“ gesucht werden. In diesen Fällen sollte die Rede von einem Risiko als eine Aussage über unsere epistemische Position verstanden werden, also über das, was wir wissen beziehungsweise nicht wissen (können). Sehen wir uns zum besseren Verständnis folgende Überlegung an: Angenommen, es gäbe ein Wesen, das über vollständiges Wissen über die Welt verfügt, insbesondere auch über die in ihr stattfindenden physikalischen Abläufe. Nehmen wir weiterhin an, die Welt wäre determiniert. Ein solches allwissendes Wesen wäre in der Lage, genau vorherzusagen, ob und wenn ja, wann ein bestimmtes Ereignis – beispielsweise ein Reaktorunfall – eintreten wird. Es würde anhand vollständiger Informationen über den Ausgangszustand der Welt und die geltenden Naturgesetze berechnen, wann der Reaktorunfall eintreten wird, so keine weiteren Eingriffe stattfinden, die diesen Unfall verhindern. Offensichtlich sind wir keine solchen Wesen und unser Wissen ist begrenzt. Wir befinden uns in einer schlechteren epistemischen Position, von der aus wir keinen Zugang zu allen Informationen über die Welt haben. Es ist genau dieses fehlende Wissen über die Welt, folglich aber also kein Prozess in der Welt, das sich in ein Kontrolldefizit auf Seiten der Akteure übersetzt und die Rede von einem Risiko rechtfertigt. Das Betreiben eines Atomreaktors geht also für Menschen mit dem Risiko eines „Reaktorunfalls“ einher, da sich bestimmte physikalische Prozesse aufgrund unvollständigen Wissens der Kontrolle entziehen. Allgemein formuliert kann man also sagen, dass technische Risiken Risiken darstellen, weil sich bestimmte Aspekte der „Technik“ unserem Wissen beziehungsweise unserem Erkenntnisvermögen und daher unserer Kontrolle – wenigstens aktuell – entziehen.

Vergleichen wir diese Bestimmung nun mit einem paradigmatischen Beispiel für ein soziales Risiko. Als Beispiel hierfür eignet sich ein weiteres Risiko, das (zu Recht oder Unrecht) gegenwärtig die Medien dominiert: das Risiko eines Terroranschlags. Gehen wir einmal davon aus, dass alle Vorbereitungen für den Anschlag nicht bereits vor unserer Entscheidung, etwa eine bestimmte Stadt zu besuchen, vollständig abgeschlossen wurden (z.B. durch das Platzieren einer Bombe), sondern dass das Risiko in dem Akt eines Terroristen besteht, der möglicherweise während unseres Besuchs ausgeführt wird (z.B. durch manuelles Zünden der Bombe). Was rechtfertigt die Rede von einem Risiko im Fall eines Terroranschlags? Mithilfe der zuvor angestellten Überlegungen zum Begriff des technischen Risikos ist sie nicht zu erklären. Das Kontrolldefizit lässt sich hier nicht auf fehlendes Wissen zurückführen, da der Ursprung für das Kontrolldefizit in diesem Fall andere Menschen und nicht ein für uns opaker physikalischer Ablauf sind. Bei Menschen gehen wir im Alltag gerade nicht davon aus, dass sie determinierte Wesen sind, deren Handlungen bereits im Embryo angelegt waren. Vielmehr liegt der Ursprung für das Kontrolldefizit hier klarerweise „in der Welt“. Allgemein formuliert, kann man daher sagen, dass soziale Risiken Risiken darstellen, weil sie aus dem Handeln von einzelnen oder mehreren Akteuren sowie der jeweiligen Weise, wie sie mit Koordinationsangeboten und -erwartungen umgehen, resultieren. Im Fall der sozialen Risiken können wir keine Kontrolle darüber ausüben, ob es gelingt, Handlungen, die möglicherweise miteinander konfligieren, aufeinander abzustimmen, beziehungsweise diese Abstimmung eine wünschenswerte Form annimmt. Terroranschläge sind soziale Risiken, wenn und weil wir Entscheidungen treffen, uns im öffentlichen Raum zu bewegen, ohne ausschließen zu können, dass andere eine gewaltfreie Form der Begegnung in diesem Raum nicht akzeptieren oder Institutionen zu schwach sind, um eine solche Form verbindlich zu machen.

Einen Überblick über die Unterscheidung zwischen Gefahren, technischen und sozialen Risiken bietet die folgende Tabelle:(T 1) Der Ursprung des Kontrolldefizits bei Gefahren, technischen Risiken und sozialen Risiken)
Quelle: eigene Darstellung

Das Beispiel anthropogener Klimaveränderungen

Wenden wir uns nach der allgemeinen Einführung des Risikobegriffs und der Unterscheidung zwischen technischen und sozialen Risiken nun dem Beispiel des Klimawandels zu. Hier wird deutlich werden, dass es sich bei der zuvor eingeführten Unterscheidung zwischen zwei Arten von Risiko nicht notwendig um ein Entweder-oder handelt. Gerade komplexe Großrisiken wie der Klimawandel entpuppen sich bei genauerem Hinsehen als eine Kombination aus technischen und sozialen Risikoaspekten. Insbesondere bei Risiken, die beide Aspekte kombinieren, ist jedoch häufig zu beobachten, dass die technische Risikokomponente in der Beschreibung und Auseinandersetzung mit dem Risiko die Oberhand gewinnt. Der Klimawandel ist hierfür ein gutes Beispiel. In vielen Darstellungen findet sich eine Fokussierung auf die technischen Risikoaspekte des Klimawandels, die die letztlich bedeutendere Dimension eines sozialen Risikos auf problematische Weise ausblendet.

So ist zwar zutreffend, dass der Klimawandel auch in der Hinsicht ein Risiko darstellt, dass wir nicht genau wissen, welche Folgen die massive Emission von Treibhausgasen (THG) für das Erdsystem tatsächlich hat und haben wird. Dies machen die Berichte des Intergovernmental Panel on Climate Change (IPCC)⁸ mit ihren Unterscheidungen zwischen Ungewissheitsgraden sowohl auf der Ebene der beobachteten Ereignisse und Entwicklungen, wie auch auf derjenigen der wissenschaftlichen Erklärungen und Modelle sehr deutlich. Doch selbst wenn wir mit Sicherheit wüssten, welche Folgen von einer bestimmten THG-Konzentration in der Atmosphäre zu erwarten wären, würden anthropogene Klimaveränderungen weiterhin ein bedeutendes soziales Risiko darstellen: sie könnten weder ausgeschlossen noch sicher gewusst werden. Denn wie das Adjektiv „anthropogen“ schon anzeigt, haben diese Veränderungen ihren Ursprung im menschlichen Handeln. Die bloße Tatsache, dass die Menschheit insgesamt über ein umfassendes Wissen zu den problematischen Folgen einer bestimmten THG-Konzentration verfügt, bedeutet nicht automatisch, dass Handeln unterlassen wird, das zu der entsprechenden Konzentration beiträgt. Damit besteht immer das soziale Risiko, dass sich Akteure (wissentlich oder unwissentlich) in einer Weise verhalten, dass ihr Handeln einzeln oder, wie im Fall des Klimawandels, kollektiv ein unerwünschtes Resultat hervorbringt. Ob sich global hinreichend viele Akteure an Emissionsreduktionen (Mitigation) und an Maßnahmen zur Vorbereitung auf die Anpassung an veränderte klimatische Bedingungen (Adaptation) beteiligen werden oder ob es gelingen wird, ethisch vertretbare Formen des technischen Eingriffs in die Atmosphäre oder Kohlenstoffsenken zu entwickeln (Geoengineering) – all dies sind Fragen, deren Beantwortung von Entscheidungen vieler Individuen, Institutionen und Instanzen abhängt und folglich nicht der Kontrolle jeweils derjenigen unterliegt, die entscheiden müssen, wie sie zukünftig handeln.

Dass der Klimawandel ein Risiko ist, mit dem wir in unseren Entscheidungen konfrontiert sind, ergibt sich also sicherlich auch durch unser Wissen beziehungsweise Nicht-Wissen über natürliche Zusammenhänge. Der Eintritt problematischer oder weniger problematischer klimatischer Zustände beziehungsweise damit verbundener Ereignisse und Entwicklungen ist aber nicht determiniert und von uns bloß noch nicht hinreichend erkannt. Er hängt vielmehr wesentlich an vielfältigen aktuellen und zukünftigen Entscheidungen und dem Erfolg beziehungsweise Nicht-Erfolg von globaler Koordination und Kooperation. Der Klimawandel stellt somit vor allem ein soziales Risiko dar, das sich möglicherweise dadurch verschärft, dass es Kontroversen über ihn als ein technisches Risiko gibt.

Umgang mit technischen und sozialen Risiken

Wie wichtig es ist, den Unterschied zwischen sozialen und technischen Risiken klar vor Augen zu haben und mit Blick auf jeweilige Risiken zu verstehen, um welche Art von Risiko es sich handelt, wird deutlich, wenn wir uns den Fragen der Risikoprävention zuwenden. Nachdem wir dies allgemein herausgearbeitet haben, wollen wir das Gesagte auch hier am Klimawandel veranschaulichen.

Zunächst einmal lässt sich festhalten, dass das Problem, das sich für Entscheidende bei beiden Risikoarten stellt, jeweils anders gelagert ist, so dass es auch unterschiedliche Optionen gibt, auf das entsprechende Risiko zu reagieren: Technische Risiken sind dadurch gekennzeichnet, dass wir nicht (sicher) wissen, ob unsere Entscheidungen und Handlungen zu Folgen oder Ereignissen führen, die nicht wünschenswert sind. Ein adäquater Umgang mit einem solchen Risiko kann auf zwei Dinge blicken, das Nicht-Wissen oder die Bewertung des Nicht-Wissens. Eine erste naheliegende Reaktion besteht darin, mehr (sicheres) Wissen zu erwerben, um genauer abschätzen zu können, ob die denkbaren Folgen/Ereignisse tatsächlich nicht eintreten werden. Dies ist die typische Reaktionsweise zum Beispiel bei der Zulassung von Medikamenten oder neuen Technologien – hier müssen weitere Studien angestellt werden, um die Auswirkungen genauer zu verstehen.

Handelt es sich allerdings um ein Nicht-Wissen, das nicht mittelfristig behoben werden kann, dann ist zu erörtern, wie eine Entscheidung trotz des Nicht-Wissens ausfallen sollte. In diesem Fall ist zweifelsohne auch relevant, ob es grundsätzlich mit Blick auf die jeweiligen kausalen Zusammenhänge kein oder nur wenig Wissen gibt oder ob bestehendes Wissen (ein wenig, relativ oder stark) unsicher ist. Hinzu kommt aber nun eine Betrachtung, die sich darauf richtet, wie gravierend der Eintritt der nicht gewünschten Folge wäre (evt. unter Abwägung gegen die Vorteile, die sich sicher als Resultat der Entscheidung ergeben). Bei Atomreaktoren wird in diesem Sinn von vielen argumentiert, dass angesichts der weitreichenden und langandauernden Schäden, die ein Unfall nach sich zieht, die Wissens- und Kontrollgrenzen mit Blick auf verwendete Materialien und deren Belastbarkeit sowie das Zusammenspiel unterschiedlicher Faktoren in Krisensituationen vom (weiteren) Bau solcher Reaktoren abgesehen werden sollte. Andere widersprechen dieser Anwendung des Vorsorgeprinzips und betonen die recht hohe Gewissheit des einschlägigen Wissens sowie das damit zusammenhängende hohe Maß der Kontrollierbarkeit der eingesetzten Technik und plädieren daher dafür, sie zu gebrauchen, um damit etwa emissionsarm Energie zu gewinnen.

Es soll hier nicht für die Richtigkeit des einen oder anderen Ansatzes argumentiert werden, sondern der Unterschied der relevanten ethischen Erwägungen im Fall sozialer Risiken herausgestellt werden. Bei sozialen Risiken besteht das Problem darin, dass ein nicht-wünschenswerter Zustand eintritt oder die eigenen Handlungen nicht den angestrebten Erfolg haben, weil andere nicht kooperieren oder sich einer notwendigen Handlungskoordination entziehen. Bei der Bewertung von Entscheidungsoptionen ist zu differenzieren zwischen Handlungen, die direkt oder indirekt auf Kooperationen bezogen sind: Die Attraktivität von Versicherungssystemen⁹ zum Beispiel hängt normalerweise davon ab, dass bei Eintritt eines Versicherungsfalls die Versicherung tatsächlich die zugesicherte Leistung erbringt, was wiederum oft voraussetzt, dass sich hinreichend viele andere Versicherungsnehmer*innen an dem System beteiligen, damit die Versicherung auch die Mittel hat, ihre Leistung zu erbringen. Handelnde wählen aber gewöhnlich keine Versicherungen „an sich“, sondern sie wollen damit zum Beispiel Risiken beim Verfolgen anderer Ziele ausschließen oder minimieren. Wir entscheiden uns für eine Autoversicherung, weil wir mobil sein und zugleich sicherstellen wollen, dass wir im Fall eines Unfalls keine hohen Kosten zu tragen haben. Das eigentliche Ziel ist also die Mobilität und das soziale Risiko der Versicherung ergibt sich nur mittelbar, wenn wir das erste Ziel mit einem weiteren Ziel, wie dem Einsparen möglicher Kosten, verbinden. Für das Erreichen des Ziels der Mobilität ist das soziale Risiko der Versicherung zunächst unerheblich. Anders ist es zum Beispiel bei dem Risiko, Opfer des Straßenverkehrs zu werden. Wenn Mobilität die Nutzung von Verkehrswegen erfordert, die auch andere gebrauchen, dann ist man beim Verfolgen des Ziels der Mobilität direkt dem sozialen Risiko ausgesetzt, dass andere sich nicht an die Straßenverkehrsordnung halten. In diesem Fall können nicht andere Formen der Mobilität gewählt werden.

Hieraus ergibt sich, dass die Maßnahmen, soziale Risiken zu minimieren, ganz anders gelagert sein müssen als im Fall technischer Risiken. Bei sozialen Risiken geht es primär nicht darum, Wissen zu erwerben, das bislang fehlt, sondern darum, Kooperation sicherzustellen. Dies kann auf unterschiedliche Weise passieren. Im Straßenverkehr geschieht das beispielsweise durch die Androhung von Bußgeldern oder, bei schwerwiegenden Vergehen, Gefängnisstrafen. Dieser Unterschied wird insbesondere relevant, wenn wir uns Risiken ansehen, die sowohl technische als auch soziale Aspekte aufweisen. Hier bedeutet die einseitige Fokussierung auf einen Risikoaspekt und damit einen Typ der Risikoprävention eine problematische Vereinseitigung. Kehren wir dazu zu den anthropogenen Klimaveränderungen zurück.

Das Beispiel anthropogener Klimaveränderungen

Die Auseinandersetzung mit dem Risiko anthropogener Klimaveränderungen erfolgt häufig aus einer primär technischen Perspektive. Entsprechend scheint für eine solche Betrachtungsweise das Risiko voll und ganz in dem Problem fehlenden Wissens aufzugehen. Wir setzen THG emittierende Fahrzeuge, Fabriken, Produktionsmethoden, Landwirtschaft etc. ein, ohne dass wir den „Klimamechanismus“ verstanden haben, also ohne zu wissen, welche Prozesse durch diese Emissionen ausgelöst, verstärkt oder verhindert werden. Dieses Nicht-Wissen bezüglich des globalen Klimasystems ist zweifelsohne, wie zuvor bereits festgehalten wurde, ein wichtiger Risikoaspekt. Es deckt jedoch nur einen von mehreren Risikoaspekten des Klimawandels ab. Denn die Nicht-Wissens-Perspektive übersieht das andere wichtige Kontrolldefizit, das den Klimawandel zu einem Risiko macht: den Faktor Mensch. Dieses gerät in den Blick, wenn wir den Klimawandel als soziales Risiko betrachten. Dann erscheint nicht die Technik beziehungsweise der „Klimamechanismus“, sondern das Handeln von Akteuren als Risikofaktor. Und zwar deswegen, weil das Handeln, wie oben festgehalten, unter den gegebenen Bedingungen nur schwer zu kontrollieren ist und daher stets die Möglichkeit besteht, dass es unerwünschte kollektive Konsequenzen mit sich bringt oder diese sogar billigend in Kauf genommen werden.

Es gibt gute Gründe davon auszugehen, dass der soziale Risikoaspekt einen gewissen Vorrang hat. Im Unterschied zu einem Atomreaktor, der durch seine bloße Existenz bereits ein Risiko darstellen kann, gilt dies für das Klimasystem – zumindest wie es für den anthropogenen Klimawandel erörtert wird – nicht. Und auch Emissionen von THG sind an sich kein Problem. Ein Risiko anthropogener Klimaveränderungen besteht erst dadurch, dass eine Vielzahl von Handelnden sich derart koordinieren beziehungsweise nicht koordinieren, dass Mengen an THG freigesetzt werden, die in ihrer Gesamtheit Effekte im Klimasystem haben können. Was also bislang nur bedingt der Kontrolle unterliegt, ist das gemeinsame Handeln der Menschheit. Das stellt aber offensichtlich ein soziales Risiko dar, dessen Begrenzung gesellschaftliche Koordination oder Steuerung erfordert.

Wendet man sich vor dem Hintergrund dieser Deutung Fragen der Prävention und des Umgangs mit anthropogenen Klimaveränderungen zu, so wird schnell deutlich, dass wir (in einer reinen Risikopräventions-Perspektive) nicht in erster Linie neuer Techniken bedürfen, sondern einer Instanz, die das Handeln derart zu koordinieren vermag, dass unerwünschte kollektive Folgen gebannt werden. Der unterschiedliche Ursprung des Kontrolldefizits in technischen und sozialen Risiken legt also zwei ganz unterschiedliche Umgangsweisen nahe. Während im Fall technischer Risiken Investitionen in ein besseres Verständnis der Kausalzusammenhänge und damit das Erlangen einer besseren epistemischen Position beziehungsweise das Zurückgreifen auf alternative Techniken naheliegen, ist im Falle sozialer Risiken darüber nachzudenken, wie man Akteure dazu motiviert, sich in einer bestimmten Weise zu verhalten. Damit tritt aber eine neue normative Dimension in den Blick: Wer hat das Recht, anderen ein bestimmtes Verhalten vorzuschreiben? Was könnte das Einrichten bestimmter rechtlicher Schranken rechtfertigen – etwa gar gegen die Interessen der Unterworfenen, aber zum Schutz zukünftiger Generationen (wie im Fall des Klimawandels)? Hier wird in unseren Augen deutlich, dass wir nicht einfach eine vorgefertigte normative Perspektive auf soziale Risiken anwenden können, nicht nur, weil – wie im Fall technischer Risiken – die Beschreibung einer möglichen Folge als Risiko, den Rückgriff auf normative Gehalte voraussetzt, sondern weil darüber hinaus der Umgang mit einem einmal festgestellten sozialen Risiko einen direkten Eingriff in die Handlungsoptionen von Akteuren erfordern kann.

Die Erforschung sozialer Großrisiken – ein Ausblick

Es wird deutlich, dass sich mit dem Fokus auf die soziale Dimension vieler Risiken eine Reihe wichtiger Forschungsfragen stellt. Die Komplexität vieler sozialer Risiken, wie beispielsweise anthropogener Klimaveränderungen, macht es zugleich erforderlich, deren Erforschung aus der Multiperspektivität interdisziplinärer Forschungszusammenhänge vorzunehmen. In den entsprechenden Risiken überschneiden sich zahlreiche Problemfelder, für deren Erforschung die Expertise verschiedener Fachrichtungen zusammengeführt werden muss.
Es sollen daher abschließend einige Fragestellungen herausgehoben werden, die sich für die Erforschung sozialer Großrisiken, wie sie etwa das Projekt BIG RISKS leistet, anbieten:

  • Herausarbeiten der Kennzeichen sozialer Risiken im Unterschied zu technischen Risiken. Erstere sind bisher in der Forschung nicht als eigener Gegenstand in den Blick genommen worden. Vielmehr ist sogar zu konstatieren, dass soziale Risiken bisher oft als technische Risiken behandelt wurden.
  • Klärung der Bedeutung dieser Differenzierung für die Theoriebildung. Inwiefern ist es angemessen/unangemessen, soziale Risiken als technische Risiken zu beschreiben – wie es beispielsweise in Teilen der Wirtschaftswissenschaften geschieht, wenn sie aus der Perspektive einzelner Handelnder das Handeln je anderer als prinzipiell vorhersehbar, aber momentan nur eingeschränkt wissbar präsentieren? Inwiefern führt dies zu Theorien mit eingeschränkter Geltungsreichweite? Falls nicht, warum ist es trotz der unterschiedlichen Natur der Risiken angemessen oder möglich, soziale Risiken als technische Risiken zu beschreiben? Und was sind die Bedingungen, unter denen eine solche Beschreibung adäquat ist?
  • Warum wird dieser Unterschied nicht klarer gezogen? Unterscheidet sich die (individuelle/gesellschaftliche) Wahrnehmung sozialer Risiken von derjenigen technischer Risiken? Falls nein, was könnten die Gründe hierfür sein? Falls ja, worin unterscheidet sich die Wahrnehmung? Welche Folgen hat dies für die Kommunikation über Risiko? Welche Folgen sollte sie haben?
  • Werden die Unterschiede zwischen sozialen und technischen Risiken in den verschiedenen Ansätzen zum Risikomanagement (adäquat) berücksichtigt? Unterscheidet sich ein erfolgreiches Management sozialer Risiken von demjenigen technischer Risiken? Wenn ja, worin unterscheiden sie sich genau? Welche Folgen hat der wahrscheinlich notwendige Perspektivwechsel zwischen den beiden Risikoarten für politische Entscheidungsträger?

Das Beispiel des Klimawandels stellt die Tragweite der Unterscheidung zwischen technischen und sozialen Risiken nicht zuletzt für eine erfolgreiche Risikoprävention deutlich vor Augen. Wie aber die aufgeworfenen Fragen zeigen, erlaubt die eingeführte Unterscheidung eine allgemein wichtige Präzisierung im Risikodiskurs und sie eröffnet eine ganz neue Frageperspektive.

Summary

In the wake of new technological developments, philosophers have been increasingly interested in issues surrounding risk over recent decades. The general philosophical perspective on risk has, thus, been shaped by the problems of the technological domain. While this perspective has advanced risk research significantly, it has also led to an overstretching attribution of a technical understanding of risk to such risks that are different in kind. Among these other risks we focus in our article on social risks and argue that framing a risk one way or the other has major repercussions for the choice between different risk prevention strategies.

In the first section of this article, we provide a general account of risk and of the distinct nature of technical and social risks. After introducing this conceptual distinction, we put forward an argument establishing the claim that each type of risk is linked internally to specific forms of risk prevention, which differ considerably from each other. Throughout, we illustrate the rationale with the example of anthropogenic climate change and hold that it should indeed be understood as being primarily a social risk. In the last section, we delineate avenues of future research that come into perspective when using the concept of social risk.

Anmerkungen
1) Die Universität Duisburg-Essen beziehungsweise die Gesamthochschule Essen hat bei der Entwicklung der philosophischen Risikoforschung und insbesondere der Technikfolgenabschätzung in der Gestalt Carl Friedrich Gethmanns eine zentrale Rolle innegehabt. Diese Vorreiterrolle wurde nicht zuletzt durch die Berufung Gethmanns in den Deutschen Ethikrat im Jahr 2013 und den Ethikrat der Max-Planck-Gesellschaft im Jahr 2016 gewürdigt. Siehe exemplarisch für sein Wirken im Bereich der normativen Auseinandersetzung mit Technik den einflussreichen Artikel Gethmann/Sander 1999.

2) Das interdisziplinäre Forschungsprojekt BIG RISKS ist an der UDE beheimatet und wird gemeinsam von Achim Goerres (Politikwissenschaft), Rüdiger Kiesel (Finanzmathematik) und Andreas Niederberger (Philosophie) geleitet. Das Projekt wird großzügig von der FUNK-Stiftung finanziert.

3) Vgl. bspw. Nida-Rümelin/Rath/Schulenburg 2012, 5-24 oder Hansson 2013, 7-11.

4) Vgl. Perry 2007

5) Siehe hierzu auch Nida-Rümelin/Rath/Schulenburg 2012, 6.

6) Wir nehmen hier der Einfachheit halber an, dass der Unfall nicht auf „menschliches Versagen“ zurückzuführen ist, sondern, wie mit dem Verweis auf das Alter des Reaktors bereits angedeutet, auf mögliche Materialschwächen oder andere „nicht-menschliche“ Faktoren. Wobei zugleich angemerkt sei, dass in der von uns eingenommenen Perspektive auch „menschliches Versagen“ (eher) als ein technischer Aspekt und nicht als sozialer Aspekt zu beschreiben wäre. Der Grund hierfür liegt in der fehlenden „Akteursschaft“ der beteiligten Personen. „Menschliches Versagen“ lässt sich nicht als freie Entscheidung konzipieren, sondern beruht auf Prozessen, die den Akteuren entzogen sind und sich prinzipiell wie natürliche Prozesse deterministisch beschreiben lassen, die bei bestimmten Ausgangsbedingungen mit Notwendigkeit auftreten.

7) Uns geht es primär darum, den Risikobegriff aus der Akteursperspektive zu erhellen, und wir nehmen daher ausschließlich auf die Selbstbeschreibung von Handelnden und deren „Weltsicht“ Bezug. Es ließe sich jedoch auch unter der Annahme einer kausal nicht determinierten Welt gleichermaßen für die Unterscheidung zwischen technischen und sozialen Risiken argumentieren. Sie würde sich dann aus einer genauen Betrachtung der Quelle des Kontrolldefizits „in der Welt“ für jeden der beiden Fälle ergeben. Im Falle technischer Risiken wären es nicht-menschliche Quellen, im Falle sozialer Risiken Menschen. Die weitere Analyse, insbesondere zu Fragen der Risikoprävention, würde dann wieder parallel verlaufen. Aus Gründen der Einfachheit und Kürze gehen wir im Aufsatz auf diese zusätzliche Komplexität nicht weiter ein.

8) Der Weltklimarat (IPCC) wurde von der World Meteorological Organisation (WMO) und dem United Nations Environment Programme (UNEP) etabliert, um wissenschaftliche Forschungsergebnisse zum anthropogenen Klimawandels so umfassend wie möglich zusammenzuführen und zu bewerten. Dazu fertigt der IPCC im Abstand von einigen Jahren viele tausend Seiten umfassende Berichte an. Gegenwärtig laufen die Arbeiten zum sechsten Bericht. Der fünfte Bericht (zu finden unter dem Titel: Fifth Assessment Report, kurz AR5) wurde im Jahr 2014 veröffentlicht. Ein derart umfassender, interdisziplinärer und weltumspannender Forschungszusammenhang ist einmalig in der Wissenschaftsgeschichte und begründet die weite Anerkennung, die den Berichten des IPCC entgegengebracht wird. Für einen kurzen Überblick zu den Forschungsergebnissen empfiehlt sich ein Blick in den ebenfalls vom IPCC verfassten und herausgegebenen sog. Synthesis Report (IPCC 2014).

9) Versicherungen sind oft eine Form, mit technischen Risiken umzugehen, d.h. es wird ein gewisser Nachteil akzeptiert, also eine Versicherungsprämie, um darüber die Kosten für den Fall zu reduzieren, dass ein unerwünschtes, aber aufgrund begrenzten Wissens nicht auszuschließendes Ereignis eintritt. Versicherungen selbst stellen als Abstimmung menschlichen Handelns aber auch ein soziales Risiko dar– und darauf bezieht sich die obenstehende Argumentation.

Literatur

– Gethmann, Carl Friedrich; Sander, Thorsten (1999): „Rechtfertigungsdiskurse“, in: Arnim Grunwald et al. (Hrsg.): Ethik der Technikgestaltung, Berlin/Heidelberg: Springer-Verlag, 117-151.
– Hansson, Sven-Ove (2013): Ethics of Risk, Ethical Analysis in an Uncertain World, New York: Palgrave Macmillan.
– IPCC (2014): „Climate Change 2014: Synthesis Report. Contribution of Working Groups I, II and III to the Fifth Assessment Report of the Intergovernmental Panel on Climate Change” [Core Writing Team, R.K. Pachauri and L.A. Meyer (eds.)], IPCC, Geneva, Switzerland.
– Nida-Rümelin, Julian; Rath, Benjamin; Schulenburg, Johann (2012): Risikoethik, Berlin/Boston: de Gruyter.
– Perry, Stephen R. (2007): „Risk, Harm, Interests, and Rights“, in: Tim Lewens (Hrsg.): Risk. Philosophical Perspectives, Abingdon: Routledge, 190–209.
– Roeser, Sabine u.a. (Hrsg.) (2012): Handbook of Risk Theory, Dordrecht: Springer.

Ruben Langer ist seit 2015 wissenschaftlicher Mitarbeiter an der Universität Duisburg-Essen. Vor seiner Tätigkeit als Mitarbeiter im Projekt Big Risks. Perceptions, Management and Neuralgic Societal Risks in the 21st Century (gefördert durch die FUNK Stiftung), studierte er Philosophie, Physik, Soziologie und Geschichte an der Universität Frankfurt. Er lehrt und forscht zu systematischen Fragen im Bereich der politischen Philosophie mit einem besonderen Interesse an normativen Fragestellungen. Schwerpunkte seiner Forschung bilden unter anderem konstruktivistische normative Ansätze (im Anschluss an Kant), Fragen individueller und kollektiver Verantwortung sowie risikoethische Fragestellungen. Gegenwärtig verfolgt er ein Promotionsvorhaben zum anthropogenen Klimawandel unter dem Titel „The Ethics of Changing the Climate“.

Andreas Niederberger ist Professor für Praktische Philosophie an der Universität Duisburg-Essen. Er wurde 2002 in Frankfurt promoviert, wo er sich 2008 auch habilitierte. Niederberger lehrt und forscht zur Geschichte der Philosophie, insbesondere zum Republikanismus in der Philosophie der Frühen Neuzeit und zu Immanuel Kant, sowie zu systematischen Fragen in den Bereichen der politischen Philosophie, der Rechtsphilosophie und der Ethik, wie beispielsweise der Legitimität politischer Ordnung unter Bedingungen der Globalisierung, den Menschenrechten, der Klimagerechtigkeit, der Ethik der Migration, der praktischen Rationalität und der kollektiven Intentionalität. Er ist einer der drei Principal Investigators des Projekts Big Risk. Perceptions, Management and Neuralgic Societal Risks in the 21st Century, das von der FUNK-Stiftung Hamburg gefördert wird.

aus UNIKATE 52: Risikoforschung. Interdisziplinäre Perspektiven und neue Paradigmen. Essen 2018. Federführung: Renate Martinsen und Andreas Niederberger.