Search
Generic filters
15 October 2014

Too big to handle: Warum wir so schlecht sind im Abwenden von Katastrophen

Finanzkrisen, Genozide, Umweltkatastrophen, Epidemien, Kriege – dauernd passiert etwas, von dem wir zuvor genau wussten, dass es a) mit einiger Wahrscheinlichkeit oder sogar sicher passieren und b) ganz unvorstellbar schrecklich werden würde. Und trotzdem haben wir es passieren lassen. Und zwar nicht nur weil wir nicht anders konnten. Sondern weil wir es offenbar irgendwie, all things considered, nicht anders wollten. Was wir hätten tun können, haben wir unterlassen. Was wir hätten wissen können, wollten wir nicht wissen.

Warum? Wie kommt das? Was hat es auf sich mit diesem merkwürdigen Phänomen? Und wie könnten wir da besser werden? Um auf diese Fragen Antworten zu suchen, hat sich letzte Woche am Berliner Wissenschaftskolleg eine außerordentlich illustre Gruppe von Wissenschaftler_innen aus allen möglichen Disziplinen zu einem Workshop unter dem (wohl auch selbstreferentiell zu verstehenden) Titel “Too big to handle” zusammengefunden. Untertitel: “Why Societies ignore Looming Disasters.” Ich hatte das Privileg, hinten drinzusitzen und mir meine Notizen und Gedanken dazu zu machen. Um das Ergebnis vorwegzunehmen: Selten habe ich so viel intellektuelle Anregung und Grund zur Niedergeschlagenheit gleichzeitig erfahren.

Eingeladen hatten die Völkerrechtlerin Anne van Aaken (St. Gallen) und der Evolutionsbiologe Janis Antonovics (Virginia). Beide waren 2011 als Fellows am Wissenschaftskolleg*. Zu den vielen Vorzügen dieser preisenswerten Institution gehört, dass dort Leute, die auf den ersten Blick völlig unterschiedliche Dinge erforschen, miteinander ins Gespräch kommen und so auf ganz neue Forschungsperspektiven stoßen. Die Begegnung van Aaken/Antonovics ist ein Musterbeispiel dafür: Antonovics verzweifelte an der Beobachtung, dass wir nicht genügend gegen das “looming disaster” der Antibiotika-Resistenz von Seuchenerregern unternehmen, und in van Aaken fand er eine Gesprächspartnerin, die aus ganz anderen Anlässen ganz ähnliche Sorgen umtrieben.

So entstand die Idee zu diesem Workshop. Und darüber hinaus womöglich, wie Antonovics nur halb ironisch in Aussicht stellte, zur Begründung einer neuen Wissenschaftsdisziplin, vielleicht unter dem schön vieldeutigen Namen “Disastrologie”.

Nichtstun im Angesicht des Schreckens

Warum entscheiden wir uns im Angesicht eines “looming disasters” so häufig fürs Nichtstun oder sonst eine inadäquate Reaktion? Der Psychologe Andreas Glöckner (Göttingen) versuchte diese Diskrepanz durch die Notwendigkeit zu erklären, sich in einer komplexen Welt voller Unsicherheiten schnell entscheiden zu müssen. Tatsächlich ist die Fülle der Informationen oft viel zu groß und die Zeit viel zu knapp, um uns nach Wägung aller verfügbarer Pros und Kontras (oder auch nur auf Basis heuristischer Faustregeln) für die Option zu entscheiden, die uns den größten Gewinn verspricht. Stattdessen wählen wir die Option, die sich am mühelosesten in eine kohärente Interpretation des Geschehens einfügt. Glaubt man verstanden zu haben, was man vor sich hat, dann ergibt sich daraus, welche Informationen man für relevant hält und welche nicht, und daraus wiederum ergibt sich, was man zu tun hat. Man macht sich blind für die katastrophalen Folgen des eigenen Handelns und für Warnsignale, die nicht zu dem so konstruierten Weltbild passen. Erst wenn das Weltbild zusammenbricht, ändert man sein Verhalten, und zwar abrupt, übergangslos und unkoordiniert – was seinerseits katastrophale Folgen wie Bank-Runs oder Massenpanik haben kann.

Der Hang zur Fehlentscheidung im Angesicht der Katastrophe wäre somit in jeden Einzelnen quasi kognitionsbiologisch eingebaut. Aber was sagt uns das über die Art, wie arbeitsteilige, gesellschaftliche Institutionen mit Risiken umgehen?

Vom Klimawandel bis zu Ebola ist für die meisten wirklich großen Katastrophen kennzeichnend, dass sie erstens nur in einer gemeinsamen, koordinierten Anstrengung Vieler abgewendet werden können und zweitens die Ressourcen, Interessen und Kosten dabei höchst unterschiedlich verteilt sind. Dazu kommt drittens, dass jeder Einzelne womöglich am besten davon kommt, wenn er sich drückt und darauf setzt, dass die anderen die Kosten schultern. Nichtstun kann aus dieser Perspektive eine vollkommen rationale Handlungsoption sein.

Ökonomen bauen komplexe spieltheoretische Modelle, um solche Entscheidungskonstellationen zu rekonstruieren und nach ihren Erfolgsaussichten zu ordnen. Todd Sandler (Dallas) und Scott Barrett (Columbia) stellten solche Modelle zur Diskussion. Sie alle beruhen aber auf der Annahme, dass man die positiven und negativen Folgen in Dollar und Cent berechnen und so miteinander saldierbar machen kann. Aber kann man das?

Nutzen und Kosten der Kosten-Nutzen-Analyse

Die Juristin und Ökonomin Susan Rose-Ackerman (Yale) nahm sich die Anstrengungen von EU-Kommission und OECD vor die Flinte, in Europa die Politik durch Kosten-Nutzen-Analysen zu rationalisieren. Bei “looming disasters”, so Rose-Ackerman, sei ein solcher “angewandter Utilitarismus”, der allen erwartbaren Nutzen gegen alle erwartbare Kosten zu saldieren versucht, nicht nur keine Hilfe, sondern regelrecht schädlich. Wenn es um die Prävention großer, sich über lange Zeiträume entwickelnder Katastrophen wie den Klimawandel gehe, prämiere die Kosten-Nutzen-Analyse politische Kurzsichtigkeit, da in der Zukunft liegende Kosten und Nutzen diskontiert in die Analyse einfließen und bei langen Zeiträumen gegen Null tendieren. Aus dieser Sicht spricht überhaupt nichts dagegen, erst einmal nichts zu tun und künftige Generationen die Zeche zahlen zu lassen.

Immerhin: Kosten-Nutzen-Analyse mache die Alternativen klar (Scott Barrett) und erleichtere es, mit den politischen Entscheidungsträgern zu kommunizieren (Todd Sandler), versuchten einige Ökonomen eine Ehrenrettung. Der Jurist Christopher McCrudden (Belfast) warf ein, dass zumindest die eng verwandte Methode des Impact Assessment (in etwa: Gesetzesfolgenabschätzung) erlaube, gerade auch nicht markttaugliche Werte wie Menschenrechte ins Auge zu fassen.

Bei den meisten am Tisch überwog indessen die Skepsis. Der Ökonom Martin Hellwig (MPI Bonn) geißelte die von allen Wertentscheidungen abstrahierende Kosten-Nutzen-Analyse als “Fake-Positivismus”, der Kompensationsmöglichkeiten für die Belasteten in Aussicht stelle, die in der Praxis nie geleistet würden: “This is what gives economics a bad name!” Die Experten der Kosten-Nutzen-Analyse, forderte Susan Rose-Ackerman, sollten nicht so so tun, als wüssten sie ex cathedra über die richtige Antwort auf alle gesellschaftlichen Wertungsfragen Bescheid – diese Antworten zu geben, sei Sache demokratischer Aushandlungsprozesse. Alle Kosten und Nutzen mit dem gleichen Maß zu messen, heiße sich um die Möglichkeit politischer Kompromisse zu bringen, ergänzte Anne van Aaken.

Apropos Expertokratie

Expertenwissen versus Volkswillen: mit diesem uralten Dilemma muss sich die Wissenschaft, wenn es um Katastrophen und deren Abwendung geht, auch jenseits ökonomischer Rationalisierungsversuche beschäftigen. Das wurde insbesondere deutlich, als der Jurist Jonathan Wiener (Duke) seinen Vortrag mit dem beziehungsreichen Titel “The Tragedy of the Uncommons” hielt.

Mit “Uncommons” meint Wiener sehr, sehr seltene, aber auch sehr, sehr katastrophale Risiken. Sehr selten im Sinn von Teilchenbeschleuniger-erzeugt-Schwarzes-Loch-selten. Oder Asteroid-schlägt-ein-und-vernichtet-alles-Leben-auf-der-Erde-selten. Oder Marssonde-kehrt-zurück-und-hat-extraterrestrische-Keime-an-Bord-selten – alles Beispiele, die Wiener ohne Zeichen von ironischer Distanzierung anführte. Während die Öffentlichkeit vertrautere, wenngleich immer noch seltene Risiken (Flugzeugabstürze, Minenunglücke) in der Regel dramatischer beurteile als die Experten, so Wiener, sei es bei solchen völlig unvertrauten Risiken umgekehrt: Sie würden, gemessen an dem, was auf dem Spiel steht, systematisch unterschätzt. Um so mehr gehörten die Experten, die diese “Uncommons” erforschen und Präventionsmöglichkeiten entwickeln, gefördert und ihre Warnungen beachtet.

An Leuten, die das Label Experte für sich in Anspruch nehmen können, fehlte es wahrhaftig nicht um den Tisch. Aber das war den meisten dann doch zu viel. In einer Welt mit sehr ungleich verteilten Lebenschancen sei es tatsächlich für viele Menschen vollkommen rational, wenn sie zu dem Schluss kommen, dringlichere Probleme zu haben, als sich vor Asteroiden und Mars-Bakterien zu ängstigen, wandte der Philosoph Philip Kitcher (Columbia) ein. Die Ökonomin und Historikerin Deidre McCloskey (Illinois/Chicago) erinnerte daran, dass Experten vom Nuklearen Winter bis zu Saddam Husseins Massenvernichtungswaffen schon viele Katastrophen prophezeit haben, die sich nicht realisierten. Die Vielfalt der vorstellbaren Schrecken sei in der Moderne enorm gewachsen – sei die Gefahr nicht eher, dass sich alle permanent nur noch in hysterischer Angst vor Weißgottnichtallem herumwälzen?

Schade, dass an dieser Stelle kein Religionssoziologe zugegen war, der die Diskussion um Einsichten zur Rolle apokalyptischer Erlösungs- und Zeitenwendefantasien hätte bereichern können. Der Klimaforscher Detlef Sprinz (Potsdam) immerhin brachte die Sprache auf die Apokalypse des Johannes, das letzte Buch der Bibel. Und die Literaturwissenschaftlerin Françoise Lavocat (Paris III) steuerte die Beobachtung bei, dass die zeitgenössische Literatur sich, anders als die des 18. Jahrhunderts, vor allem mit Katastrophen von mythischen Dimensionen beschäftige – und zwar mit Vorliebe mit solchen, wie sie Wiener als Beispiel anführe, vom Asteroideneinschlag (“Armageddon”) bis zur Machtübernahme künstlicher Intelligenz (“Matrix”).

Ein weiterer Grund, warum Experten bisweilen Demut walten lassen sollten, kam in anderem Kontext auf. Der Biologe Janis Antonovics brachte im Rahmen seiner Klage, dass die medizinische Forschung sich so hartnäckig den Erkenntnissen der Evolutionsbiologen zur Antibiotika-Resistenz von Erregern verschließt, die Rede auf die selbstreferenzielle Art, wie wissenschaftliche Communities nun einmal funktionieren: Was zählt in der Wissenschaft, ist der Applaus der eigenen Fachkollegen, und den bekommt man nicht unbedingt, wenn man Wissen propagiert, das von außerhalb stammt. Das könne man durchaus generalisieren, merkte Susan Rose-Ackerman an. Auch Martin Hellwig fühlte sich stark an die Gepflogenheiten seiner eigenen Ökonomendisziplin erinnert. Was die Wissenschaft gerade als Riesenkatastrophe empfindet und was nicht, so der Eindruck, ist oft weniger eine Frage der Erkenntnis als des akademischen Herdentriebs.

The Power of Narrative

Trotzdem: Das Problem, dass die Wissenschaft angesichts drohender Katastrophen wenig ausrichten kann, wenn ihr keiner zuhört, ist real. Anne van Aaken fragte, ob die Wissenschaft nicht mehr Geschick entwickeln sollten, Geschichten zu erzählen und die Menschen auch emotional zu erreichen. Die Literaturwissenschaftlerin Françoise Lavocat dämpfte ihren Optimismus: Dass die Leute gern in Katastrophenfilme gehen, habe nicht unbedingt etwas damit zu tun, dass sie sich dort belehren lassen wollen: Es handelt sich ja gottseidank um Fiktion.

Um so energischer ermunterte der Biologe Peter Kareiva die Wissenschaft, auf “the power of narrative” zu setzen, wenn sie etwas bewirken wollen. Das hängt damit zusammen, dass Kareiva – als einziger in der Runde – kein akademischer Wissenschaftler ist, sondern Chief Scientist einer NGO, nämlich der weltgrößten Umweltorganisation Nature Conservancy (und in dieser Funktion offenbar gerade im Auge eines umweltaktivistisch-wissenschaftlichen Hurrikans). Sein Rat an die Wissenschaft: nicht Alarm wegen irgendeiner Katastrophe am Horizont schlagen, die niemand abwenden kann und für die sich niemand verantwortlich fühlt (Stichwort: “2 Grad Celsius Temperaturerhöhung!!”). Sondern an Problemen ansetzen, die diejenigen treffen, die man zum Handeln bewegen will. Wer im erzkonservativen Texas die Manager von Dow Chemical dazu bringen wolle, gegen den Klimawandel aktiv zu werden, dürfe ihnen nichts von irgendwelchen Tipping Points erzählen, sondern müsse sie beim Trinkwasser packen, das in Texas knapp wird, wenn man nichts tut.

Nun bin ich als Betreiber des Verfassungsblogs der Letzte, der widersprechen würde, wenn jemand mehr Interaktion der Wissenschaft mit der politischen Öffentlichkeit fordert; das wäre ja auch noch schöner. Eins würde ich aber aus meiner journalistischen Erfahrung hier beisteuern wollen. Während meiner Zeit als Redakteur einer großen Tageszeitung hatte ich Gelegenheit, mehrere epidemologisch-mediale Boom-and-Bust-Zyklen mitzuerleben: BSE, Vogelgrippe, SARS, you name it. Oder erinnert sich noch jemand an das “Y2K-Problem”? Als wir alle glaubten, Schlag null Uhr am 1.1.2000 gehen alle Lichter aus?

Am Anfang all dieser Episoden standen Experten, die vor Katastrophen warnten: sehr mächtige Narrative, und sehr erfolgreich. Die Öffentlichkeit reagierte, und es kam zu einer Feedbackschleife, je mehr die Öffentlichkeit von Angst ergriffen wurde, desto soghafter wurde ihre Nachfrage nach Informationen, die diese Angst nährten und immer weiter wachsen ließen, bis irgendwann jemand bemerkte, dass eigentlich gar nicht allzu viel passiert war, und die ganze Riesenwelle binnen Stunden in sich zusammenkrachte.

Ich will damit nicht zu Zynismus aufrufen, im Gegenteil. Mir kommt es nur darauf an, dass man als Wissenschaftler das Pferd namens “Power of Narrative” nicht allzu naiv besteigen sollte, denn wohin es mit einem galoppiert, kann man oft nicht kontrollieren. Und so viel weiß ich als Journalist: die Öffentlichkeit ist zwar geduldig und macht am Ende doch jede Massenhysterie immer wieder freudig mit, aber irgendwann wird es auch ihr zuviel. Ihre Alarmierbarkeit ist ein zwar reichlich vorhandenes, aber doch begrenztes Gut, und die Wissenschaft muss sich gut überlegen, wie viel davon sie abruft und wofür sie es einsetzt. Sonst ist eines Tages, wenn es wieder mal ganz duster am Horizont aussieht, womöglich nichts mehr davon da.

Und das wäre wirklich eine Katastrophe.

*Full Disclosure: Der Verfassungsblog unterhält seit 2011 eine Kooperation mit dem Forschungsverbund Recht im Kontext am Wissenschaftskolleg.


SUGGESTED CITATION  Steinbeis, Maximilian: Too big to handle: Warum wir so schlecht sind im Abwenden von Katastrophen, VerfBlog, 2014/10/15, https://verfassungsblog.de/big-handle-warum-wir-schlecht-sind-im-abwenden-von-katastrophen/.

One Comment

  1. Alexandra Kemmerer Wed 15 Oct 2014 at 20:11 - Reply

    Vielen Dank für diesen hochinteressanten Bericht über eine anregend multidisziplinäre Tagung. Allen, denen jetzt auch ein bischen schwindlig ist ob so vieler Katastrophen, Apokalypsen und Hypes sei zur Ernüchterung Gerd Gigerenzers Buch über die Psychologie des Risikos empfohlen, in dem auch der Umgang von Wissenschaft und Medien mit Ungewissheit thematisiert wird – und das gerade für die juristischen Leser und Leserinnen des Verfassungsblogs (und für alle andern) viel Stoff zum Nachdenken bietet: https://www.mpib-berlin.mpg.de/de/aktuelles/aktuelle-forschungsergebnisse/risiko-wie-man-die-richtigen-entscheidungen-trifft

Leave A Comment

WRITE A COMMENT

1. We welcome your comments but you do so as our guest. Please note that we will exercise our property rights to make sure that Verfassungsblog remains a safe and attractive place for everyone. Your comment will not appear immediately but will be moderated by us. Just as with posts, we make a choice. That means not all submitted comments will be published.

2. We expect comments to be matter-of-fact, on-topic and free of sarcasm, innuendo and ad personam arguments.

3. Racist, sexist and otherwise discriminatory comments will not be published.

4. Comments under pseudonym are allowed but a valid email address is obligatory. The use of more than one pseudonym is not allowed.




15 October 2014

Too big to handle: Why we are so bad at preventing catastrophes

Financial crises, genocides, environmental catastrophes, epidemics, wars – constantly things happen we knew exactly that they would a) happen with some likeliness or even certainty, and b) be absolutely horrible. And still we have let it happen. And not just because we could not help it. But because somehow, all things considered, we did not want to. We haven’t done what we could have done. We didn’t want to know what we could have known.

Why? How is that? What is this strange phenomenon about? And how can we improve ourselves? To find answers to those questions, last week an extraordinarily illustrious group of scholars from all sorts of disciplines had assembled at the Wissenschaftskolleg in Berlin for a workshop under the (manifestly self-referential) title “Too big to handle“. Subitle: “Why Societies ignore Looming Disasters.” I had the priviledge to sit in the back and take notes and ponder and wonder. Rarely have I experienced so much intellectual stimulus and so many reasons for despair at the same time.

The conveners were the international lawyer Anne van Aaken (St. Gallen) and the evolutionary biologist Janis Antonovics (Virginia). Both were fellows at the Wissenschaftskolleg* in 2011. Among the many merits of this praiseworthy institution is the fact that people who do research on – at first sight – entirely different questions get to engage with each other and thus come upon completely new research perspectives. The Van Aaken/Antonovics encounter is a prime example: Antonovics was despairing over his observation that we don’t do enough against the “looming disaster” of microbiological drug resistance, and in van Aaken he found a conversation partner bothered by rather similar worries, albeit from totally different causes.

This was how the idea for this workshop came into existence. And beyond that, as Antonovics half jokingly announced, possibly even a new academic discipline, maybe under the nicely ambiguous name “disastrology”.

Idleness in the face of horror

Facing a “looming disaster”, why do we opt for idleness or other inadequate ways to react so often? The psychologist Andreas Glöckner (Göttingen) tried to explain this discrepancy by the necessity to decide quickly in a complex world full of uncertainties. In fact, informations are often far too abundant, and time far too scarce, to weigh all pros and contras (or even follow some heuristic rule of thumb) to find out which option promises most profit. Instead, we choose the option that fits in best with a coherent interpretation of what happens. If we think we know what is going on, we derive from that which information is relevant and which isn’t, und from that in turn we derive what to do. We blind ourselves to possible catastrophical consequences of our own action and to warning signals incongrous with our thus constructed world view. Only when that world view collapses our behavior flips, and it does so in a sudden, abrupt and incoordinated manner – which can by itself result in catastrophical consequences such as bank runs or mass panics.

The inclination towards wrong decisions in the face of a catastrophe hence appears to be individually hard-wired. But what does that tell us about the way societal division-of-labour institutions handle catastrophic risks?

From climate change to Ebola, most big-time catastrophes are defined by, first, the fact that it takes a common coordinated effort by many to prevent them and, second, that ressources, interests and costs are distributed highly unevenly among them. Plus, thirdly, every individual might be best off if he/she can get away with having the others shoulder all the costs. Idleness from that perspective can be a perfectly rational choice of action (or, rather, inaction).

Economists build complex game-theory models to reconstruct such constellations of decision-making and to order them by their chances of success. Todd Sandler (Dallas) and Scott Barrett (Columbia) put such models up for debate. They all assume that it is possible to calculate all positive and negative consequences in Dollar and Cent and thus make them balanceable. But is it?

Costs and benefits of Cost/Benefit Analysis

The lawyer and economist Susan Rose-Ackerman (Yale) tackled the attempts by the EU Commission and the OECD to propagate cost/benefit analysis in order to rationalize politics in Europe. With respect to “looming disasters”, such an “applied utilitarianism” trying to balance all expectable benefits with all expectable costs is not just useless but downright detrimental. With big catastrophes evolving over long stretches of time at hand, cost/benefit analysis awards political myopia since future costs and benefits are discounted over time and thus tend towards zero in the long run. From that perspective it looks like a fairly good idea to rest idle and leave it for future generations to pick up the bill.

Still: cost/benefit analysis makes alternatives clear (Scott Barrett) and facilitates communication with political decision makers (Todd Sandler). The lawyer Christopher McCrudden (Belfast) chimed in that the closely related method of impact assessment allows to bring non-marketable values such as human rights into the calculation.

Most around the table were sceptical, though. Economist Martin Hellwig (MPI Bonn) lashed out against cost/benefit analysis as “fake positivism”, abstracting from value decisions and promising cost compensation that in practice never occurs: “This is what gives economics a bad name!” Experts of cost/benefit analysis, said Susan Rose-Ackerman, should not pretend to know ex cathedra all the right answers to every societal value question that were for democratic bodies of negotiation to give. Lumping costs and benefits together is a way to mask useful tradeoffs that need to be discussed publicly, added Anne van Aaken.

Speaking of Expertocracy

Expert knowledge versus popular will: when it’s about disasters and their prevention, science finds itself routinely confronted with that old dilemma, and not just rationalizing economists. This became visible when the lawyer Jonathan Wiener (Duke) held his presentation, allusively titled “The Tragedy of the Uncommons”.

With “uncommons” Wiener means very VERY rare, but also very VERY catastrophic risks. Rare as in large-hadron-collider-produces-black-hole rare. Or in asteroid-hits-earth-and-destroys-all-life rare. Or in mars-mission-returns-and-has-extraterrestrial-life-on-board rare. All those were examples Wiener quoted without any signal of ironic distance. While with familiar, yet still rare risks (plane accidents, mine collapses) the public usually is more scared than experts, with completely unfamiliar risks, according to Wiener, it is totally the other way around: Those risks were, compared to what is at stake, woefully underestimated by the public. Experts who do research on those “uncommons” and develop prevention mechanisms ought to be supported and their warnings heeded.

Any of the people around the table could lay claim on the label of expert. But this was too much for most of them. In a world with a highly unequal distribution of life chances it is for many in fact entirely rational to decide that there are more urgent problems to take care of than asteroids and Mars microbes, argued the philosopher Philip Kitcher (Columbia). The economist and historian Deidre McCloskey (Illinois/Chicago) called into rememberance the fact that experts had predicted catastrophes from nuclear winter to Saddam Hussein’s weapons of mass destruction that never materialized in the end. In modern times, the imagination of possible catastrophes had enormously increased. Isn’t the danger much more in the other side, that we end up all being hysterically worried about (what used to be in former times:) God knows what is going to happen?

Too bad that there wasn’t a religion sociologist present who could have enriched the discussion with insights about the role of apocalyptic redemption and end-of-time fantasies. The climate scientist Detlef Sprinz (Potsdam) at least raised the issue of the Book of Revelation. Literature scientist Françoise Lavocat (Paris III) contributed the observation that contemporary literature, as opposed to 18th century literature, has a marked preference for catastrophes of mythical dimensions – among them some of Wiener’s examples, from asteroids (“Armageddon”) to world dominance by artificial intelligence (“Matrix”).

Another reason why experts should occasionally exercise humility came up in another context.  Biologist Janis Antonovics, complaining about the stubborn refusal of medical science to take the findings of evolutionary biology about microbiological drug resistance into account, raised the issue of the self-referential way most scientific communities communicate. What counts in science is the applause you get from your own community, and it isn’t necessarily the best way to get it if you propagate knowledge from outside. This is a general problem, remarked Susan Rose-Ackerman, and Martin Hellwig as well felt strongly remembered of the ways of his own discipline of Economics. Occasionally, what science recognizes as a big disaster and what it doesn’t appears to be less a matter of cognition but a matter of academic herd instinct.

The Power of Narrative

And yet: the problem that scienctists’ warnings are of little avail in the face of looming disaster if nobody listens to them is real. Anne van Aaken wondered if science shouldn’t develop more story-telling skills in order to reach people emotionally. Literature scientist Françoise Lavocat curbed her enthusiasm: That people liked watching disaster movies doesn’t necessarily imply that the wish to be lectured. Thank god, it’s fiction, after all.

A vigorous encouragement to make better use of the “power of narrative” came from biologist Peter Kareiva. He was the only researcher from outside academia in the room: He works as chief scientist for the world’s largest environmental organization, the Nature Conservancy (and, in this capacity, is apparently in the eye of an environmentalist-scholarly hurrican right now). His advice to science: Don’t raise alarm for some remote catastrophe nobody feels individually responsible for (cue: “2 centigrades temperature raise!!”). Rather adress problems that hit the one you want to get taking action. If you want to mobilize the management of Dow Chemical in the middle of arch-conservative Texas against climate change, you better stay away from tipping points and such and tell them about drinking water getting scarce in Texas if they don’t do anything about it.

Now, as the editor of Verfassungsblog I am the last person to object if somebody calls for more interaction of science and the political public – that goes without saying. But there is one thing I would like to contribute from my journalistic experience. During my time as an editor with a large newspaper I had the privilege to experience several epidemological-cum-media boom-and-bust cycles: BSE, bird flu, SARS, you name it. Another example: does anybody remember the truly millennarian “Y2K problem”? When we all believed that at the stroke of midnight on January 1, 2000, the entire electronic world would come to an end?

At the beginning of all those episodes were experts warning of catastrophes: very powerful narratives, and very successful ones, too. The public responded, a feedback loop occured, and the more the public was taken by fear the more suction it developed, demanding ever more information to further feed the fear, and this went on and on until all of a sudden somebody remarked that actually nothing really bad had happened at all, and the whole gigantic wave collapsed within hours.

I don’t mean to be cynical, quite the opposite. My point is, scientists shouldn’t saddle the “power of narrative” horse naively. You never know where it takes you, and it might turn out to be quite hard to control at times. And this much I know as a journalist: the public is a good old sport, time and again it joins happily every mass hysteria in town. But at some point it gets enough, too. Its willingness to be alarmed is a copious yet limited good, and scientists should think carefully how much of it they want to consume, and what for. If not, they might find out some gloomy millennial day that there isn’t actually anything left of it.

And that would be truly a catastrophe.

*Full Disclosure: Verfassungsblog has a cooperation with Wissenschaftskolleg since 2011.


SUGGESTED CITATION  Steinbeis, Maximilian: Too big to handle: Why we are so bad at preventing catastrophes, VerfBlog, 2014/10/15, https://verfassungsblog.de/big-handle-warum-wir-schlecht-sind-im-abwenden-von-katastrophen/, DOI: 10.17176/20170506-161053.

Leave A Comment

WRITE A COMMENT

1. We welcome your comments but you do so as our guest. Please note that we will exercise our property rights to make sure that Verfassungsblog remains a safe and attractive place for everyone. Your comment will not appear immediately but will be moderated by us. Just as with posts, we make a choice. That means not all submitted comments will be published.

2. We expect comments to be matter-of-fact, on-topic and free of sarcasm, innuendo and ad personam arguments.

3. Racist, sexist and otherwise discriminatory comments will not be published.

4. Comments under pseudonym are allowed but a valid email address is obligatory. The use of more than one pseudonym is not allowed.




Other posts about this region:
Deutschland
Go to Top