Ons brein is een meesterlijk orgaan, maar het heeft zijn beperkingen. Om snel beslissingen te kunnen nemen, maakt het gebruik van mentale snelkoppelingen. Meestal werken die prima, maar soms leiden ze tot systematische denkfouten: cognitieve biases.
In de geschiedenis hebben deze onbewuste denkpatronen bijgedragen aan enkele van de meest tragische rampen ooit. Van vliegtuigongelukken tot financiële crises, van ruimtevaartrampen tot oorlogen die maar bleven voortduren – telkens speelden cognitieve biases een cruciale rol.
1. Groepsdenken– Space Shuttle Challenger (1986)

Op 28 januari 1986 explodeerde de Space Shuttle Challenger 73 seconden na de lancering, waarbij alle zeven bemanningsleden omkwamen. De oorzaak was een defecte O-ring die niet bestand was tegen de ijzige temperaturen van die ochtend.
Ingenieurs van fabrikant Morton Thiokol hadden gewaarschuwd dat de lancering te gevaarlijk was, maar NASA-managers wilden niet luisteren. Er heerste een “illusie van unanimiteit” – niemand durfde hardop te twijfelen aan de beslissing om te lanceren.
Dit groepsdenken, waarbij kritische stemmen worden genegeerd om de harmonie te bewaren, is een van de gevaarlijkste cognitieve biases in organisaties. Dezelfde fout werd herhaald bij de Columbia-ramp in 2003.
2. Sunk Cost Fallacy – Vietnamoorlog (1955-1975)

De sunk cost fallacy is de neiging om door te gaan met een verloren zaak omdat er al zoveel geïnvesteerd is. De Amerikaanse betrokkenheid bij de Vietnamoorlog is hiervan het schoolvoorbeeld. Naarmate de oorlog vorderde en de verliezen opliepen, werd het steeds moeilijker om terug te trekken.
“We kunnen niet toestaan dat onze soldaten voor niets gestorven zijn,” werd het argument. In 1965 waarschuwde diplomaat George Ball president Johnson dat Zuid-Vietnam de oorlog aan het verliezen was, maar de gedane investeringen – in levens, geld en politiek prestige – maakten een koerswijziging psychologisch onmogelijk. Het resultaat: nog honderdduizenden extra doden.
3. Normalcy Bias – Pompeï (79 n.Chr.) en Hurricane Katrina (2005)

Ongeveer 80% van alle mensen vertoont normalcy bias tijdens een ramp: ze onderschatten de dreiging en geloven dat alles wel goed zal komen omdat het nooit eerder zo erg is geweest. In het jaar 79 keken de inwoners van Pompeï urenlang toe hoe de Vesuvius uitbarstte, zonder te evacueren.
Bijna tweeduizend jaar later weigerden duizenden inwoners van New Orleans te vertrekken toen Hurricane Katrina naderde, ondanks de waarschuwing dat het gebied “wekenlang onbewoonbaar” zou zijn. Zelfs nadat burgemeester Ray Nagin een verplichte evacuatie afkondigde, bleven mensen thuis. Circa 1.400 mensen kwamen om het leven.
4. Overconfidence Bias – Financiële Crisis (2008)

De mondiale financiële crisis van 2008 was een epidemie van overmoed. Huizenkopers geloofden dat prijzen alleen maar konden stijgen. Banken waren overtuigd dat hun risicomodellen waterdicht waren. Toezichthouders dachten dat de markt zichzelf wel zou corrigeren.
Nog in juli 2008 – twee maanden voor het instorten van Lehman Brothers – verklaarde minister van Financiën Henry Paulson dat het Amerikaanse bankensysteem “veilig en solide” was.
Onderzoek toont aan dat banken met overmoedige CEO’s significant hogere systeemrisico’s namen en zwaarder werden getroffen door de crisis. De overmoedbias maakte iedereen blind voor de waarschuwingssignalen.
5. Confirmation Bias – Deepwater Horizon (2010)

Op 20 april 2010 ontplofte het boorplatform Deepwater Horizon in de Golf van Mexico, waarbij 11 arbeiders omkwamen en bijna 5 miljoen vaten olie in zee stroomden. BP en exploitant Transocean vertoonden klassieke confirmation bias: ze negeerden informatie die hun optimistische visie op de veiligheid tegensprak.
Ondanks meerdere waarschuwingssignalen – afwijkende drukmetingen, problemen met de cement – bleven managers vasthouden aan hun overtuiging dat alles onder controle was. Informatie die de geplande planning zou vertragen werd weggewuifd. Kritische vragen werden niet gesteld. Het cement faalde, de blowout preventer werkte niet, en de rest is geschiedenis.
6. Sunk Cost en Overconfidence – Mount Everest (1996)

In mei 1996 kwamen acht klimmers om het leven op de Mount Everest, onder wie twee ervaren expedtieleiders. De ramp illustreert hoe meerdere cognitieve biases kunnen samenwerken. De klimmers hadden een strikte regel: wie om 14:00 uur de top niet had bereikt, moest terugkeren.
Maar na maanden van voorbereiding en tienduizenden dollars aan investeringen voelden ze zich gedwongen door te gaan – de sunk cost fallacy in actie. Expedtieleider Rob Hall had al vier keer de top bereikt en meer dan 39 klimmers begeleid. Hij geloofde oprecht dat een ramp zijn team niet kon overkomen. Zijn overmoed kostte hem het leven.
7. Verliesaversie– Tenerife-vliegtuigramp (1977)
De dodelijkste vliegtuigramp in de geschiedenis vond plaats op 27 maart 1977, toen een KLM Boeing 747 op de startbaan van Tenerife in botsing kwam met een taxiënd Pan Am-toestel. 583 mensen kwamen om.
KLM-kapitein Jacob van Zanten – nota bene KLM’s hoofdinstructeur – startte zonder expliciete toestemming van de verkeerstoren. Waarom? Een combinatie van factoren, maar loss aversion speelde een cruciale rol.
De bemanning maakte zich zorgen over de strikte Nederlandse regels voor vliegtijden; overschrijding kon leiden tot boetes en zelfs intrekking van hun vliegbrevet. De angst om tijd te “verliezen” woog zwaarder dan voorzichtigheid.
8. Beschikbaarheidsheuristiek – Post-9/11 Autorijden
Na de aanslagen van 11 september 2001 werden Amerikanen massaal bang om te vliegen. Velen kozen ervoor om in plaats daarvan de auto te nemen – met tragische gevolgen. Psycholoog Gerd Gigerenzer berekende dat het aantal verkeersdoden in het jaar na 9/11 significant steeg, juist omdat mensen de statistisch veel gevaarlijkere optie kozen.
De availability heuristic verklaart dit: dramatische vliegtuigcrashes die breed worden uitgemeten in de media zijn gemakkelijk te herinneren, waardoor we het risico van vliegen overschatten. De duizenden verkeersongelukken per jaar halen het nieuws niet en blijven onzichtbaar. Het resultaat: een onzichtbare ramp bovenop de zichtbare.
9. Survivorship Bias – Bommenwerpers in de Tweede Wereldoorlog

Tijdens de Tweede Wereldoorlog wilde de Amerikaanse luchtmacht de overlevingskansen van haar bommenwerpers vergroten door extra bepantsering aan te brengen. Ze analyseerden de vliegtuigen die terugkeerden van hun missies en zagen een duidelijk patroon: de meeste kogelgaten zaten in de vleugels en de staart. De logische beslissing leek om die plekken te versterken.
Totdat de geniale wiskundige Abraham Wald hen wees op een blinde vlek: ze keken alleen naar de vliegtuigen die het hadden overleefd. De vliegtuigen die in de cockpit of de motoren werden geraakt, kwamen namelijk helemaal niet terug.
De kogelgaten in de overlevende vliegtuigen toonden dus niet aan waar ze extra bepantsering nodig hadden, maar juist waar een vliegtuig geraakt kon worden zónder neer te storten. Survivorship bias is de gevaarlijke neiging om ons blind te staren op de ‘overlevenden’ (of successen) en de onzichtbare mislukkingen volledig te negeren, waardoor we totaal verkeerde conclusies trekken.
10. Hindsight Bias – Pearl Harbor en 9/11

Na elke grote ramp zeggen analisten: “De signalen waren er.” Dit is de hindsight bias – de neiging om achteraf te geloven dat een gebeurtenis voorspelbaar was. Maar wat we vergeten is de enorme hoeveelheid “ruis” waarin die signalen verdronken.
Vóór Pearl Harbor was er inderdaad informatie beschikbaar die wees op een Japanse aanval, maar die was vermengd met duizenden andere datapunten. Hetzelfde gold voor 9/11: de CIA had informatie over de kapers, maar die bereikte de FBI niet.
De hindsight bias leidt tot onterechte beschuldigingen en, erger nog, tot het valse vertrouwen dat we “de volgende keer” de signalen wél zullen herkennen – terwijl we in werkelijkheid net zo blind zullen zijn voor nieuwe dreigingen.
Cognitieve biases zijn niet het bewijs dat mensen dom zijn – ze zijn het bewijs dat ons brein evolutionair is aangepast aan een wereld die eenvoudiger was dan de onze. De les van deze rampen is niet dat we onze biases kunnen elimineren, maar dat we systemen moeten ontwerpen die er rekening mee houden.
Checklists, tegenspraak aanmoedigen, beslissingen scheiden van degenen die ze hebben genomen – het zijn allemaal manieren om de onvermijdelijke beperkingen van het menselijk denken te compenseren. De prijs van zelfoverschatting is, zoals de geschiedenis laat zien, soms ondraaglijk hoog.