Idéer

Bekreftelsesfellen

Rundt 1965 nådde USA toppen av sigarettkonsum. Reklamebransjen hadde bidratt til denne økningen (du kan lese mer om dette, blant annet om hvordan Sigmund Freud sin nevø Edward Bernays markedsførte sigaretter til kvinner her)

I 1964 kom en «Surgeon General’s Report (som kommer fra en federal myndighet med ansvar for folkehelsespørsmål) som konkluderte at «Sigarettrøyking er en tilstrekkelig stor helsefare i USA til at det er nødvendig å iverksette tiltak for å avhjelpe den.»

At røyking var helseskadelig var ikke like allment akseptert på den tiden, men med denne rapporten begynte forsøket på å få folk til å slutte å røyke.

I 1965 utførte Timothy Brock ved Ohio State University en studie hvor 82 røykere og 90 ikke-røykere fikk en liste med 13 avisoverskrifter. De skulle rangere titlene i henhold til interessen deres. De 13 overskriftene inneholdt to titler som var 1) Røyking fører til lungekreft og 2) Røyking fører ikke til lungekreft (Brock, 1965).

Som man kanskje kunne forvente, uttrykte røykerne mer interesse for artikkelen om at røyking ikke førte til lungekreft, og den andre gruppen uttrykte mer interesse for artikkelen om at røyking fører til lungekreft.

Fem år før Brock sin studie, kom utførte P. C. Wason (1960) en annen studie. I denne studien fikk deltagerne en tallrekke (2-4-6) og en oppgave om å beskrive hva som var regelen for tallrekken. De fikk muligheten til å skrive ned egne tallrekker og da skulle forskerne som var der godkjenne at tallrekken følger regelen som de hadde valgt at de skulle følge. Når de følte seg sikre skulle de forklare hva de trodde var regelen.

Altså, dersom jeg var deltager og møtte forskeren, kunne jeg skrevet ned tallene 4-6-8. Forskeren ville sagt at «ja» dette følger regelen. Deretter kunne jeg sagt 3-5-7, eller 134-136-138, og jeg ville fått samme svar. Da kunne jeg sagt at jeg trodde at regelen var at det var en tallrekke som stiger med to.

Og da ville jeg fått som svar at det var feil.

Men det var den strategien de fleste deltagerne brukte.

Hva regelen er, er egentlig ikke viktig (men jeg nevner det under). Det som var viktig for Wason var å se hvilke strategier de brukte for å teste hypotesen sin.

Den vanligste måten var å forsøke å bekrefte hypotesen sin. Jeg ser at tallene øker med to hver gang, og dermed blir hypotesen min umiddelbart at de øker med to hver gang. Det var der de fleste gjorde, flere ganger.

Regelen var enkel – tre tall som var ordnet i stigende rekkefølge, men kun 6 av 29 deltagerne fant ut av regelen. Man kunne sagt 2-1300-19000 og fått rett.

Det Wason beskriver er det vi nå kaller for confirmation bias, eller bekreftelsesfellen/bekreftelsestendensen.

Brock sin studie viser også en annen side av bekreftelsesfellen – vi har en tendens til å være mer interesserte i informasjon som bekrefter vårt verdensbilde og meninger, heller enn å oppsøke informasjon som kan tilsi at vi tar feil.

Vi søker å bekrefte heller enn å avkrefte det vi «vet».

Karl Halvor Teigen, som er Norges svar på Kahneman, skriver at feilen som de fleste gjorde var at de «(1) dannet seg en hypotese for tidlig, og (2) testen den stort sett ved å søke bekreftelser, i stedet for, dristigere, å innby til falsifiseringer, det vil si forsøk hvor hypotesen, hvis den er feil, vil kunne avkreftes» (Teigen, 2017, s.22).

Bekreftelsesfellen er ikke bare interessant fra en akademisk kontekst, men også i næringslivet. Dan Lovallo, en professor innen beslutningstaking mener at bekreftelsesfellen er det største problemet til næringslivet (Heath & Heath, 2013, s.11).

Så selv om det er kanskje den biasen som er mest kjent og veldig åpenbart i mange tilfeller, så er det uansett et stort problem, både innen næringslivet, men også generelt.

En av grunnene til at det er et så stort problem er at man i en datainnsamlingsprosess kan føle at man er i gang med å teste ut hypotesen sin, men det man i praksis gjør, er å søke ut bekreftelser på det du tror du allerede vet.

Det som er litt deprimerende er at kunnskap om bekreftelsesfellen ikke nødvendigvis er nok til å motarbeide det.

I 2014 ble en studie som handlet om forskjellige bias, blant annet bekreftelsesfellen, i rettsvitneforklaringer til psykologer i rettssaker. Etter at studien ble publisert måtte forfatterne av studien påpeke en feil de hadde gjort i studien. De hadde, ironisk nok, overvurdert styrken av funnene i studien. De skrev at dette “viser ironisk nok selve poenget i artikkelen: at kognitive skjevheter lett kan føre til feil – selv hos personer som er svært oppmerksomme på og motiverte for å unngå skjevheter” (Sibony, 2020).

Kahneman (som jeg har skrevet litt om tidligere her) skrev i sin berømte bok Tenke, fort og langsomt, om to måter å tenke på: system 1 og system 2. System 1 er rask, automatisk og intuitiv, mens system 2 er langsom og mer ressurskrevende.

System 1 får oss ofte inn i trøbbel i situasjoner der vi heller burde brukt system 2, noe vi ser i bekreftelsesfellen – og i så og si alle andre biaser forøvrig.

Vi kan leve et helt liv der vi bekrefter kunnskapen og holdningen vår, og dette kan vi se blant annet i konspirasjonsmiljøer og lignende. Kanskje er det feil, kanskje ikke. Dersom vi ikke utfordrer det vi «vet», ved å prøve å motbevise det, vil vi leve i konstant mørkt kunnskapshull. Etter blant annet Kahneman sine publiseringer har bekreftelsesfellen blitt “allemannseie”, men til tross for det har det ikke hatt noen effekt på folk sine holdninger, dessverre.

Finnes det måter å minimere bekreftelsesfellen? Det får i tilfelle bli et nytt innlegg i fremtiden!

Et godt eksempel på bekreftelsesfellen i denne YT-videoen:

Kilder:

Brock, T. C. (1965). Commitment to exposure as a determinant of information receptivity. Journal of Personality and Social Psychology2(1), 10.

Wason, P. C. (1960). On the failure to eliminate hypotheses in a conceptual task. Quarterly journal of experimental psychology12(3), 129-140.

Teigen, K. H. (2017) Terningen er rund: Bedømmingspsykologi i tretten kapitler.

Heath, C. & Heath, D. (2013) Decide: How to make better decisions

Kahneman, D. (2011) Tenke, fort og langsomt.

Sibony, O. (2020) You are about to make a terrible mistake: How biases distort decision-making — and what you can do to fight them.