Tillbudet i Forsmark sommaren 2006 – brister i
säkerhetskulturen eller i kunskapsproduktionen?
Johan M. Sanne, april 2008
Tema T Arbetsnotat nummer 323
Alltså, sannolikhet, va, det betyder väl nåt som är likt sanning. Och då är det synd, tycker jag, att
man tydligen från och med i år – på grund av de rådande konjunkturerna – antar jag att vi inte har
råd med några riktiga sanningar längre, utan att man måste nöja sig med sannolikhetskalkyler. För
dom är inte riktigt lika pålitliga. Dom blir till exempel väldigt olika före och efter. Jag menar till
exempel, före Harrisburg… och då var det ju ytterst osannolikt, att det som hände i Harrisburg
skulle hända, men sen så fort det hade hänt, då raka sannolikheten upp till inte mindre än hundra
procent, så att det blev… det blev nästan sant att det hade hänt.
Tage Danielsson, ur Sannolikhetsmonologen, från revyn Under Dubbelgöken, Berns
Salonger, 1980. Återges i Alfredson, H., (1987: 324-325)
1
Innehållsförteckning
Sammanfattning .................................................................................................................................. 3
Förord .................................................................................................................................................. 4
Prolog .................................................................................................................................................. 5
Inledning: bakgrund och syfte ............................................................................................................. 6
Kunskapsproduktion, riskhantering och tillsyn ................................................................................... 7
Metod och data ................................................................................................................................. 10
Hjältar, instruktioner och realtidslogik .............................................................................................. 11
Att bryta mot grundläggande designregler: fel med gemensam orsak ............................................ 14
Brister i säkerhetskultur och säkerhetsstyrning? .............................................................................. 16
Ett olycksfall i arbetet eller ett systemfel i kunskapsproduktionen? ................................................ 18
Slutsatser: improvisation, säkerhetsstyrning och kunskapsproduktion ........................................... 22
Intervjuer och seminarium ................................................................................................................ 24
Referenser ......................................................................................................................................... 24
2
Sammanfattning
Kärnkraften har länge arbetat med att minska riskerna för mänskliga felhandlingar i drift och
underhåll. Men tillbudet i Forsmark 2006 visar att systemets utformning kan vara en större
felkälla. Kärnkraftverket hade inte förutsett den utlösande händelsen och inte konstruerat
systemet för att kunna hantera den. Inte heller Kärnkraftinspektionen (SKI) hade insett dessa
konstruktionsbrister, i likhet med resten av kärnkraftsindustrin i hela världen. SKI och
Forsmark förklarar de två konstruktionsbristerna som en brist i riskanalysen, även om båda
också ser brister i säkerhetskulturen som viktiga att ta itu med för att garantera en säker
verksamhet. I denna förstudierapport analyserar jag hur Forsmark och SKI har beskrivit och
tolkat denna händelse och dess orsaker och vilka åtgärder de har vidtagit som en följd av
denna tolkning. Jag diskuterar också alternativa tolkningar, kunskapsluckor och vilka
övergripande brister i industrins kunskapsproduktion som tillbudet indikerar.
I samband med ett planerat underhållsarbete vid ett ställverk som förbinder Forsmarks
kärnkraftverk med det yttre elnätet bröts förbindelsen mellan reaktor 1 och ställverket.
Turbingeneratorerna kompenserade för bortfallet vilket medförde en kortvarig
överspänningspuls genom reaktorblockets elsystem. Pulsen slog ut hälften av det avbrottsfria
nätet så att delar av den säkerhetskritiska utrustningen slogs ut. Om fyra istället för två
säkerhetssystem hade fallerat hade personalens skickliga ingripande varit nödvändigt för att
undvika skador på härden och i förlängningen härdsmälta.
Jag fokuserar på fyra tematiker:
1. I medierna beskrivs kontrollrumspersonalen som hjältar medan Forsmark och SKI
pekar på värdet av väl utformade instruktioner. Studier av verkligt kontrollrumsarbete
och intervjuer indikerar att instruktioner och träning har varit en nödvändig
förberedelse men att personalens drifterfarenheter varit lika oundgängliga.
2. Tillbudet visade att kärnkraftverket inte var så robust utformat som man kunde
förvänta sig. Bristerna i diversifiering kan ha orsakats av en övertro på tillförlitligheten
i den egna konstruktionen.
3. SKI beskriver hur brister i säkerhetskulturen föranlett särskild tillsyn för att säkerställa
tilltron till Forsmarks förmåga till säker drift. Jag argumenterar för att resonemanget
visar på problematiska antaganden om säkerhetskulturens funktion och kring
organisatoriska orsakssamband.
4. Bristerna i kunskapsproduktionen av det avbrottsfria växelströmsnätet kan ha uppstått
vid tre skilda processer: vid byggandet av Forsmark, brister i riskanalys vid
ombyggnader och/eller från brister i lärande från andra tillbud.
Kunskapen om kärnkraftens risker baseras till stora delar på beräkningar och simuleringar,
även om verkliga händelser används för att utveckla beräkningar och modeller. Samtidigt
måste både företag och myndigheter fatta beslut trots återstående osäkerheter. Men
kunskapsproduktionen kan förbättras också utan olyckor. För det första skulle drift- och
underhållspersonalens kunskaper kunna bidra på ett bättre sätt till att förbättra förståelsen av
hur kärnkraftverket fungerar. Det skulle kräva en utveckling av begreppsapparat och teorier
för dessa kunskaper och kring organisatorisk styrning. För det andra borde den
ingenjörsbaserade riskanalysens metoder, modeller och kriterier för tillräcklig visshet
granskas.
3
Förord
Krisberedskapsmyndigheten har beviljat mig medel för ett projekt kallat Utveckling av
riskbegrepp och riskhanteringsstrategier för minskad sårbarhet i tekniska system. Inom
ramen för detta projekt har jag genomfört en förstudie om tillbudet i Forsmarks kärnkraftverk
den 25 juli 2006. Studien redovisas som föreliggande arbetsnotat. Slutrapporten från projektet
föreligger som Tema T Rapport nr X 2008.
Projektets övergripande målsättning kan kortfattat beskrivas enligt följande: Ökad kunskap
om skilda riskuppfattningar och riskhanteringsmetoder kan förbättra förståelsen av risker i
kritiska infrastruktursystem och ligga till grund för en förbättrad riskhantering. Fokus vilar på
studier av design och hantering av kritiska infrastruktursystem. Projektet ska på ett konkret
sätt visa på användbarheten av olika riskbegrepp. Vilka kunskaper om risker och
riskhanteringsstrategier kan olika riskbegrepp ge oss? I detta ingår att formulera de ofta
marginaliserade riskuppfattningar som finns bland anställda, i miljörörelsen, bland
samhällsvetare etc. Dessa kunskaper och riskhanteringsstrategier kan förbättra förståelsen av
hur komplexa sociotekniska system fungerar – jämfört med renodlat ingenjörsmässiga och
ekonomiska analyser. På detta sätt kan systemen som helhet tillägna sig en större beredskap
inför framtiden: med beredskap menar jag här både kognitivt, det vill säga en större repertoar
av tänkbara händelser, och praktiskt i termer av strategier för att förutsäga, förebygga och
minska konsekvenserna av sådana händelser.
För rapporten och dess innehåll svarar jag själv. Mikael Wiklund genomförde förtjänstfullt
flera intervjuer med inspektörer och MTO-experter på SKI under 2006. Jag vill tacka de
intervjuade personerna, både de Mikael intervjuat och de jag intervjuat för deras tid och
engagemang. Jag vill tacka följande personer för kommentarer på ett utkast till rapporten:
Olle Andersson, Forsmarks kärnkraftverk; Per Bystedt samt de andra deltagarna vid ett
seminarium på Statens Kärnkraftinspektion i mars 2008 (Lars Axelsson, Urban Boström,
Johan Enkvist, Lars Gunsell, Elena Illina, Tomas Jelinek, Bo Liwång, Ralph Nyman, Per-Olof
Sandén) samt mina kollegor i forskningsprogrammet Teknik, Praktik och Identitet vid Tema
Teknik och social förändring. Jag tackar också Krisberedskapsmyndigheten för benäget
bistånd med finansiering för projektet.
Linköping 31 mars 2008
4
Prolog
Figur 2. En illustration av tillbudet i Forsmark 1 den 25 juli 2006. Endast en av två turbiner med
tillhörande generator och endast ett av de fyra säkerhetssystemen syns på bilden. Grafik: Ingemar
Franzén/Ny Teknik.
I samband med ett planerat underhållsarbete den 25 juli 2006 vid ett ställverk som ansluter
Forsmarks kärnkraftverk med det yttre elnätet, bröts förbindelsen mellan reaktor 1 och
ställverket (Metzén m.fl. 2006). Spänningen sjönk och reaktorn gick över till husturbindrift,
det vill säga elproduktion för det egna reaktorblocket och som en effekt snabbstoppades
reaktorn automatiskt ner till 25 procents effekt. När spänningen sjönk blockerades likriktarna i
det batterisäkrade, så kallade avbrottsfria, växelströmsnätet i två (C och D) av fyra
säkerhetssystem, ”subar”, men inte i de andra (A och B): de senare avvek således från
förväntad funktion.
De två turbingeneratorerna kompenserade för spänningsbortfallet genom att höja spänningen
varvid en kortvarig överspänningspuls sändes genom reaktorblockets elsystem. Eftersom
likriktarna inte blockerats för subarna A och B passerade pulsen genom dem och slog ut
växelriktarna: de batterier som skulle säkra spänning i alla lägen kunde inte göra detta. Det
utlöste i sin tur ett fullständigt snabbstopp. Samtidigt gavs en automatisk signal att starta
dieselmotorerna i de fyra säkerhetssystemen. Men eftersom dieslarnas styrning matades från
batterierna stannade dieslarna i A och B snart. Resteffekten innebär dock att reaktorn måste
fortsätta kylas.
Sedan stannade turbinerna och då sjönk generatorernas frekvens. På grund av felkopplade
generatorbrytare kopplades inte generatorerna ifrån. Det innebar att reaktorn inte kunde
kopplas in automatiskt på det regionala 70 kV nätet. Men andra brytare i kärnkraftverkets
interna ställverk kopplades ifrån. Flera strömkällor hade nu kopplats ifrån: 400 kV, 70kV,
husturbindrift och dieselgeneratorerna för sub A och B. Sub C och D var dock fortfarande
5
intakta och eftersom det endast krävs två subar för nödkylning var detta tillräckligt för att kyla
reaktorn. Vattennivån i reaktorn sjönk till från fyra till två meter över härden.
Instrumenteringen i kontrollrummet var missvisande och oklar på grund av bristande
gränssnitt. En del indikationer och larm spänningssatta från sub A och B saknades.
Kontrollrumspersonalen visste inte om styrstavarna för snabbstopp hade gått in och de kände
inte till vattennivån eller trycket i reaktorn. Men personalen kunde med hjälp av sina
kunskaper, utbildning och instruktioner efter ca 20 minuter förstå vad som hänt och de
kopplade in 70kV nätet manuellt. Även utan detta ingripande hade inga skador på härden eller
omgivningen skett men om alla fyra säkerhetssystem fallerat hade personalens ingripande
varit avgörande inom en timme (Idehaag 2007b).
Inledning: bakgrund och syfte
Allmänhetens uppfattning om tillbudet i Forsmark sommaren 2006 är att orsaken var
allvarliga problem med ”säkerhetskulturen” på kärnkraftverket. Forsmark hade allvarliga
problem med dåligt planerade arbeten, vid kontroll av inpassage var en del entreprenörer
alkoholpåverkade, det fanns tendenser till att ta genvägar och ledningen tog inte säkerheten på
tillräckligt allvar (Axelsson 2007). Forsmark och Statens Kärnkraftinspektion (SKI) har också
vidtagit åtgärder för att komma tillrätta med dessa problem: VD fick avgå och styrelsens
sammansättning ändrades. Forsmark har under en lång period stått under särskild tillsyn från
SKI med dagliga rapporter från driften och särskilt inriktade inspektioner av vissa
verksamheter för att utreda brister i säkerhetskultur samt eventuella brister i rutiner och
instruktioner.
Bristerna i säkerhetskultur pekar på väsentliga problem med Forsmarks förmåga till en säker
drift men kärnkraftindustrin är ense om att dessa brister inte i sig orsakade tillbudet. Fyra fel
samverkade vid tillbudet och tre av dem orsakades av olämplig eller felaktig utformning av
komponenter i kärnkraftverkets säkerhetssystem (Metzén m.fl. 2006). Två av de identifierade
bristerna handlar om bristande kunskap om möjliga händelser i elsystemet vilket ledde till en
utformning av komponenter som inte kunde hantera den utlösande händelsen. Ett tredje fel
var känt men accepterat.
Konstruktionsbristerna förtjänar också större uppmärksamhet både vetenskapligt och politiskt
och är mycket svårare att förklara och att åtgärda än brister i attityder och instruktioner.
Konstruktionsbristerna synes bero på brister i kunskapsproduktionen: att förstå hur systemet
fungerar, att identifiera möjliga händelser och deras konsekvenser. Kärnkraftverken är ålagda
att analysera risker och hantera dem i enlighet med SKI:s författningar, både för drift, för
vissa händelser och för förändringar av teknik, organisation och formella rutiner. Vidare är
riskanalysen1 och kärnkraftverkens utformning av teknik, instruktioner och utbildning utifrån
riskanalysen grunden för SKI:s bedömningar och beslut om kärnkraftverkens drifttillstånd.
Systemets utformning är i sin tur en avgörande utgångspunkt för drift- och underhållsarbete i
termer av stöd, begränsningar och praktiska problem.
Tillbudet i Forsmark visar att bristerna i kunskapsproduktionen är värda en egen analys. Den
allvarligaste händelsen i Forsmark, att överspänningspulsen kunde slå ut två av fyra säkerhets1
Med riskanalys menar jag således en rad processer med andra namn inom kärnkraftindustrin:
säkerhetsgranskning, säkerhetsrevision, säkerhetsredovisning.
6
system, var en överraskning inte bara för Forsmark utan också för SKI och för stora delar av
världen. Kärnkraftindustrin och myndigheterna har efter tillbudet arbetat intensivt med att
förstå hur kunskaperna om elsystemet kan förbättras för att undvika liknande händelser i
framtiden (Bystedt 2007).
Men konstruktionsbrister på grund av otillräckliga eller felaktiga kunskaper kan troligen
uppstå i andra delar av kärnkraftverken. All kunskapsproduktion är osäker: det finns alltid
osäkerheter kvar när fakta konstrueras (Vaughan 1996). För kärnkraften kompliceras detta av
de stora konsekvenserna av olyckor och allmänhetens kraftigt negativa reaktioner på tillbud
som inte leder till några skador. Allvarliga tillbud har hållits ner på en mycket låg nivå. Det
innebär också att kunskapen till stora delar baseras på beräkningar och simulering, inte på
verkliga händelser. Men det är omöjligt att simulera alla slags händelser. Samtidigt måste
både företag och myndigheter fatta beslut trots återstående osäkerheter: de måste uppnå
tillräcklig visshet.
I denna förstudierapport analyserar jag hur kärnkraftindustrin har beskrivit och tolkat tillbudet
sommaren 2006 och dess orsaker och vilka åtgärder de har vidtagit som en följd av denna
tolkning. Jag har ett explorativt syfte: jag vill lyfta fram fyra temata som framträder i de
beskrivningar som kärnkraftindustrin gör av tillbudet och diskutera deras betydelse för hur de
uppfattat, beskrivit och hanterat händelsen. Jag diskuterar också kunskapsluckor och vilka
övergripande brister i industrins kunskapsproduktion som tillbudet indikerar. De fyra temata
handlar om:
1. Hur kontrollrumspersonalens arbete karaktäriseras och varför de kunde göra ett
adekvat arbete: hjältar, instruktioner eller erfarenhetskunskap? Hur ska de radikalt
olika bilderna av detta arbete förstås och vilken betydelse får det för hur händelsen
bedöms?
2. Varför de två bristerna i konstruktionen bedömts som allvarliga: Båda skapade så
kallade fel med gemensam orsak som bröt igenom viktiga säkerhetsbarriärer.
3. På vilket sätt som brister i säkerhetskulturen inverkat på tillbudet och den funktion
som säkerhetskulturen fyller i styrningen av verksamheten.
4. Hur man kan förklara varför dessa brister uppkommit: vilka sårbarheter finns det i
riskanalysen som kunskapsproduktion? Handlar det om brister i analysmodeller,
kreativitet eller erfarenhetsåterföring?
Först följer en tentativ redogörelse för tidigare forskning kring kunskapsproduktion,
riskanalys och tillsyn med en diskussion kring de begrepp som jag använder i min analys,
därefter en kort redogörelse för metodinsamling, data och analys. Sedan följer i tur och
ordning de olika temata. Avslutningsvis diskuterar jag slutsatser: hur kan man förstå vad som
hände i Forsmark, vilka kunskapsluckor föreligger, hur kan förståelsen av risker i kärnkraften
förbättras och vad finns det för behov av ytterligare forskning.
Kunskapsproduktion, riskhantering och tillsyn
För att förstå vad som gick fel i Forsmark och de övergripande problem som det illustrerar är
det nödvändigt att studera kunskapsproduktionen i kärnkraftsindustrin, inklusive
tillsynsmyndigheterna. Kunskapsproduktionen är avgörande för vad som betraktas som risker
7
och hur de hanteras, för teknisk utformning och för drift och underhåll samt för
tillsynsarbetet. De dominerande begreppen i denna text är kunskapsproduktion, tillräcklig
visshet, riskobjekt, policy-logik, kalkylerad logik och realtidslogik.
Inom samhällsvetenskapliga teknik- och vetenskapsstudier betraktas teknisk och vetenskaplig
kunskapsproduktion som en socioteknisk process. Vad som är kunskap betraktas som en
empirisk fråga (Helgesson och Fernler 2006). Kunskap är det som kunskapsproducenterna
bestämmer sig för är kunskap. Vetenskaplig kunskapsproduktion omfattar osäkerheter
baserade på de antaganden, bedömningar, val av beräkningar, val av teorier, vilka data som
samlas in och vilka som betraktas som relevanta, hur data behandlas, vad som betraktas som
bevis för något, liksom beslut om tillräcklig visshet och acceptabla felkällor (Vaughan 1996;
Summerton 2002). Kunskapsproduktion sker inte enbart inom vetenskapen, utan i alla sociala
sammanhang, exempelvis i kärnkraftverkens kontrollrum och vid underhållsarbete.
Kunskapsproduktionen är en del av det meningsskapande som formas av gemensamma
uppgifter, ett verktyg för att kunna hantera dessa uppgifter och för andra sociala funktioner
som att stå ut med arbetet eller att ha roligt på jobbet, att hantera överordnade etc. (Wenger
1998).
Om riskanalys betraktas som kunskapsproduktion blir riskbedömningar konstruerade i en
socioteknisk process, även om faran finns där oavsett bedömning. Kunskapsproduktionen
avgör vad som betraktas som riskfyllda aktiviteter, komponenter och situationer, eller med
andra ord riskobjekt (Hilgartner 1992). Vilka riskobjekt som pekas ut har i sin tur betydelse
för hur riskhanteringen utformas. Men riskobjekten kan också konstrueras olika i skilda
kunskapsprocesser. Före olyckan vid Three Mile Island betraktades de tekniska riskerna som
de mest relevanta riskobjekten men efter olyckan riktades fokus mot den så kallade mänskliga
faktorn (Perrow 1999). Efter olyckan vid Tjernobyl riktade IAEA uppmärksamheten mot
säkerhetskulturen, vilket kan ses som en kollektiv mänsklig faktor och på senare år har
intresset inriktats mot andra organisatoriska fenomen som avreglering av elmarknaden,
processorientering mm (se exempelvis Sanne 2006).
Det mest dominerande perspektivet inom riskforskning och riskhantering är
ingenjörsperspektivet (Hultman 2005). För ingenjörsperspektivet är människor i huvudsak
felkällor; olyckor orsakas av bestämda felkällor; risker kan och måste kvantifieras; risker
värderas som produkten av sannolikhet och konsekvens; och risker kan hanteras med mer
teknik. Det ska tilläggas att teknik inte ska förstås enbart i konventionell mening. Även
regelverk, handböcker, instruktioner och utbildning och andra former av säkerhetsstyrning är
teknik. Produktionen och användningen av denna kunskap är en reglerande praktik med
vilken felkällorna hanteras.
Antropologen Constance Perin som studerat meningsskapande vid amerikanska kärnkraftverk
genom dokument och intervjuer om fyra tillbud hävdar att kärnkraften styrs genom tre olika
kulturella logiker: kalkylerad logik, realtidslogik och policy-logik (Perin 2005). Den
kalkylerade logiken bygger på en ingenjörsmässig analys där kvantifiering och
sannolikhetsberäkningar är nödvändiga för att risker ska uppmärksammas och leda till
förändringar. Realtidslogiken utformar det dagliga arbetet och kompenserar för brister i
resurser, tekniska komponenter, och säkerhetsstyrning samt organiserar arbetet efter den
fysiska processens specifika omständigheter. Realtidslogiken innebär att organisationen inte
styrs såsom ledningen föreställer sig det men likväl är den nödvändig för en säker drift. Men
den kalkylerade logiken, eller ingenjörslogiken, är statusmässigt överordnad och det är den
som i första hand används för att utforma utbildningar, inte realtidslogiken. Den senare får
8
man lära sig i arbetslaget. Perin argumenterar för att den kalkylerade logiken alltid är
bristfällig i relation till verkliga omständigheter och att realtidslogiken skapar kunskaper som
kunde användas bättre för att förstå systemet och skapa säker och tillförlig drift. Realtidslogik
och kalkylerad logik är renodlade perspektiv och används i olika situationer av samma
individer men för olika uppgifter. Dessutom är det skillnader i status och hur utvecklad
terminologin är. Den kalkylerade logiken har hög status och väl utvecklad teoribildning och
terminologi medan realtidslogiken till stora delar baseras på kroppslig kunskap, subtila
signaler, tyst kunskap mm och därmed har svårt för att hävda sitt värde och sin betydelse vid
sidan av den kalkylerade logiken. Policylogiken hanterar att företagsledningarna vid
kärnkraftverken måste navigera mellan krav från myndigheter och ägare kring säkerhet och
ekonomi. Detta leder till att kunskaper som kommer fram från händelser inte alltid omsätts i
förbättringar. De kräver kvantitativa bevis på att förslag till åtgärder förbättrar säkerheten mer
än andra åtgärder: realtidslogiken har lättare att hävda sina kunskaper vid policybeslut.
Ingenjörsperspektivet dominerar inom det samtida tillsynsarbetet: en riskanalys ska göras och
olika tekniker för säkerhetsstyrning ska upprättas (Hopkins 2003; SKI 2004). Riskanalysen
skapar anspråk på tillräcklig kunskap om relevanta risker och hur de ska hanteras och anspråk
på kontroll över riskerna genom föreslagna åtgärder. Forsmarkshändelsen visar att bristerna i
den kalkylerade logiken skulle kunna räddas av realtidslogiken men annan forskning visar
också att det finns tillfällen när realtidslogiken inte räcker till för att rädda situationen:
realtidslogiken har en begränsad räckvidd (Sanne 2008a). Därför bör den ingenjörsbaserade
riskanalysen, den kalkylerade logiken, som är grunden för den formella riskhanteringen och
tillsynen granskas, eftersom osäkerheter i riskanalysen får konkreta konsekvenser för hur
riskerna hanteras (Hopkins 2003).
Riskanalys är särskilt sårbart för osäkerheter i kunskapsproduktionen eftersom den handlar
om framtida möjliga händelser och i synnerhet när det handlar om systeminteraktion. Det
finns en möjlighet att lära från tidigare händelser men det begränsas av problem med
överförbarhet till nya situationer och den kalkylerade logikens bristande förmåga att tolka och
förstå betydelsen av dessa händelser, i synnerhet för icke-kvantitativa data (Perin 2005).
Dessa osäkerheter accentueras än mer för hög-risk aktiviteter för vilka olyckor är sällsynta,
vilket innebär att kunskapen i hög utsträckning baseras på beräkningar och simuleringar
istället för verkliga händelser. Kanske är kärnkraft det mest extrema exemplet: allvarliga
tillbud är mycket sällsynta och än mer olyckor. Konsekvenserna av en allvarlig olycka är så
stora att man inte tillåter sig att lära sig från erfarenheten i samma utsträckning som i andra
system. Individuella komponenter känner man till men systematiska interaktioner är mindre
kända. Det är därför inte förvånande att det sker tillbud och varför de beskrivs som
överraskningar – de var inte förväntade.
Hur kan man förklara hur brister i riskanalysen bidrar till olyckor? Undertiteln till Turner och
Pidgeons bok Man-Made Disasters: The failure of foresight (1997) ger en ledtråd. Perrow
(1999) beskrev olyckor inom ett komplext sociotekniskt system som kärnkraften som
oundvikliga: de är normala konsekvenser av hur systemet är organiserat. Även om man inte
delar Perrows ståndpunkt att olyckor är oundvikliga ger detta perspektiv en påminnelse om att
normal produktion i många säkerhetskritiska system ger upphov till risker som skulle kunna
leda till olyckor. Om riskerna är ständigt närvarande i vardagen måste de också hanteras varje
gång som de uppträder. Forskningen om högtillförlitliga organisationer och ”resilience
engineering” visar att detta är möjligt under vissa förutsättningar (LaPorte och Consolini
1991; Hollnagel, Woods, och Leveson 2006). Säkerhet skapas således genom att risker
hanteras i en framgångsrik praktik. I ett sådant perspektiv, argumenterar Turner och Pidgeon
9
(1997), kan olyckor och tillbud betraktas som sammanbrott för en eller flera
säkerhetsskapande processer. Sammanbrottet har fysiska konsekvenser i termer av skada på
liv och lem men innebär också en utmaning mot föreställningar om vad som utgör relevanta
riskobjekt och adekvata säkerhetsskapande processer.
Metod och data
Jag har samlat in data genom att läsa dokument, tidningsartiklar och offentliga dokument från
SKI och Forsmark och jag har intervjuat ett antal personer som jag bedömt kunna bidra med
relevant kunskap. Dokumenten finns listade i referenslistan. De intervjuade är Roger
Axelsson, säkerhetschef på Oskarshamns kärnkraftverk; Klas Pihlquist, säkerhetschef vid
Ringhals kärnkraftverk och Maria Hedeklint, chef för Människa-Teknik-Organisation vid
samma kärnkraftverk; Olle Andersson, tillförordnad säkerhetschef vid Forsmarks
kärnkraftverk; Jan Hanberg, chef för enheten för säkerhetsanalys vid SKI samt Björn
Karlsson, professor i energisystem vid Linköpings universitet och ordförande i SKI:s
reaktorsäkerhetsnämnd. Intervjuerna spelades in och har transkriberats av Eva Alm. Jag har
också analyserat de intervjuer som Mikael Wiklund gjorde med inspektörer och MTOexperter vid SKI tidigare under 2007. Dessa intervjuer är anonymiserade.
Vid intervjuerna och i analysen har jag sökt efter informanternas och dokumentförfattarnas
tolkning av Forsmarkstillbudet, både specifikt och som ett generellt problem, särskilt med
avseende på riskanalys, riskhantering och tillsyn. Jag har letat särskilt efter hur informanterna
och dokumentförfattarna beskriver problemet:
1. Vad hände och på vilket sätt var det allvarligt?
2. Vilka riskobjekt identifierar de och hur motiverar de dessa?
3. Vilka konsekvenser får valet av riskobjekt för deras uppfattning av händelsen och hur
den bör hanteras?
4. Vilka processer för utformning, drift och underhåll har bidragit till händelsen?
5. Hur relaterar de händelsen till normala former för kunskapsproduktion inom
kärnkraften?
6. Hur avviker händelsen från de normala mönstren för att tolka och hantera risker?
7. Kan man identifiera tillfällen och kriterier för tillräcklig visshet för att kunna fatta
säkerhetskritiska beslut?
Förstudien är fokuserad på de som varit närmast berörda. Jag har velat utgå i första hand från
de problem som dessa identifierat för att förstå de åtgärder som vidtagits. Det är därför som
det finns ett så starkt fokus på Olle Andersson, tillförordnad säkerhetschef på Forsmark.
10
Hjältar, instruktioner och realtidslogik
Here we have the essence of a normal accident: the interaction of multiple failures that are not in a
direct operational sequence. You may underline that definition but there is another ingredient that
we have not explored in detail – incomprehensibility (Perrow 1999: 23).
Utöver en oväntad händelse med fallerande indikationer, larm och belysning, försvårades
kontrollrumspersonalens förståelse av vad som hänt av brister i konstruktionsarbete, i
utbildningen samt brister i utformningen av elsystemets presentation i kontrollrummet.
Samtliga bedömare är ense om att personalen trots dessa svårigheter agerade förtjänstfullt och
att de hade kunnat förhindra skador på härden och i förlängningen en härdsmälta, om fyra
säkerhetssystem slagits ut. En teknisk barriär för att förhindra skador på omgivningen fanns
dock intakt.
Personalen utgjorde således inte något riskobjekt, tvärtom illustrerar de bristerna i
anläggningens konstruktion med sitt kompetenta agerande. Samtidigt ser det ut som om
kärnkraftsindustrins beskrivning av orsakerna till deras kompetenta agerande stärker den
kalkylerade logikens uppfattningar av riskobjekt och med vilka kunskaper och metoder
säkerhet skapas. Jag kommer först att redogöra för hur SKI framställer personalens roll vid
tillbudet och vilken roll de kunde ha haft om fyra säkerhetssystem slagits ut och därefter hur
kontrollrumspersonalens agerande beskrivits och hur jag tolkat dessa beskrivningar.
Vid tillbudet i Forsmark slogs två av fyra säkerhetssystem ut men eftersom det endast krävs
två säkerhetssystem för att kyla reaktorn så kunde de två intakta systemen förhindra skador på
bränslet och i förlängningen härdsmälta, utan att personalen behövt ingripa (Bennemo 2006).
Men om fyra system slagits ut så hade personalen behövt ingripa för att förhindra skador på
härden, om än inte på omgivningen, skriver Klas Idehaag, anläggningsansvarig för Forsmark
på SKI:
Om inträffad störning inneburit att alla reservsystem för elförsörjning blivit spänningslösa hade det
krävts manuella operatörsingrepp inom 1 timme för att undvika allvarliga härdskador.
Bedömningen är att förutsättningar funnits för att dessa operatörsingrepp utförts och att erforderligt
kylflöde till härden därmed skulle vara återupprättat 10-40 minuter efter inträffad störning/…/ Utan
åtgärder bedöms härden efter 5-6 timmar kunna smälta igenom reaktortanken och hamna i den med
vatten fyllda reaktorinneslutningen. För detta fall finns de konsekvenslindrande systemen som
automatiskt aktiveras för att tryckavlasta reaktorinneslutningen genom filter. Filtret tar upp 99,9%
av härdens frisläppta aktivitet för att minimera påverkan på omgivning och tredje man (Idehaag
2007b).
Vid en första anblick ser det som om bilderna av kontrollrumspersonalens arbete på Forsmark
1 vid tillbudet skiljer sig radikalt från varandra och att de skiljer sig åt från forskningen om
verkligt, icke-simulerat, kontrollrumsarbete. Förtjänsten för personalens agerande tillskrivs
helt olika kunskaper eller mekanismer samtidigt som ingen av dem är helt tillfredsställande. I
medierna beskrevs personalen som hjältar. Vid intervjuer vill de själva inte kännas vid en
sådan beskrivning (Eriksson 2006). Jag tror inte heller att kärnkraftindustrin vill förlita sig på
hjältar: alla operatörer måste anses tillräckligt bra. Forsmark och SKI framställer i sin
dokumentation kontrollrumspersonalens arbete som ett resultat av att de noggrant följde väl
utformade instruktioner och med stöd från en gedigen simulatorträning i en förvirrande och
stressig situation, där information saknades eller var missvisande (Metzén mfl. 2006). Olle
Andersson, biträdande säkerhetschef på Forsmark, beskriver arbetet på ett sätt som ger
11
associationer till en väl inövad, koreograferad dans, där personalen blir komponenter i
kärnkraftverkets maskin:
ANDERSSON: När man får en sådan här störning, då går man in i ett arbetssätt i kontrollrummet
som är styrt på ett speciellt sätt. Man gör någonting som kallas för första kontroller. Man
positionerar sig rent fysiskt i kontrollrummet på ett visst sätt. Man tar fram förbestämda
instruktioner och man följer ett inövat arbetssätt där man kontrollerar viktiga parametrar. Hur är
läget på den här parametern? Hur är läget på den här parametern och så vidare. Vad som sen faller
ut av det, det är förutbestämt utav det här schemat. Och det man kan komma fram till av den
proceduren det är då att alla styrstavar har gått in som de ska. Halva elutrustningen där har man
inga signaler överhuvudtaget. Man kan ganska enkelt sluta sig till att det är ett elbortfall. Det är inte
så fruktansvärt svårt (intervju, december 2007).
Här ser det ut som om Olle Andersson hävdar att instruktionerna i sig gav ett tillräckligt stöd
för att fastställa vad det grundläggande felet var. Det är inte hela sanningen: instruktioner är
nödvändiga för att hantera en så ovanlig situation men utan drifterfarenhet står man sig slätt.
Studier av verkligt kontrollrumsarbete visar att arbetet utformas till stor del utifrån kunskaper
som man lär sig genom att delta i den dagliga driften och genom sina arbetskamrater (Mumaw
m.fl. 2000). Kontrollrumspersonalen letar efter fel hela tiden, de övervakar vissa kritiska
variabler och de ifrågasätter orimliga värden, de jämför olika signaler och diskuterar hur de
ska tolkas. Intervjuer med kontrollrumspersonalen på Forsmark och med Olle Andersson visar
att de arbetat på detta sätt under tillbudet (Eriksson 2006).
ANDERSSON: Man kan läsa av nivån och se var nivåerna är för någonting. Och man kan läsa av
trycket i reaktorn. I och för sig så kan man få motstridiga uppgifter, för två instrument visar ju den
rätta nivån så att säga. Två visar någonting annat, tokigt då, eftersom det är en annan
elkraftmatning. Å andra sidan så kan man då bedöma att det här är tokiga värden, det är två som
visar rätt och då går vi nog på det som visar rätt. För att de här tokiga värdena det är liksom
extremer det är fullt utslag på mätaren eller inget utslag alls (intervju, december 2007).
Olle Andersson beskriver sedan kontrollrumsarbetet ungefär som Mumaw mfl: ”Personalen
fokuserar på några viktiga parametrar: styrstavarna, tryck, vattennivån, hur elsystemen är
organiserade. Sedan när man är säker på att störningen är säkert omhändertagen så tar man
hand om larmen”. Efter 22 minuter var operatörerna tillräckligt säkra på vad som kunde ha
hänt och de bestämde sig för att koppla in 70kV nätet manuellt. Efter 45 minuter kunde
personalen med säkerhet konstatera att reaktorn med säkerhet var avställd och att kylningen
av resteffekten fungerade som den skulle.
Forskningen om kontrollrumsarbete har tagit sin utgångspunkt i den kalkylerade logikens
föreställning om att kontrollrumsarbetet handlar om att passivt invänta larm och på människor
som felkällor eller riskobjekt som kräver stödjande eller kontrollerande teknik. Det har
förekommit en del diskussioner kring den så kallade rådrumsregeln, eller 30-minutersregeln, i
samband med tillbudet i Forsmark. Vid olyckan vid Three Mile Island (Harrisburg) i USA
1979, översköljdes kontrollrumspersonalen av felmeddelanden som de inte hade tid att ta
ställning till. Efter denna olycka ställde SKI på att svenska kärnkraftverk ska vara
konstruerade så att kontrollrumspersonalen inte skulle behöva fatta några beslut inom 30
minuter efter ett larm: en händelse skulle inte kunna utvecklas till en härdsmälta inom denna
tid. Men det är inte förbjudet att agera innan 30 minuter gått. Stora resurser läggs ner på att
mäta och modellera så kallad mänsklig tillförlitlighet för att kunna utforma systemen så att de
kan tolerera operatörsfel.
12
Rådrumsregeln är utan tvivel till stor nytta för operatörerna för att minska stress och öka
förmågan att förstå och hantera en händelse korrekt, inte minst vid tillbudet i Forsmark.
Forskningen om verkligt kontrollrumsarbete i processindustrier visar dock också att arbetet
vid normal drift och vid tillbud inte skiljer sig så markant från varandra som man kan tro
(Mumaw m.fl. 2000; Hirschhorn 1993; Bergman 1995). Det normala arbetet handlar om att
upptäcka och avvärja tillbud, inte om att passivt invänta larm. Det handlar således inte enbart
om att följa instruktioner och vad man lärt sig i simulatorutbildningar.
Bilden av personalens arbete som hårt styrd av instruktionerna ligger i linje med den
kalkylerade logikens anspråk på att utforma ett säkert system och där människor är felkällor
som måste kontrolleras med teknik av olika slag. Men föreställningen om människor som
felkällor är problematisk av flera skäl och både Forsmark och SKI tar avstånd från den. Den
bortser från de tillfällen där operatörerna räddar situationen, såsom de kunde ha gjort i
Forsmark. Den utgår från att det är instruktioner och simulatorutbildning, i enlighet med den
kalkylerade logiken, som gör att personalen kan rädda situationen. Men värdet av
instruktioner och simulatorträning begränsas delvis av de kunskaper som utvecklats inom den
kalkylerade logiken och som ligger till grund för de scenarier som övas. Operatörerna kan
förvisso i viss utsträckning överföra kunskaper de lärt sig till problem som inte ingått i dessa
scenarier men det finns gränser för överförbarheten. Förutsättningarna för att lösa problem
som inte förutsatts eller som skapats av den kalkylerade logiken kan därmed svårligen lösas
enbart med samma kunskaper. Det krävs också andra kunskaper, från realtidslogiken, den som
skapas i arbetet och genom arbetslaget. Eftersom problemet som uppstod inte fanns med i
kärnkraftverkets säkerhetsredovisning (den kalkylerade logikens riskanalys) kunde
operatörerna inte förbereda sig fullt ut på just detta problem enbart genom instruktioner och
simulatorträning. De måste tillgripa sin egen erfarenhetsbaserade kunskap, realtidslogik, om
kärnkraftverket och hur det fungerar.
Vidare är det missvisande att tala om mänskliga faktorn i allmänhet. Det är inte vilka
människor som helst som arbetar i kontrollrummen: det är högt utbildad personal med lång
erfarenhet av att hantera brister i den tekniska utformningen. Delar av elsystemet i Forsmark
hade byggts om 2005 vilket hade resulterat i brister i operatörsstödet: kontrollutrustning,
instruktioner och skyltning samt utbildning (Bennemo 2006). En bristande utformning av
viktiga människa-maskin gränssnitt, orsakade av brister i den kalkylerade logiken försvårade
kontrollrumspersonalens arbete (Idehaag 2007a). Men analysen av kontrollrumspersonalens
arbete visar att de ändå kunde ha hanterat ett fullständigt bortfall av alla säkerhetssystem.
Man kan dra tre slutsatser från detta resonemang. För det första att instruktioner och träning
varit en nödvändig förberedelse men att realtidslogiken är lika oundgängliga för att nå
tillräcklig visshet och kunna agera efter den. För det andra att kontrollrumspersonalen hade
kunnat bli den sista barriären mot skador på härden och även mot härdsmälta om fyra istället
för två säkerhetssystem brustit. För det tredje att förståelsen av kontrollrumspersonalens roll
inte illustrerats på ett tydligt sätt i rapporterna kring Forsmarkshändelsen. Kanske är det så att
”hälsan tiger still”: men det är viktigt att också utveckla berättelser och teorier om vad som
fungerar väl. Kanske är det dock så att det räcker för SKI att ta reda på att personalen skulle
ha kunnat ta hand om situationen även om fyra system slagits ut: det är en tillräcklig visshet
som pekar på att Forsmark har haft nödvändiga förutsättningar för att undvika en olycka med
skador på person eller miljö.
13
Att bryta mot grundläggande designregler: fel med gemensam orsak
System accidents involve the unanticipated interaction of multiple failures (Perrow 1999: 70, kursiv
i original).
ANDERSSON: Det är alltså tre fel som föreligger samtidigt. Två utav de här felen är av så kallad
CCF natur. Common cause failure2. Det är de felkopplade frekvensunderskydden till generatorerna
och det är den här bristande selektiviteten i UPS3 (intervju, december 2007).
De fyra fel som orsakade tillbudet verkar alla handla om misslyckanden för den kalkylerade
logiken. Den utlösande händelsen var en felkoppling i det externa ställverket vilken har
tillskrivits bristande planering och instruktioner (Andersson 2007). De två andra beror på att
konstruktions- och installationsarbetet på kärnkraftverket inte förmått att identifiera möjliga
risker och därmed inte utformat systemet så att det kunde tåla den utlösande händelsen. Detta
avsnitt visar varför felet bedömt som allvarligt: det pekar på brister i Forsmarks djupförsvar,
det vill säga i kunskap om och kontroll över kritiska processer.
Den utlösande händelse som orsakades av Svenska Kraftnäts bristande hantering av
ställverket har av samtliga intervjuade förklarats som olycklig men egentligen skulle denna
händelse inte vara avgörande: ett kärnkraftverk ska utformas så att det tål den typen av
händelser. Detta avsnitt behandlar därför de tre bakomliggande felen i kärnkraftverkets
utformning och orsakerna till dem: olämpliga spänningsnivåer för likriktare och växelriktare
för det så kallade avbrottsfria nätet, dieslarnas beroende av batterier för varvtalsstyrningen
samt de felaktigt installerade frekvensskydden för turbingeneratorerna. Dessa fel fick stora
konsekvenser eftersom de orsakade flera andra fel i anläggningen. Överspänningspulsen slog
ut växelriktaren i det så kallade avbrottsfria nätet för sub A och B så att ström från batterierna
inte kunde sändas vidare och det orsakade stopp för dieslarna i sub A och B. Frekvensskydden
stängde inte av spänningen när frekvensen gick ner vilket innebar att 70 kV nätet inte kunde
kopplas in och att spänningen slogs ifrån längre ner i reaktorblocket: spänning från turbinerna
kunde därmed inte nå dieslarnas styrning. Alla källor för att mata delar av den
säkerhetskritiska utrustningen, bland annat belysning, indikatorer och larm i kontrollrummet
liksom en del av nödkylningen försvann.
Fel med gemensam orsak är allvarliga och välkända problem för kärnkraften, som det bedrivs
forskning och utvecklingsarbete kring (se t.ex. OECD 2000; Johansson 2003). Eftersom
konsekvenserna av en allvarlig olycka inom kärnkraften har bedömts så allvarliga har
branschen och det politiska etablissemanget sett det som nödvändigt att ha en mycket låg
sannolikhet för kärnkraftsolyckor. Branschen hävdar att kärnkraftverken är utformade så att
de kan hantera de flesta tänkbara händelser. Att bryta mot en säkerhetsbarriär i andra
industrier väcker inte så stor uppmärksamhet men i kärnkraften väcker även ett brott i en
barriär uppmärksamhet eftersom det antyder att kontrollen inte är så god som branschen gör
anspråk på. Enskilda komponentfel bör därför ha begränsade följder och verken byggs så att
de kan hantera dem. Men fel med gemensam orsak kan få allvarligare följder samtidigt som
de är svårare att beräkna i så komplexa system.
Tillsynsmyndigheterna definierar de kriterier som kärnkraftverken ska uppfylla i termer av
funktionskrav (SKI 2004). Ett av dem är en robust design, det vill säga en utformning som
2
Fel med gemensam orsak.
Uninterruptible Power Supply, det avbrottsfria nätet som alltid ska kunna vara spänningssätt för att försörja
vissa säkerhetskritiska komponenter.
3
14
klarar vissa specificerade händelser, så kallade dimensionerande händelser. En robust design
ska också vara ”konservativ”, det vill säga den ska vara överdimensionerad så att den klarar
också en del oväntade händelser som inte funnits med i riskanalysen. Kärnkraftverket ska
kunna motstå både dimensionerande händelser och oväntade händelser utan eller med en
mycket låg sannolikhet för en olycka som innebär skador på omgivning, personskador eller
radioaktiva utsläpp.
Tillbudet i Forsmark visar att kärnkraftverket inte var så robust utformat som man kunde
förvänta sig. Robusthet uppnås genom redundans och diversifiering för att uppnå oberoende
delsystem. Redundans skapades genom att ha fyra parallella säkerhetssystem eller subar,
varav endast två krävs för att kyla resteffekten. Säkerhetssystemen var i hög utsträckning
redundanta, hävdar Olle Andersson på Forsmarks kärnkraftverk:
ANDERSSON: Varje stråk, varje sådan här sub är oberoende av varandra. Det finns ingen
gemensam punkt som har felat. Däremot finns det utrustning i respektive parallellt stråk som felat.
/../ Varje dieselgenerator försörjer sina pumpar och har sina kabelvägar. Vissa gemensamma
utrymmen passerar de igenom som en brand till exempel möjligen skulle kunna påverka utrustning
i flera subar. Men det finns ingen annan funktionell eller fysisk sammankoppling mellan de här fyra
subarna (intervju, december 2007).
Redundansen mellan de olika säkerhetssystemen (subarna) är god. Men inom varje sub är
beroendet stort mellan de olika delarna:
ANDERSSON: Inom suben så är allting beroende av varandra: det finns inte en pump här som inte
är eldriven. Så alla pumpar är ju beroende av elkraft. Alla ventiler, många ventiler är beroende av
tryckluft. Det finns massa med gemensamma funktioner inom varje sub. Men den där suben där,
den är inte beroende av elmatning från den suben. Redundansen är så att säga fullständig i den
funktionella konstruktionen (intervju, december 2007).
Utformningen har utgått från att subarna ska vara oberoende från varandra men beroenden
inom subarna har inte analyserats lika noga vilket fick till följd att diversifieringen brast.
Subarna har en progressiv konstruktion med två kännetecken. För det första måste vissa delar
av kärnkraftverket kunna klara att vara spänningslösa en kortare tid medan andra alltid måste
vara strömförsörjda. De senare ska alltid kunna spänningssättas genom det så kallade
avbrottsfria växelströmsnätet (UPS), den batterisäkrade delen av subarna. Men detta nät bröt
samman i två av subarna. För det andra, eftersom dieslarna krävde elmatning för
varvtalsstyrningen, matning som bara kunde komma från batterierna eftersom matningen från
turbinerna kopplats ifrån, orsakade detta fel följdfelet att dieslarna stannade strax efter start.
Detta orsakade problem även för de delar av kärnkraftverkets säkerhetskritiska funktioner
som klarar en kortare tid med spänningsbortfall. Men eftersom bara två av subarna fallerade
räckte det för att kyla resteffekten.
Diversifiering kan också uppnås genom att samma funktion erhålls med olika tekniska
lösningar eller med olika fabrikat: på det sättet ska inte ett enkelfel kunna slå ut flera
komponenter eller delsystem samtidigt. Men de fyra subarna hade en identisk konstruktion
som dessutom innebar ett beroende mellan delar som ska vara oberoende av varandra (dieslar
och batterisäkrat nät). I efterhand framstår därför konstruktionen som olämplig:
ANDERSSON: Man kan fundera över lämpligheten att försörja dieslarnas logik via det här
avbrottsfria växelströmsnätet. Är det tillräckligt okomplicerat? Kan man göra det här bättre? Kan
man höja säkerheten genom att till exempel mata det från mindre komplicerat nät? Och det har man
väl tittat på, idag anser man nog att man har gjort det då till viss del i alla fall. Idag är de
15
kraftförsörjda på så sätt att två är kopplade precis som de var innan och två är kraftförsörjda från ett
annat nät. Så att en viss diversifiering finns mellan subarna då (intervju, december 2007).
Dieslarnas beroende av UPS:erna var naturligtvis ingen nyhet: det fanns med i
säkerhetsredovisningen och uppfyllde gällande krav men uppenbarligen var detta inte
tillräckligt. Det är troligt att elsystemet är mer analyserat och säkrare idag inte bara på
Forsmark. Men det är ironiskt att diskutera huruvida man kan lita på ett avbrottsfritt nät. Om
man kallar något för ett säkerhetskritiskt system så innebär det att man definierar andra delar
som mindre värda uppmärksamhet (Perin 2005). Om man kallar ett system för avbrottsfritt så
signalerar man att det är konstruerat så att man kan visa att det är avbrottsfritt, och kan
användas som stöd för andra delar. Kanske betraktades diversifiering som onödigt när man
sade sig ha konstruerat ett avbrottsfritt nät. Diversifiering kostar mer, i konstruktion och
underhåll. Dessutom riskerar fler olikartade tekniker att leda till risk för nya, okända
interaktioner (Andersson, december 2007).
Forsmarks kärnkraftverk var inte så robust som de själva och SKI uppfattade det. Orsakerna
till tillbudet var två fel med gemensam orsak som inte kärnkraftverket identifierat och kunnat
förebygga. Frågan uppstår därmed vad det beror på och om det kan finnas andra dolda fel. Att
endast två säkerhetssystem fallerade trots samma konstruktion var turligt men också märkligt
och svårt att förklara. Varken SKI eller Forsmark kan med bestämdhet säga varför så var
fallet men hävdar att de förklaringar som föreligger är tillräckliga för att kunna gå vidare med
att utveckla en mer robust konstruktion (seminarium på SKI, mars 2008).
Brister i säkerhetskultur och säkerhetsstyrning?
Den inträffade händelsen visar enligt SKI:s bedömning att säkerheten inte fått den prioritet som
djupförsvaret förutsätter. I SKI:s granskningsrapport av händelsen (SKI 2006/779)4 noterades ett
antal brister som är tecken på brister på säkerhetskultur. SKI gjorde bedömningarna att det fanns
brister i kvalitetsrutiner i samband med anläggningsändringar, underhåll och provning vilket var
bidragande orsaker till komplexiteten i denna händelse. Forsmark 1 gjorde under
revisionsavställningen 2005 större ombyggnader i elsystemet och dess presentation i
kontrollrummet. Ombyggnaden innebar bland annat införande av bildskärmsbaserad övervakning
för delar av elsystemet och ny litterering på elkomponenter. Den nya littereringen krävde
förändringar i dokumentation och utbildning av personal. Detta konstaterades inte var till fullo
genomfört vid tiden för händelsen i Forsmark. SKI noterade även att skiftlagens instruktionspaket
för elsystemen inte var komplett med fastställda utgåvor för det nya littereringssystemet. Vidare
identifierades att för övervakning och manövrering av komponenter i elsystemet finns brister i
operatörsstödet (kontrollutrustning, instruktioner, skyltning etc.) vid Forsmark 1 (SKI 2006: 2-3,
min kursivering).
Både Forsmark och SKi hävdar att de direkta orsakerna till tillbudet var brister i
konstruktionen (Metzén mfl. 2006; Bennemo 2006). Citatet ger dock intryck av att SKI anser
att brister i säkerhetskulturen varit en bidragande orsak till tillbudet. Men det är fel: SKI anser
att brister i säkerhetskulturen bidrog till att försvåra förståelsen och hanteringen av händelsen
och att en del andra brister i säkerhetskulturen, bland annat ledningens prioritering av
produktion framför säkerhet, som kommit fram i samband med tillbudet pekar på brister i
säkerhetskulturen på ett sätt som äventyrar SKI:s förtroende för Forsmarks förmåga till säker
4
Den bästa referensen här är Bennemo 2006.
16
drift och därmed motiverat särskild tillsyn och riktade inspektioner mot vissa områden
(seminarium på SKI, mars 2008).
Men framställningen av säkerhetskulturens funktion är problematisk, även om den inte
orsakade tillbudet. Utöver de brister som pekas ut i citatet ovan lyfter både SKI och Forsmark
fram ledningens prioritering av säkerhetsarbetet (Idehaag 2007a). För SKI och Forsmark
verkar säkerhetskultur handla om attityder som mer eller mindre indirekt indikerats genom
olika tecken. Bristerna i elsystemets utformning och i utbildning och formella rutiner samt
andra tecken såsom att man inte gick ner till kall avställning direkt efter händelsen och inte
rapporterade tillbudet på rätt sätt har tolkats som ett resultat av brister i tekniken för att styra
delar av verksamheten i form av formella rutiner. Dessa brister har i sin tur tolkats som ett
uttryck för brister i ledningens säkerhetskultur, mer precist som engagemang, prioriteringar
och attityder. Säkerhetskulturen såsom attityder antas ha en organiserande funktion.
Säkerhetskulturen gör därmed ett dubbelt, men oklart arbete: som analysverktyg och som
styrmedel.
SKI har som en del av granskningen av händelsen och den särskilda tillsynen inspekterat ett
antal av Forsmarks formella rutiner och krävt förändringar på en del områden (Idehaag
2007a). Men resultatet av SKI:s inspektioner tyder inte på att det är några större fel på dessa
rutiner. En del rutiner för anläggningsändringar borde ändras även om verket uppfyller de
ställda kraven. En inspektion med inriktning på kontroll- och provningsverksamheten visar på
”tydliga krav på provningsmoment efter olika konstruktions- och installationsmoment”
(Idehaag 2007a). Även andra områden som personalens förmåga att bedöma situationer och
agera därefter samt ledningens prioritering av säkerhet i förhållande till andra intressen, får
anses uppfylla SKI:s krav. Kärnkraftinspektionen har också godkänt omstart av Forsmark 1
och 2 efter kärnkraftverkets redovisning för de åtgärder som har eller ska vidtas för att komma
till rätta med bristerna i det avbrottsfria nätet. Vad som inte framgår av dessa dokument är att
rutiner och instruktioner har funnits men inte följts (seminarium på SKI, mars 2008).
Det finns tre problem i SKI:s slutsatser kring säkerhetskulturens och instruktionernas
funktion. För det första är det oklart hur bristande attityder, och i ett senare led i orsakskedjan
formella rutiner, har orsakat problemen som identifierats: de indirekta tecknen som pekas ut
bygger på obevisade antaganden om orsakssamband. Forskningen har stora svårigheter att
bevisa orsakssamband mellan attityder och beteende (Sanne 2008b): det är produktionskravoch förutsättningar, i synnerhet i oplanerade situationer där plötsliga problem uppstår men
produktionskrav inte förändras, mer än attityder som leder till brister i säkerheten. I efterhand
kan man konstatera att fel har begåtts. Forsmark och SKI har då antagit att arbetet styrts av
formella rutiner såsom föreskrivet och därmed utpekat rutinerna som otillräckliga och vidare
antagit att denna brist orsakats av bristande attityder eftersom en god säkerhetskultur ska leda
till att ledningen utvecklar styrande rutiner. Det passar väl in i utarbetade mönster för
riskobjekt och styrning. Man letar där ljuset faller: eftersom fel har begåtts måste rutinerna
vara felaktiga och det finns ett färdigt recept för detta. Men granskningen visar inte på några
större problem med de formella rutinerna. Kanske handlar det återigen om tillräcklig visshet
utifrån antaganden om att attityder återspeglar sig i produktionskraven.
För det andra har SKI och även många Forsmarksanställda haft kritiska synpunkter på att
Forsmarks ledning före och efter tillbudet har prioriterat produktionen alltför mycket på
bekostnad av säkerheten (Idehaag 2007a; Andersson, intervju december 2007). Säkerhetskulturen blir på detta sätt en moraliserande kritik av hur dessa avvägningar skötts men
samtidigt ganska vag som grund för beslut: det talas om ”konservativt” beslutsfattande där
17
man ska ta det säkra före det osäkra. Detta ska jämföras med den mycket mer precisa kritiken
av tekniska problem (Perin 2005). Det finns ett behov av förbättrade kunskaper om hur
organisatoriska beslut kan analyseras och hur organisationen kan styras med hjälp av
tillsynen. Det finns anledning att ifrågasätta antagandena om rationella organisationer.
För det tredje försvåras en analys av orsakerna till tillbudet av att SKI:s granskning blandar
dokument och data från tiden före och tiden efter tillbudet. SKI ansåg att Forsmark var alltför
för inriktade på att snabbt fixa de enskilda delar som brustit just för ögonblicket men att de
processer som skapat dem fortlever (jämför även Perin 2005: 196, 235). För denna uppgift är
det högst relevant att granska säkerhetskulturen. Det har sin grund i SKI:s kunskapsintresse:
att granska Forsmarks förutsättningar att bättre klara sådant som brustit i samband med
tillbudet eller som blivit uppenbart i samband med detta. SKI har på grundval av de
granskningar som gjorts bedömt att tillräcklig visshet och tillräckligt förtroende föreligger för
att Forsmark uppfyller kraven för att kunna godkänna drift utan särskild tillsyn. Men
samtidigt ger frågan om dessa förutsättningar uppfyllts inte vägledning kring vad som
verkligen formade agerandet i samband med de konstruktionsändringar som befunnits brista
och riskerar därmed att leda till ineffektiva åtgärder. Det krävs en grundläggande studie av
orsakerna till bristerna i konstruktionsarbetet, med tonvikt på kunskap om kunskapsproduktion och utformning, inte minst varför instruktioner inte följs.
Ett olycksfall i arbetet eller ett systemfel i kunskapsproduktionen?
AXELSSON: Om det vore så att det vore ett enkelt konstruktionsfel. Så att om man skulle ha
konstruerat två men konstruerade en. Och någon gjorde ett misstag, man följde inte en instruktion.
Man hoppade över den sidan, man tittade inte i den paragrafen. Hade det varit det som hade vart
problemet, då kunde man ju ha pekat ut. Då hade det ju vart en kvalitetsbrist. Vad jag förstår i
Forsmark så fungerade den konstruktion som de har på avsett sätt. Men avsett sätt var ju inte
tillräckligt, gav ju inte tillräckliga marginaler för den här störningen (intervju, oktober 2007).
Roger Axelsson, säkerhetschef för Oskarshamns kärnkraftverk, formulerar varför branschen
ser de felkonstruerade spänningskydden i det avbrottsfria nätet som den allvarligaste bristen
som identifierats i samband med tillbudet. De var allvarliga för att de inträffade i en
säkerhetskritisk funktion och kunde ha lett till skador på härden och kanske härdsmälta. Men
det verkar som om konstruktionsfelet bedöms som allvarligt också för att det inte faller in i de
vanliga felkällorna eller riskobjekten: mänskliga faktorn eller säkerhetsstyrning. Det var
ingenjörsarbetet som fallerade. För detta finns ingen standardiserad förklaring eller bot.
Konstruktionsfelen som orsakat de felaktiga frekvensskydden, de olämpligt inställda
UPS:erna samt dieslarnas beroende av det batterisäkrade nätet berodde på brister i
kunskapsproduktionen. Frågan är om bristerna i kunskapsproduktionen är ett olyckligt
undantag i en annars väl belyst och välorganiserad verksamhet eller om det är ett exempel på
oundvikliga, normala, osäkerheter i kärnkraftens kunskapsproduktion. Men samtliga
intervjuade medger att fler brister kan finnas. Det gör det än mer angeläget att utreda vilka
kunskapsprocesser (erfarenhetsåterföring, riskanalyser mm) som skapat dem.
Både spänningskydden för det avbrottsfria nätet och underfrekvensskydden har bytts ut sedan
kärnkraftverket byggdes. Vid ombyggnader eller byte av utrustning ska tillståndshavaren göra
en riskanalys i enlighet med SKI:s författning och SKI granskar sedan denna för att avslå,
begära kompletteringar eller beslut om att den uppfyller nödvändiga krav. Bytet av
18
spänningsskydd för det avbrottsfria nätet har genomgått en granskning från SKI medan bytet
av underfrekvensskydd endast genomgått en intern granskningsprocess. Underfrekvensskyddet för generatorn hade bytts ut. Det gamla skyddet var inte känsligt för fasföljden medan
det nya var det. Det ursprungliga frekvensskyddet felmonterades men provningen upptäckte
inte detta eftersom det inte var känsligt för fasföljden. Vid ombyggnaden byttes inte
faskopplingen. Denna del av anläggningen ingick inte i den projektering som gjordes inför
ombyggnaden och den efterföljande provningen. Endast komponenter ingick i analysen, inte
systemet. Kunskaperna om fasföljden och dess betydelse saknades uppenbarligen och fick
inget inflytande över projekteringen.
Konstruktionsbristerna beror troligen inte på att ingenjörerna på Forsmark är mer
inkompetenta än på andra kärnkraftverk. SKI hade granskat både ursprunglig konstruktion
och ombyggnaderna och konstaterat att de uppfyllde kraven. Men det var inte tillräckligt:
kärnkraftverken har ansvaret för att det är tillräckligt säkert. Men även kärnkraftsindustrin i
stora delar av världen togs på sängen av den överspänningspulsen samt den bristande
selektiviteten i UPS:erna. Forsmarks och SKI:s utredning visar att kärnkraftverkets
säkerhetsredovisning och riskanalysen i samband med ombyggnader inte förmått att
identifiera möjliga risker och därmed inte utformat systemet så att det kunde tåla den
utlösande händelsen (Metzén mfl. 2006; SKI 2006). Störningen i ställverket och
överspänningspulsen var inte inkluderad i den säkerhetsredovisning som Forsmark gjort, den
som bildar grunden för drifttillståndet.
Det finns ett antal förklaringar till varför det avbrottsfria nätet inte konstruerats så att det tålde
överspänningen: störningen eller dess betydelse har varit okänd eller inte analyserad, den
undre respektive övre gränsen för vilka spänningsnivåer som spänningskydden skulle släppa
igenom låg alltför nära varandra, i synnerhet var den övre gränsen för låg, det kallas för att
selektiviteten är för liten. Dieslarnas beroende av spänning från det batterisäkrade nätet var
känd men konstruktionen ansågs uppfylla kraven. Men förklaringarna till dessa brister är inte
särskilt uttömmande och sällan dokumenterade: de har nått en nivå där Forsmark och SKI
anser sig ha tillräcklig visshet om vad som gått snett i den fysiska processen för att kunna göra
en säker konstruktion. SKI och Forsmark har konstaterat att systemet inte utformats för att
tåla den störning som uppkommit. De har också utrett varför bara två av de fyra
säkerhetssystemen fallerade och vad som hade hänt om ett, tre eller fyra system fallerat.
Förklaringarna till bristerna i säkerhetssystemen hänför sig till tre olika tidsperioder och tre
olika kunskapsprocesser: ombyggnaden från roterande omformare till digital teknik 1994,
lärdomar från likartade tillbud i Tyskland under 1990-talet samt byggandet av kärnkraftverket
kring 1980.
Efter tillbudet frågade SKI Forsmark varför de inte konstruerat det avbrottsfria växelströmsnätet så att det skulle tåla den utlösande störningen. Ombyggnaden från roterande omformare
till UPS 1994 missade att analysera vad en sådan störning kunde orsaka, svarade Olle
Andersson, för att Forsmark fokuserat andra saker:
Vid utbytet av de roterande omformarna till statiska dito var fokus riktat mot UPS förmåga att
leverera erforderlig kortslutningsström vid en kortslutning på UPS nedsida. Fokus riktades också
på såväl UPS som dieselgeneratorernas kapacitet. Fokus på dessa frågor kan möjligen ha bidragit
till att frågan om selektivitetsfrågan internt UPS inte ”kom upp på bordet”.
Enligt FKA:s [Forsmark Kraftgrupp AB] bedömning genomfördes utbytet av de roterande
omformarna till UPS på ett normalt sätt. Ändringen har granskats internt, behandlats i FKA:s
säkerhetskommitté samt anmälts till SKI enligt då gällande regler. FKA bedömer att ärendet
19
behandlats med den kvalitet och den granskningsinsats som var motiverad av ändringens betydelse
för säkerheten/…/FKA bedömer vidare att erforderlig och kvalificerad expertis var engagerad i
samband med utbytet. Övergången från ”gammal” teknik med roterande omformare till ny
elektronikbaserad teknik kan ha bidragit till att selektivitetsfrågan inte uppmärksammades, inte för
att tekniken var ny utan mer för att statiska omformare har andra egenskaper än roterande. Det bör i
detta sammanhang noteras att de statiska omformarna har haft en avsevärt bättre tillgänglighet än
de gamla roterande.
FKA bedömer att det alltid finns ett visst mått av osäkerhet när det gäller om analyser och
kvalitetssäkring är tillräcklig (Andersson 2007: 2-3).
Andra viktiga egenskaper hos UPS fokuserades och Forsmark gjorde så gott de kunde, hävdar
Olle Andersson, utan att tillägga att SKI 1993 bedömt att riskanalysen och ombyggnaden
uppfyllde gällande krav. Han hänvisar också till tankar kring ogenomtänkta teknikbyten.
Avslutningen är intressant eftersom han menar att man måste acceptera osäkerheter i
kvalitetssäkringen av riskanalysen. Andersson talar även om ogenomtänkta teknikbyten där
mekaniska komponenter byts mot analoga med helt andra, inbyggda, okända, standardiserade
funktioner. Det senare är ett exempel på en vanlig visdom i branschen.
Det har också diskuterats huruvida två tillbud i elsystemet och dieselgeneratorer under 1999
respektive 2000 skulle kunna ses som förelöpare till tillbudet i Forsmark och således något
som Forsmark kunde ha dragit lärdom av. Klas Pihlquist, säkerhetschef på Ringhals
kärnkraftverk, antyder att liknande händelser dykt upp tidigare och påpekar att SKI ställer
krav på lärande från erfarenhet av andra händelser. Olle Andersson hävdar dock att Forsmark
studerat de två händelserna i Tyskland och inte ansett dem som relevanta för det egna
kärnkraftverket. Pihlquist hävdar att en viktig lärdom från tillbudet är att skaffa sig en bättre
förståelse av elsystemen.
PIHLQUIST: Ja det är en brist i förståelsen. Vi talar ju om att någonting vi ska göra här nu det är
då skaffa oss en bättre förståelse för elsystemen. Jag tror att de trycksystemen, flödesdelaren
[processystemen för tryck och flöde] och en hel del annat är väldigt välmodellerade. Men vi
konstaterade att de eltekniska kraftmatningarna har hamnat lite utanför. Och inte haft riktigt samma
fokus i riskanalyserna (intervju, november 2007).
Elsystemen har inte betraktats som lika viktiga som andra system, de har varit svårare att
beräkna och man har saknat kunskap om deras interaktion med det yttre elnätet. Men är det så
enkelt att det handlar om ett olyckligt undantag i arbetet: kan det inte också handla om en
process, kunskapsproduktionen i den kalkylerade logiken, som inte betraktats som ett
riskobjekt och därmed inte underkastats samma granskning som andra riskobjekt? Det finns
förvisso internkontroll i form av säkerhetsgranskningar och dessutom ibland SKI:s granskning
men den är stöpt i samma form: den kalkylerade logiken.
Men det är otillräckligt att hänvisa de olämpliga nivåerna för spänningsskydden till
ombyggnaden. Överspänningspulsen fanns inte med i kärnkraftverkets säkerhetsredovisning,
den tillhör inte de händelser som förutsatts kunna inträffa, det är därför den inte kunde utgöra
en del av kravspecifikationen när det avbrottsfria nätet konstruerades, varken ursprungligen
eller när det byggdes om 1994. Jan Hanberg på SKI säger att det varit svårt att beräkna
elsystemens dynamik på grund av brist på datorkraft medan Roger Axelsson på Oskarshamns
kärnkraftverk talar om nödvändigheten av att identifiera den inledande händelsen när man gör
en riskanalys:
SANNE: Men hur gör man en riskanalys då? Gör man ett scenario eller?
20
AXELSSON: Ofta bryter man ju ner det i händelseträd. Man tar en inledande händelse och sen ritar
man upp stora logikscheman i datorer. Men om man inte hittar den inledande händelsen då får man
inget logikschema. Då får man ju inte den så när man gör den delen så, så är min uppfattning att det
görs bra. Men om man inte gör det, så kvittar det ju om metodiken är bra eller ej.
SANNE: Nej just det precis. Men hur hittar man dem då? På vilken grund definierar man en sån?
AXELSSON: Kreativa människor genom åren (intervju, oktober 2007).
Olle Andersson på Forsmark spekulerar kring att den yttre störningen och därmed
spänningspulsen inåt i anläggningen inte förutsetts vid konstruktionen av kärnkraftverket för
att olika grupper av ingenjörer byggt kraftnät respektive kraftverk: de har inte kommunicerat
tillräckligt kring interaktioner mellan de olika delarna.
ANDERSSON: Den här transienten med den här snabba spänningspeaken. Den är inte kravställd.
Den fanns inte överhuvudtaget i krav…
SANNE: Varför fanns den inte då?
ANDERSSON: Ja du det kan inte jag svara på faktiskt. Det är före min tid så att säga. Det är inget
unikt för Forsmark det är säkert många kraftverk som inte har den här, ja att man har inte
analyserat det ens, det fallet överhuvudtaget. Så att för många kom det här som en överraskning har
jag förstått… Att det kan bli en sån här spänningspeak inåt (intervju, december 2007)
Både Jan Hanberg på SKI och Olle Andersson på Forsmark skiljer mellan felaktiga och
olämpliga nivåer (Hanberg 2007; Andersson, intervju december 2007). Felaktiga nivåer
innebär en inställning som skiljer sig från den specificerade medan olämpliga relaterar till den
uppgift som skydden ska ha. Felaktighet handlar om sådant som Roger Axelsson nämnde i det
inledande citatet: konstruktionsfel, att göra misstag i monteringsarbetet, att inte följa
instruktioner och så vidare. Men i Forsmark så ”fungerade den konstruktion som de hade på
avsett sätt” (intervju, oktober 2007). Felaktiga konstruktioner handlar om mänskliga faktorn i
fysiskt arbete.
Olämplig utformning beror på brister vid konstruktionsbordet: avsett sätt blir då olämpligt. De
gamla roterande omformarna var tåliga, mekaniska, konstruktioner som kanske skulle ha
klarat av den överspänningspuls som generatorerna genererade. De nya, digitala,
spänningsskydden kunde inte hantera den överspänningspuls som genererades: de var
olämpligt inställda för sin funktion. De som konstruerade kärnkraftverket hade inte föreställt
sig att den störning som uppstod i det externa ställverket skulle kunna fortplantas in i verket
vilket innebar att verket inte konstruerats för att tåla den överspänningspuls som genererades
(Andersson, intervju december 2007; Bennemo 2006). En alternativ tolkning är att
omformarna bedömdes vara så robusta att de skulle kunna tåla alla relevanta störningar, utan
att detta behövde redovisas.
Det fanns alltså minst tre olika kunskapsprocesser vid vilka Forsmark och SKI hade kunnat
förutse den störning som utlöste tillbudet och dess konsekvenser: den ursprungliga
konstruktionen, ombyggnaden av säkerhetssystemen samt tillbuden i Tyskland. Det ser ut som
ett systematiskt misstag och inte ett olycksfall i arbetet. Exakt hur de olika processerna
bidragit kan inte besvaras utan ett mer omfattande forskningsprojekt där
kunskapsproduktionen studeras i detalj: det skulle kräva studier av dokument i Forsmarks
arkiv och intervjuer med de inblandade för att komma fram till vad som formar sådant arbete.
21
Det gäller även för orsakerna till bristerna i konstruktionen av underfrekvensskydden.
Bristerna i provningsskedet är en konsekvens av bristerna i konstruktionsarbetet: provningen
testar bara det som ingått i konstruktionsförutsättningarna (Karlsson, intervju december
2007).
Perin (2005) pekar dock på att erfarenhetsåterföringen från drift och från tillbud har stora
brister i de fall hon studerat eftersom det alltid krävs kvantitativa bevis vilket skapar ”tunna”
historier i tillbudsutredningarna istället för ”täta” där kontexten och den kausala kedjan för
enstaka händelser också ingår (Perrow 1999: 328). På det sättet tolkas enskilda händelser för
snävt och lärdomarna sprids inte (Perin 2005: 255). Perin pekar också på att
tillbudsutredningarna är mycket detaljerade och noggranna vad beträffar de tekniska
funktioner som felfungerat och hur de ska åtgärdas medan analysen av organisatoriska
strukturer och mekanismer, inte minst policylogiken, samt förslag till åtgärder är vaga.
Förståelsen av dem är bristfällig. Ledningens krav på att åtgärder ska leda till förbättringar av
säkerheten är hämmande: frågan ställs alltför sällan om konsekvenserna av att inte åtgärda
något (Perin 2005:216).
Slutsatser: improvisation, säkerhetsstyrning och kunskapsproduktion
In preparing for battle I have always found that plans are useless, but planning is indispensable
(tillskrivet Dwight D. Eisenhower, enligt Nixon, R., 1968).
Citatet återanvänds i mängder av managementhandböcker. Planer är värdelösa eftersom
förutsättningarna förändras och oväntade händelser uppstår som inte omfattas av dessa
förändringar. Därför är det nödvändigt att improvisera vid kritiska, oväntade händelser.
Improvisation lyfts ofta fram inom forskningen kring framgångrika säkerhetskritiska system
och numera också managementlitteraturen (se bl.a. Roberts m.fl. 1990; Weick och Sutcliffe
2001; Czarniawska m.fl. 2007). Kontrollrumspersonalens arbete vid tillbudet i Forsmark
pekar på nödvändigheten av att improvisera när oväntade och svårförståeliga händelser
uppstår. Den tekniska riskanalysens osäkerheter bidrar till sårbarhet lika mycket som
felhandlingar i drift och underhåll. Det är därför som kärnkraftsindustrin har både hängslen
och livrem: både tekniska barriärer och skicklig personal. Detta trots att de senare sällan får
det erkännande de förtjänar. De tekniska barriärerna och säkerhetsstyrningen utgör
planeringen medan improvisationen fixar det oväntade. Improvisationen erkänner den
oundvikliga osäkerheten som all kunskap innefattar.
Men Eisenhower (eller Nixon) hävdade också att planering är oumbärligt, det vill säga man
måste förbereda sig, hela tiden, på det oväntade, genom att lära sig från erfarenheten. Vilka
slutsatser har kärnkraftindustrin dragit av Forsmarkshändelsen och vilka mönster i deras
meningsskapande kan man identifiera?
1. Trots att det var brister i konstruktionen som orsakade och försvårade tillbudet och trots
att kontrollrumspersonalen (genom realtidslogiken) hade kunnat bli den sista barriären
mot skador på härden betraktas fortfarande drift- och underhållspersonalen i
kontrollrumsforskningen huvudsakligen som riskobjekt, som dominerande felkälla och
som en del av en stor maskin som måste styras med teknik.
2. Fel med gemensam orsak är tecken på brister i kunskapen om och kontrollen över kritiska
processer. Därför måste de bekämpas med robust design genom redundans och
22
diversifiering. Forsmark hade god redundans men bristande diversifiering. Kanske
betraktades diversifiering som onödigt när man hade konstruerat ett ”avbrottsfritt nät”.
3. SKI:s granskning antyder att säkerhetskulturen orsakat händelsen vilket förnekas. Istället
är det de brister i säkerhetskulturen som tillbudet visat på som bekymrar SKI och
Forsmark. Men resonemanget visar på problematiska antaganden om säkerhetskulturens
funktioner och organisatoriska orsakssamband.
4. Konstruktionsfelen orsakades av brister i kunskapsproduktionen. Bristerna i
kunskapsproduktionen av det avbrottsfria nätet kan bero tre skilda processer: vid
byggandet av Forsmark, brister i riskanalys vid ombyggnader eller från brister i lärande
från andra tillbud.
De studerade dokumenten antyder att kärnkraftsindustrins kunskapsproduktion till stor del är
formad av den kalkylerade logikens föreställningar om relevanta riskobjekt, och att den
kalkylerade logiken bör styra utformning av tekniken och hur arbetet bör organiseras, hur
människor och maskiner relaterar till varandra (jämför också Perin 2005). Intervjuer och
seminariet på SKI visar dock att experter inom industrin har goda kunskaper med ursprung i
realtidslogiken och värdet av denna samt insikter om brister i den kalkylerade logikens
antaganden, modeller och beräkningar. Det verkar finnas två, sammanflätade, anledningar till
att detta inte syns i dokumenten. Kunskapsproduktionen av behovet av att nå tillräcklig
visshet för att kunna fatta säkerhetskritiska beslut om bland annat konstruktion av teknik,
utbildningar, instruktioner och drift, inte att nå visshet utifrån akademiska krav. Samma sak
gäller för kunskapen om organisatoriska processer. Men slutsatser om tillräcklig visshet måste
grunda sig på kunskap om och tolkning av tillförlitliga indikatorer, något som troligen kräver
forskning. Kanske har alltför lite arbete ägnats åt att utveckla begrepp och teorier för
kunskapsproduktionen och att granska dess utgångspunkter och svagheter. Det gäller för
kunskaper om realtidslogiken och för mer komplexa organisatoriska processer, exempelvis
hur säkerhetskultur och tekniker för organisatorisk styrning fungerar. Även
kunskapsproduktionen för att förstå exempelvis olika beroendefel, såsom fel med gemensam
orsak, har uppenbarligen brister, kanske för att antaganden, modeller och krav på evidens inte
granskats tillräckligt.
Kärnkraftsindustrin måste, på grund av de begränsade erfarenheterna av allvarligare tillbud
och olyckor, tolka de erfarenheter man har på ett mer djuplodande och bredare sätt. För detta
krävs att den kalkylerade logiken och realtidslogiken jämställs i ett partnerskap för
kunskapsproduktion (Perin 2005: 211). Realtidslogiken är idag hierarkiskt underordnad den
kalkylerade logiken men omfattar kunskap och erfarenheter som kunde användas för att
förbättra förståelsen av hur kärnkraftverken fungerar. Meningsskapandet måste vidgas, frågor
om betydelsen av enskilda händelser måste utredas och tas på allvar. Det innebär att ta svaga
signaler på allvar, att tolka dem på ett rikare sätt och att vidga ramarna för vad som uppfattas
som bevis för ett problem (Perin 2005: 238):
Even as PRA [Probability Risk Assessment] experts may welcome substantive information for
insights about specific conditions or dynamics, their modeling methods will ultimately torture
”information” into metrics… Reduced to shadows of themselves, the meanings – the significance –
of the knowledge and practices at issue disappear.
Kunskapsproduktionen bör fokuseras på att producera ”täta”, kontextuella och tolkande
berättelser istället för ”tunna”, dekontextualiserade. Riskanalysens utgångspunkter, teorier,
antaganden, metoder, beräkningar, val av data och tolkningar av dessa måste problematiseras,
23
liksom uppfattningar kring riskobjekt och hur relationer mellan människor och maskiner bör
organiseras (Perin 2005: 225). Fokus måste läggas på brister i förståelsen kring hur
kärnkraftverk fungerar: Vad betyder händelser och observationer? Vad skulle kunna hända?
En mer omfattande studie skulle kunna fokusera på kunskapsproduktionen inför utformning
av teknik, utbildningar och instruktioner, med utgångspunkt från händelsen i Forsmark och
någon annan signifikant händelse. Projektet skulle kunna ha två olika syften:
1. Att granska hur de olika logikerna arbetar, vilka riskobjekt som identifieras, vilka krav
som ställs på tillräcklig visshet och trovärdiga data som bevis på ett problem eller
kunskapsanspråk.
2. Att föreslå former för en förbättrad kunskapsproduktion kring säkerhetskritiska
funktioner. Det handlar bland annat om att utveckla nya sätt att tolka signaler och kriterier
för signifikanta data om problematiska förhållanden, att tolka dem på ett ändamålsenligt
sätt.
Kunskapsproduktionens former i olika organisationer skulle kunna jämföras: akademisk
forskning, intresseorganisationer och myndigheter (IAEA, OECD, WANO, NRC, SKI,
Nordel etc.) och i kärnkraftverken. Vilka krav ställs och utifrån vilka kunskaper och vilka
kriterier för tillräcklig visshet? Hur kommer man fram till dessa kunskaper? Hur sker
kunskapsförmedling mellan dessa organisationer? Hur mottas och tolkas kunskaperna? Hur
omsätts den i handling?
Intervjuer och seminarium
Andersson, Olle, tillförordnad säkerhetschef, Forsmarks Kraftgrupp AB, december 2007.
Axelsson, Roger, säkerhetschef på Oskarshamns Kraftgrupp, oktober 2007.
Hanberg, Jan, chef, avdelningen för reaktorsäkerhet, Statens Kärnkraftinspektion, december
2007.
Karlsson, Björn, professor i energisystem vid Linköpings universitet och ordförande i SKI:s
reaktorsäkerhetsnämnd, november 2007.
Pihlquist, Klas, säkerhetschef och Maria Hedeklint, chef för Människa-Teknik-Organisation
vid Ringhals kärnkraftverk, november 2007.
Seminarium på Statens Kärnkraftinspektion, mars 2008: Lars Axelsson, Urban Boström, Per
Bystedt, Johan Enkvist, Lars Gunsell, Elena Illina, Tomas Jelinek, Bo Liwång, Ralph
Nyman, Per-Olof Sandén.
Referenser
Andersson, O., 2007, Uppföljning av SKI:s generiska frågeställningar gällande händelsen vid
Forsmark 1 den 25 juli 2006, Forsmarks Kraftgrupp, Dokumentnummer FQ-20070370.
Axelsson, L., 2007, Granskning av de direktiv/uppdrag som VD för Forsmark har från
styrelsen gällande hur säkerheten är prioriterad samt Forsmarks åtgärdsplan avseende
ledning och styrning av säkerhetsarbetet, SKI 2006/779, 2007-03-02.
Bennemo, L., 2006, Granskning av FKA:s ansökan om återstart av Forsmark 1 och 2 med
anledning av händelsen på Forsmark 1 den 25 juli 2006, SKI 2006/779, 2006-09-14.
24
Bergman, P., 1995, Moderna lagarbeten: studier av arbete, teknik och organisation i
högteknologisk processindustri, Lund: Arkiv.
Bystedt, J. 2007, Internationellt utbyte kring robusta elsystem: Forsmarkshändelsen var inte
unik, Nucleus 3/2007: 7-13, Stockholm: Statens Kärnkraftinspektion.
Czarniawska, B. 2007 (red) Organisering kring risk och hot, Lund: Studentlitteratur.
Alfredson, H., 1987, Tage Danielsson: Texter i Urval av Hans Alfredson, Stockholm: Albert
Bonniers Förlag.
Eriksson, T., 2006, Sanningen om Forsmark, Fokus, 24 november.
Hilgartner, Stephen, 1992, The Social Construction of Risk Objects: Or, How to Pry Open
Networks of Risk, i Short, J. F och Clarke, L., (red), Organizations, Uncertainties, and
Risk, Boulder, San Fransisco, Oxford: Westview Press.
Hollnagel, E., Woods, D, och Leveson, N., (red) 2006, Resilience engineering: concepts and
precepts, Aldershot: Ashgate.
Hirschhorn, L., 1984, Beyond mechanization: work and technology in a post-industrial age,
Cambridge, Massachusetts: MIT Press.
Hopkins, A., 2003, Issues for major hazard regulation, Journal of Occupational Health and
Safety – Australia and New Zealand, 19: 183-189.
Hultman, Martin (2005) Att förstå risker - En översikt av olika kunskapsperspektiv, KBM:s
forskningsserie nr 8, Stockholm: Krisberedskapsmyndigheten
Idehaag, K., 2007a, Ett år av särskild tillsyn, Kärnsäkert, Stockholm: Statens
Kärnkraftinspektion.
Idehaag, K., 2007b, Öppen redovisning av SKI:s utredningsrapport ”Översiktlig beskrivning
av händelseförlopp och förväntade operatörsingrepp om alla 656-skenor blivit
spänningslösa vid störningen den 25 juli 2006 på Forsmark 1”, SKI-utredningsrapport,
SKI 2006/779, 2007-02-22, Stockholm: Statens Kärnkraftinspektion.
Johansson, G. 2003, Dependency defence and dependency analysis guidance: how to analyse
and protect against dependent failures: summary report of the Nordic Working group on
Common Cause Failure, Stockholm: Statens Kärnkraftinspektion.
La Porte, T. R och Consolini, P. M, 1991, Working in Practice but not in Theory: Theoretical
Challenges of ’High-Reliability Organizations’, Journal of Public Administration Research
and Theory, 1 (2): 19-48.
Metzén, N. , Njurling G. och Lansåker, P., 2006, Forsmark 1 – Störningsanalys – Bortfall
400kV samt utebliven dieselstart i A- och B-sub, Forsmarks Kraftgrupp AB.
Mumaw, R. J., Roth E. M., Vicente, K. J., Burns C.M., 2000, There is more to monitoring a
nuclear power plant than meets the eye, Human Factors, vol. 42, nummer 1, 36-55.
Nixon, R., 1968, Six Crisis, New York: Pyramid Books.
OECD, 2000, ICDE Project Report on Collection and Analysis of Common Cause Failures of
Emergency Diesel Generators, NEA/CSNI/R(2000)20.
Perin, C., 2005, Shouldering risks: The culture of control in the nuclear power industry,
Princeton and Oxford: Princeton University Press.
Roberts, K. H, red, 1993, New challenges to understanding organizations, MacMillan.
Sanne, J. M., 2006, Processtyrning – kritiska säkerhetsfrågor med inriktning på
riskhantering, Forskningsrapport nr 21/2006, Stockholm: Statens kärnkraftinspektion.
Sanne, J. M. 2008a, Dangerous practices: organizing through bricolage in railway
maintenance, ska publiceras i: Hommels, A., Mesman, J. och Bijker, W. B, (red) The
Vulnerability of Technological Cultures: New directions in research and governance,
kommande.
Sanne, J. M. 2008b, Framing risks in a safety-critical and hazardous job: risk-taking as
responsibility in railway maintenance, Journal of Risk Research, under tryckning.
25
SKI, 2004, Statens kärnkraftinspektions föreskrifter om säkerhet i kärntekniska anläggningar,
SKIFS 2004:1, Stockholm: Statens Kärnkraftinspektion.
SKI, 2006, Åtgärdsplan avseende ledning och styrning av säkerhetsarbetet inom Forsmark
Kraftgrupp AB samt komplettering av Säkerhetsredovisningar (SAR), Beslut om
föreläggande, Stockholm: Statens Kärnkraftinspektion.
Summerton, J., 2002, “Talking Diesel”: Negotiating and contesting environmental risks of
automobility in Sweden, i Summerton, J. och Berner, B. (red) Constructing Risk and Safety
in Technological Practice, London: Routledge
Turner, B. och Pidgeon, N. F., 1997, Man-Made disaster: the failure of foresight (reviderad
utgåva). Oxford: Butterworth-Heinemann.
Vaughan, D., 1996, The Challenger Launch Decision: risky technology, culture, and deviance
at NASA, Chicago: University of Chicago Press.
Weick, K. E. och Sutcliffe, K. M., 2001, Managing the unexpected: assuring high
performance in an age of complexity, San Francisco, California: Jossey-Bass.
Wenger, E., 1998, Communities of Practice: Learning, Meaning and Identity, Cambridge:
Cambridge University Press
26