|
Tunnelvisie
22 juni 2012 • Ype Wijnia
asset management strategie, beheren risico's, programma ontwerp
De afgelopen jaren was regelmatig in het nieuws dat er mensen onterecht veroordeeld waren tot lange gevangenisstraffen. Neem de Puttense moordzaak, de Schiedamse parkmoord, Lucia de B en recent de zaak in Breda. In vrijwel alle gevallen was er sprake van een zogenaamde tunnelvisie van de zijde van het openbaar ministerie. Men was zo overtuigd dat deze mensen het gedaan hadden dat men domweg geen oog had voor het feit dat de beoogde daders wellicht onschuldig waren. Dit is op zich wel te begrijpen. Er zijn geen video-opnamen of ooggetuigen van het misdrijf, dus de recherche moet zich verlaten op indirect bewijs. Als zich dan een theorie ontwikkelt over wie het gedaan heeft, is men blij dat men een aanknopingspunt heeft. Als je dan vervolgens geen weerwoord kan bieden (wie heeft er immers voor elk moment van de dag een alibi) of domweg niet geloofd wordt (omdat details van dat alibi niet kloppen, of omdat je in een verhoor hebt bekend) dan hang je, alhoewel dat in Nederland gelukkig niet letterlijk is. Maar hier zit wel een groot probleem. Persoonlijke getuigenissen zijn uitermate onbetrouwbaar. Mensen hebben een slecht geheugen voor feiten (zie het werk van wijlen professor W.A. Wagenaar)[1] en dat geheugen kan door anderen beïnvloed worden. En voor wat betreft bekentenissen: met de juiste methode kan je iedereen alles laten bekennen, en mogelijk zelfs de eigen bekentenis laten geloven. Maar goed, dat is ook de reden dat je in Nederland niet puur op je eigen bekentenis veroordeeld zou mogen worden. Wat echter veel kwalijker is: als er bewust ontlastend bewijs (dat wil zeggen aanwijzingen dat de opgestelde theorie niet klopt) achtergehouden wordt. Dan wordt het een kwestie van een officier van justitie die wil scoren met een veroordeling terwijl eigenlijk bekend is dat die persoon het niet gedaan heeft. Je zal maar toevallig op het verkeerde tijdstip op de verkeerde plaats zijn geweest. Zou dit ook binnen het vakgebied van asset management kunnen optreden? Het antwoord is uiteraard ja, en het speelt zelfs van operationeel tot strategisch niveau.
Een klassiek voorbeeld van tunnelvisie is de bijna meltdown van de kerncentrale van Harrisburg in 1979, zoals is beschreven in de Normal Accident theory van Charles Perrow[2]. In de controle kamer van een kerncentrale zitten enorm veel meters en alarmen. Bij een risicovol object als een kernreactor is dat ook niet meer dan normaal. Het enige probleem is dat elk apparaat kan falen, ook de meters en de alarmen. Zelfs voor individuele apparaten kan dat tot gekke uitkomsten leiden. Stel dat een gebeurtenis een kans heeft van 1% om op te treden, terwijl het alarm een nauwkeurigheid heeft van 95%. Maar die nauwkeurigheid geldt zowel voor het detecteren van de fout als voor het detecteren van de foutloze situatie. Het resultaat is weergegeven in de onderstaande waarheidstabel.
Samenvattend is er een kans van 5,9% dat er een alarm optreedt, waarbij slechts 1 op de 6 keer het alarm terecht is. Nu liggen de percentages in een kerncentrale mogelijk wel wat anders, maar elke operator weet dat er een aanzienlijke kans is dat een alarm onterecht is. Als alarmen dan heel vaak optreden kan je er gewoon niet meer op reageren. Een operator neemt dan aan dat het alarm onterecht is en interpreteert alles volgens die aanname. Als het alarm dan wel terecht blijkt kunnen er grote ongelukken gebeuren. En dat lijkt er aan de hand geweest te zijn in Harrisburg.
Op tactisch niveau kan een vergelijkbaar probleem optreden. Stel dat een asset engineer moet uitzoeken waarom een bepaalde storing heeft plaatsgevonden, zodat passende maatregelen genomen kunnen worden. Stel nu dat deze asset engineer kort daarvoor vergelijkbare storingen heeft onderzocht waarbij telkens een bepaald component van de asset (zeg de oliepomp) de aanleiding was. Als de nieuwe storing dan hetzelfde assettype betreft, is het niet meer dan logisch dat de situatie volgens hetzelfde mentale model wordt beoordeeld. Met andere woorden, de eerste gedachte is dat de pomp weer stuk was. Als dat dan inderdaad het geval blijkt is het onderzoek snel klaar en is de conclusie makkelijk getrokken dat het tijd wordt voor een grootschalig revisieprogramma van de oliepomp. Maar wat hierbij over het hoofd gezien kan worden is dat het falen van de pomp ook het gevolg kan zijn van de storing, en niet perse de oorzaak. Dus op basis van deze snelle analyse zou dan een duur en onnodig revisieprogramma opgestart worden.
Ook op strategisch niveau kan tunnelvisie optreden. Misschien wel het bekendste voorbeeld is het miliennium probleem. Om het nog even terug te halen: aan het einde van de vorige eeuw ontdekte men dat de jaartallen in veel computersystemen met 2 cijfers werden weergegeven. Bij de overgang van 1999 naar 2000 zou dat getal terugspringen van 99 naar 00 en dat zou allerlei problemen geven: het financiële systeem zou vastlopen, de nutsvoorzieningen zouden uitvallen en zelfs als die weer aan de praat gekregen zouden worden zouden veel apparaten het niet meer doen omdat ze buiten hun onderhoudstermijn zouden vallen. In de aanloop naar het eeuwfeest zijn daarom gigantische bedragen uitgegeven aan het uitbreiden van het dataveld in vele computersystemen met 2 getallen, er zijn allerlei noodscenario’s gemaakt en op oudejaarsavond 1999 stond iedereen paraat. Als ramptoerist voor de televisie hoopte je natuurlijk dat, beginnend bij de Christmas Islands om 12.00 uur Nederlandse tijd, dan Nieuw Zeeland, Australië, Japan, India, Rusland, enzovoort, de wereld langzaam donker zou worden. Maar er gebeurde helemaal niets, nergens niet. Achteraf werd door de millenniumprofeten geclaimd dat de problemen voorkomen waren doordat er zulke grote investeringen waren gedaan, maar dat is natuurlijk onzin. Het zou betekenen dat voor de eerste keer in de menselijke geschiedenis een plan tot in de perfectie was uitgewerkt, waarbij helemaal niets van de miljarden mogelijkheden waarop het fout kon gaan over het hoofd was gezien. Dat is uiteraard niet onmogelijk, maar hoe waarschijnlijk is dat? Veel minder waarschijnlijk in ieder geval dan dat het probleem niet bestaan heeft, zeker als je bedenkt dat veel systemen die vast zouden lopen helemaal geen klok aan boord hadden die beïnvloed zou kunnen worden door het eventuele millenniumprobleem.
Nu zou je verwachten dat na verloop van tijd het besef doorbreekt dat de investering in het oplossen van de millenniumbug misschien toch een klein beetje overtrokken is geweest, maar nee. Zelfs nu nog zijn er mensen die met droge ogen beweren dat men het risico niet kon nemen dat het millenniumprobleem zou optreden, zelfs als de kans groot was dat het niet zou optreden. Het voorzorgsprincipe dus. Dat kan in sommige gevallen best een argument zijn om iets te doen, maar het punt is dat het argument pas achteraf naar voren is gebracht. Van tevoren was de boodschap dat het probleem zeker op zou treden. Dat doet toch wel een beetje denken aan iemand eerst opsluiten en dan pas een reden verzinnen waarom eigenlijk. En als je er dan niet uitkomt zeg je gewoon dat het is omdat die persoon in de toekomst een ernstig misdrijf zou plegen, en dat het dus een voorzorgsmaatregel is.
Ype Wijnia is partner bij AssetResolutions B.V., een bedrijf dat hij samen met John de Croon heeft opgericht. Beurtelings geven ze in deze wekelijkse column hun visie op een aspect van asset management. De columns staan gepubliceerd op de website van AssetResolutions, http://www.assetresolutions.nl/nl/column.
[1] http://nl.wikipedia.org/wiki/Willem_Albert_Wagenaar
[2] Charles Perrow, Normal accidents: living with high risk technology, 1984
<< terug naar overzicht
|