Per Ardua ad Astra

Tanto gilipollas y tan pocas balas

Entradas de archivo para la etiqueta ‘Reason’ tag

Error humano y quesos suizos

13 comentarios

Los errores existen: la gente la lía parda, y los médicos también. De hecho, la asistencia sanitaria causó aproximadamente 400 muertes en España durante 20081, y se estima que en torno a un 10% de los pacientes hospitalizados2 sufre yatrogenia (la mitad de cuyos casos3 pueden ser evitados). Pero, ¿por qué ocurren estos errores?

Los errores se pueden abordar bajo dos puntos de vista4: de personas y de sistemas.

  • En el personal se carga toda la culpa sobre el individuo en primera línea (cirujanos, anestesistas, pilotos, controladores…), que es quien lleva a cabo la acción dañina debido a su distracción, temeridad o negligencia. Esta aproximación es desgraciadamente común en Medicina: se tratan los errores casi como problemas morales, asumiendo que las cosas malas les ocurren a los malos profesionales (“algo habrá hecho”), y separando los actos peligrosos de su contexto. Además, culpar a un individuo puntual resulta más satisfactorio (personal y económicamente) que hacerlo con una institución u otros factores.
  • Por otra parte tenemos el enfoque de sistemas, que asume la falibilidad del humano y la inevitabilidad de los errores (que son casi más consecuencias que causas), por lo que deberemos instaurar barreras y salvaguardas. Lo explica muy bien Enrique Piñeyro en esta escena de su documental Fuerza Aérea, sociedad anónima.

Para explicar esto con claridad, el psicólogo James Reason propuso en 1990 el modelo del queso suizo4. En este modelo, cada sistema tiene distintas barreras que separan la exposición del desenlace, los riesgos de las pérdidas. Sin embargo, cada barrera tiene fallos, “agujeros” (como si fuesen lonchas de queso Emmental), cuya posición varía aleatoriamente, de modo que el accidente ocurre cuando se alinean estos agujeros:

Ilustración del modelo de queso suizo de Reason

El problema no es pues que aparezca una falla en el sistema, sino que concurran varias a la vez. El accidente del Spanair 5022 no ocurrió sólo porque se sobrecalentase la sonda del medidor de temperatura, el mecánico quitase el fusible correspondiente, ese fusible alimentase un dispositivo de alarma, el piloto olvidase poner los flaps o la checklist no se completase; cada uno de estos elementos por separado eran causas necesarias pero no suficientes. Fue al juntarse todos cuando ocurrió la tragedia.

Estos “agujeros en el queso” pueden ser de dos tipos: fallos activos, que son los cometidos por personas en contacto directo con el sistema, y que generalmente tienen un impacto de duración muy breve, y las condiciones latentes, que son problemas residentes (y generalmente ocultos) en el sistema, propios de su diseño. En el caso del Spanair, el fallo activo fue el olvido de desplegar los flaps (una omisión de un individuo que sólo tenía repercusiones en ese momento concreto), y la condición latente fue el diseño del sistema eléctrico (una característica del avión que invalidaba un dispositivo de seguridad). Si nos fuésemos a un quirófano, un fallo activo sería el de la enfermera que carga un medicamento sin comprobar la etiqueta porque hay prisa, y una condición latente es guardar en el mismo cajón propofol del 1% y 2% (o adrenalina 1:1000 y 1:10000).

Así pues, el modelo del queso suizo de Reason subraya la importancia del sistema en vez del individuo, y de la aleatoriedad en vez de la acción deliberada6, siendo actualmente el empleado más a menudo para explicar la génesis de los accidentes. Por lo tanto, la forma más apropiada de prevenir esos problemas es limitar la incidencia de errores peligrosos y crear sistemas más capaces de tolerar esos errores y detener sus efectos dañinos. Mientras que en los esquemas tradicionales se atribuyen los fallos a la falibilidad y variabilidad humana, intentando eliminarla al máximo posible, la experiencia indica que esa misma variabilidad puede ser empleada para aumentar la seguridad del sistema permitiendo su adaptación a situaciones cambiantes: echadle un vistazo a este recorte de la película Juegos de guerra (1983) y a este ejemplo real ocurrido dos meses después, cuando estuvo a punto de desencadenarse la Tercera Guerra Mundial.

Bibliografía:
1: Instituto Nacional de Estadística. Defunciones según la Causa de Muerte 2008. Resultados nacionales. 1.1: Defunciones por causas (lista detallada), sexo y edad. Madrid: INE. [Incluye códigos CIE-10 Y40 a Y84]
2: Vincent C, Neale G, Woloshynowych M. Adverse events in British hospitals: preliminary retrospective record review. BMJ. 2001 Mar 3;322(7285):517-9.
3: Haynes AB, et al. A surgical safety checklist to reduce morbidity and mortality in a global population. N Engl J Med. 2009 Jan 29;360(5):491-9. Epub 2009 Jan 14.
4: Reason J. Human error: models and management. BMJ. 2000 Mar 18;320(7237):768-70.
5: Reason J. Human error. New York: Cambridge University Press; 1990. (apud nº 4).
6: Perneger TV. The Swiss cheese model of safety incidents: are there holes in the metaphor? BMC Health Serv Res. 2005 Nov 9;5:71.

Perpetrado por EC-JPR

mayo 16th, 2010 a las 6:22 pm

Categoría: Aviación,Frikadas,Medicina

Etiquetado como , , , ,