Entradas de archivo para la etiqueta ‘factor humano’ tag
Error humano y quesos suizos
Los errores existen: la gente la lía parda, y los médicos también. De hecho, la asistencia sanitaria causó aproximadamente 400 muertes en España durante 20081, y se estima que en torno a un 10% de los pacientes hospitalizados2 sufre yatrogenia (la mitad de cuyos casos3 pueden ser evitados). Pero, ¿por qué ocurren estos errores?
Los errores se pueden abordar bajo dos puntos de vista4: de personas y de sistemas.
- En el personal se carga toda la culpa sobre el individuo en primera línea (cirujanos, anestesistas, pilotos, controladores…), que es quien lleva a cabo la acción dañina debido a su distracción, temeridad o negligencia. Esta aproximación es desgraciadamente común en Medicina: se tratan los errores casi como problemas morales, asumiendo que las cosas malas les ocurren a los malos profesionales («algo habrá hecho»), y separando los actos peligrosos de su contexto. Además, culpar a un individuo puntual resulta más satisfactorio (personal y económicamente) que hacerlo con una institución u otros factores.
- Por otra parte tenemos el enfoque de sistemas, que asume la falibilidad del humano y la inevitabilidad de los errores (que son casi más consecuencias que causas), por lo que deberemos instaurar barreras y salvaguardas. Lo explica muy bien Enrique Piñeyro en esta escena de su documental Fuerza Aérea, sociedad anónima.
Para explicar esto con claridad, el psicólogo James Reason propuso en 1990 el modelo del queso suizo4. En este modelo, cada sistema tiene distintas barreras que separan la exposición del desenlace, los riesgos de las pérdidas. Sin embargo, cada barrera tiene fallos, «agujeros» (como si fuesen lonchas de queso Emmental), cuya posición varía aleatoriamente, de modo que el accidente ocurre cuando se alinean estos agujeros:
El problema no es pues que aparezca una falla en el sistema, sino que concurran varias a la vez. El accidente del Spanair 5022 no ocurrió sólo porque se sobrecalentase la sonda del medidor de temperatura, el mecánico quitase el fusible correspondiente, ese fusible alimentase un dispositivo de alarma, el piloto olvidase poner los flaps o la checklist no se completase; cada uno de estos elementos por separado eran causas necesarias pero no suficientes. Fue al juntarse todos cuando ocurrió la tragedia.
Estos «agujeros en el queso» pueden ser de dos tipos: fallos activos, que son los cometidos por personas en contacto directo con el sistema, y que generalmente tienen un impacto de duración muy breve, y las condiciones latentes, que son problemas residentes (y generalmente ocultos) en el sistema, propios de su diseño. En el caso del Spanair, el fallo activo fue el olvido de desplegar los flaps (una omisión de un individuo que sólo tenía repercusiones en ese momento concreto), y la condición latente fue el diseño del sistema eléctrico (una característica del avión que invalidaba un dispositivo de seguridad). Si nos fuésemos a un quirófano, un fallo activo sería el de la enfermera que carga un medicamento sin comprobar la etiqueta porque hay prisa, y una condición latente es guardar en el mismo cajón propofol del 1% y 2% (o adrenalina 1:1000 y 1:10000).
Así pues, el modelo del queso suizo de Reason subraya la importancia del sistema en vez del individuo, y de la aleatoriedad en vez de la acción deliberada6, siendo actualmente el empleado más a menudo para explicar la génesis de los accidentes. Por lo tanto, la forma más apropiada de prevenir esos problemas es limitar la incidencia de errores peligrosos y crear sistemas más capaces de tolerar esos errores y detener sus efectos dañinos. Mientras que en los esquemas tradicionales se atribuyen los fallos a la falibilidad y variabilidad humana, intentando eliminarla al máximo posible, la experiencia indica que esa misma variabilidad puede ser empleada para aumentar la seguridad del sistema permitiendo su adaptación a situaciones cambiantes: echadle un vistazo a este recorte de la película Juegos de guerra (1983) y a este ejemplo real ocurrido dos meses después, cuando estuvo a punto de desencadenarse la Tercera Guerra Mundial.
Bibliografía:
1: Instituto Nacional de Estadística. Defunciones según la Causa de Muerte 2008. Resultados nacionales. 1.1: Defunciones por causas (lista detallada), sexo y edad. Madrid: INE. [Incluye códigos CIE-10 Y40 a Y84]
2: Vincent C, Neale G, Woloshynowych M. Adverse events in British hospitals: preliminary retrospective record review. BMJ. 2001 Mar 3;322(7285):517-9.
3: Haynes AB, et al. A surgical safety checklist to reduce morbidity and mortality in a global population. N Engl J Med. 2009 Jan 29;360(5):491-9. Epub 2009 Jan 14.
4: Reason J. Human error: models and management. BMJ. 2000 Mar 18;320(7237):768-70.
5: Reason J. Human error. New York: Cambridge University Press; 1990. (apud nº 4).
6: Perneger TV. The Swiss cheese model of safety incidents: are there holes in the metaphor? BMC Health Serv Res. 2005 Nov 9;5:71.
Efecto Hawthorne (o «el aliento en la nuca»)
O cómo el resultado de un estudio puede depender, simplemente, del hecho de estudiarlo (vamos, como el gato de Schrödinger). Os cuento la historia: vayámonos a finales de los años 20, a la Hawthorne Works, una fábrica de productos eléctricos cerca de Chicago. El gerente de turno se pregunta si sería posible incrementar la productividad de sus empleados (¡qué si no!), y decide hacer un estudio sobre la iluminación de la fábrica. Ponen más luz, y sube la productividad. Quitan iluminación… y la productividad vuelve a subir. Coño, curioso. Cambian los turnos de descansos, y los trabajadores rinden más. Los vuelven a cambiar, dejándolos como antes, ¡y se repite la subida! ¿Cómo se explica esto?
Esta aparente paradoja se definió años más tarde como efecto Hawthorne, que consiste en una mejoría (transitoria) de la variable estudiada como consecuencia del mero seguimiento, por el estímulo motivacional que éste supone; los trabajadores se sentían «importantes» al formar parte del estudio. O, en otras palabras, rendían más porque se sentían observados.
Si bien hay trabajos que han puesto en duda la existencia del efecto Hawthorne como se definió originalmente, eso no significa que no siga existiendo ese «efecto placebo» a nivel de los estudios. A esto actualmente se le conoce también como sesgo de atención, y es un factor de confusión que debe ser tenido en cuenta en todo ensayo. Este puede contribuir, por ejemplo, a que visitas médicas más frecuentes mejoren la evolución de determinada enfermedad, o a que evaluar el comportamiento del personal en quirófano reduzca la mortalidad postoperatoria.
Bibliografía:
de Irala J, Martínez-González MA, Seguí-Gómez M. Epidemiología aplicada. 1ª ed. Barcelona: Ariel; 2004.
McCarney R, Warner J, Iliffe S, van Haselen R, Griffin M, Fisher P. The Hawthorne Effect: a randomised, controlled trial. BMC Med Res Methodol. 2007 Jul 3;7:30.
Haynes AB, Weiser TG, Berry WR, Lipsitz SR, Breizat AH, Dellinger EP, et al. A surgical safety checklist to reduce morbidity and mortality in a global population. N Engl J Med. 2009 Jan 29;360(5):491-9. Epub 2009 Jan 14.
Dilema moral (y II)
Con esta entrada ato los flecos que dejé sueltos en la primera entrega, la de los trenes, las agujas, el mal menor y las decisiones guiadas por los sentimientos. Prácticamente todo quedó visto en los comentarios (desde luego, no me faltan motivos para sentirme orgulloso de mis lectores), pero prometí que haría otra entrada para explicarlo.
Por ejemplo, la diferencia entre el segundo caso y el tercero. Los copio aquí para los que no recuerden de qué iba cada uno…
- Un tren se acerca por una vía en la cual hay cinco personas que no tienen forma de enterarse de su llegada hasta que les atropelle, y no puedes avisarles a ellas ni al maquinista. Sin embargo, puedes desviar el tren por una vía alternativa, que hace un bucle y vuelve a la original justo antes del grupo, así que el tren seguiría atropellándoles. No obstante, en ese bucle hay un gran obeso, con cuya masa se detendría el tren a costa de que él la pifiase. Así que, o dejamos que el tren siga por la vía y se cargue a cinco, o lo desviamos al bucle y se detenga chocando con el gordito. ¿Qué haces?
- En un hospital hay cinco enfermos, cada uno con un fallo letal de un órgano distinto, y todos morirán inevitablemente a no ser que se les trasplante el órgano defectuoso. No hay ningún donante compatible con ellos, y no serviría emplear las piezas de uno para curar a los otros. Sin embargo, en la sala de espera del hospital hay una visita, completamente sana, cuyos órganos salvarían a los cinco enfermos… a costa de matarle. ¿Qué haces?
Si os acordáis, dije que estos casos eran iguales. El motivo, como bien comentó Rinzewind, es que ningún ser racional debe ser empleado como medio para un fin sin su consentimiento (Kant dixit, al hablar del imperativo categórico): si en cualquiera de los dos casos tomamos a la víctima y la quitamos de la ecuación, el resultado no es el mismo. Por lo tanto, los estamos usando como medio, y eso es moralmente inaceptable, independientemente de que en un caso sea «el tren» el que lo mate y en el otro sea yo con mis propias manos.
Por otra parte, Zamuro preguntó: ¿qué ocurriría si el «mal menor», la «víctima colateral», fuese tu propio hijo? La respuesta que podamos dar aquí depende de la parsimonia moral que, resumidamente, es la cualidad de aplicar las mismas reglas en distintas situaciones. Así pues: ¿denunciarías al ladrón que cometió un robo, si sabes quién es? ¿Y si hubiera robado un banco? (por lo de «Quien roba a un ladrón tiene cien años de perdón»…) ¿Y si el ladrón fuera tu hermano? Si queréis comprobar qué tan parsimoniosos sois, podéis intentarlo con este test (a mí me salió un número con dos cifras redondas).
A colación de este último punto, Tall & Cute citó una entrada en la que desgrana un artículo de Nature* titulado «Damage to the prefrontal cortex increases utilitarian moral judgements» o, en otras palabras, «prefiero salvar a cinco personas antes que a un bebé». Es una estudio comparativo en el que seis pacientes con un daño en la corteza prefrontal ventromedial (CPVM) presentan un patrón de respuesta utilitarista, frente a los controles que no tenían esa lesión. Hay que decir esa región cerebral es una de las involucradas en las emociones sociales y la codificación emocional de los estímulos sensitivos; los enfermos con ese daño apenas sienten compasión, vergüenza, culpa o enfado, mientras que conservan las capacidades para el razonamiento general, inteligencia y el conocimiento de las reglas sociales.
Esto enlaza con la tesis planteada en la entrada del otro día: las decisiones morales están guiadas por la emoción. El artículo citado afirma que «neuroimaging studies consistently show that tasks involving moral judgement activate brain areas known to process emotions», pero aún no ha quedado claro si esa activación es causa o efecto del juicio moral. De ahí el valor de las conclusiones de este estudio (a pesar de su escaso tamaño muestral), que pone de manifiesto que las personas con un daño en la CPVM carecen de reacciones emocionales, aplicando tan sólo las normas sociales «explícitas» pertinentes (vg. mal menor), de lo que resulta ese comportamiento llamado utilistarista.
Y, para terminar, un bonus track. En los comentarios de la entrada, MaKö nombró un artículo cuya cita proporcionó Hel: Unconscious determinants of free decisions in the human brain, de Nature Neuroscience*. En él se demuestra que las decisiones aparecen en el cerebro varios segundos antes de que seamos conscientes de ellas. Para ello sometieron a estudios de resonancia magnética funcional a un grupo de sujetos y les pidieron que apretaran un pulsador con la mano izquierda o derecha en cuanto quisieran; pues bien, el sentido de la respuesta aparecía en las cortezas frontopolar y parietal hasta diez segundos antes del momento en el que el sujeto decía haber decidido apretar el pulsador.
Dicho esto, prometo que la próxima entrada que escriba será de medicina de verdad. Que no os he tenido todo este tiempo esperando para nada.
* -> Los artículos citados son:
Damage to the prefrontal cortex increases utilitarian moral judgements. Koenigs M, Young L, Adolphs R, Tranel D, Cushman F, Hauser M, Damasio A. Nature. 2007 Apr 19;446(7138):908-11.
Unconscious determinants of free decisions in the human brain. Soon CS, Brass M, Heinze HJ, Haynes JD. Nat Neurosci. 2008 May;11(5):543-5.
Dilema moral, ¿o no?
Antes solía oír en Radio 5 a Florentino Moreno, catedrático de Psicología de la Complutense. Tenía un programa, «El factor humano», que se emitía justo a la hora que iba al curro. En una de las ediciones afirmó que las decisiones racionales no existen, sino que siempre se toman de forma emotiva, y sólo después se les busca una explicación razonada. Sorprendente, ¿no creéis? Sobre todo para alguien como yo, que se jacta de frialdad al tomar decisiones. Así que me quedé intrigado: ¿hasta qué punto decidimos antes de pensar? Voy a intentar explicarlo haciéndoos un experimento con tres ejemplos: ya me diréis si he conseguido demostrarlo.
- Un tren se acerca por una vía en la cual hay cinco personas que no tienen forma de enterarse de su llegada hasta que les atropelle, y no puedes avisarles a ellas ni al maquinista. En otra vía hay una única persona, en las mismas circunstancias. Y tú estás en un cambio de agujas: puedes moverlo para desviar al tren desde la vía con cinco personas (morirían los cinco) a la vía con una (sólo moriría este). ¿Qué haces? Piensa la respuesta antes de seguir leyendo, por favor.
- La cosa se complica. Ahora se acerca el mismo tren, manchado de sangre, y en la vía hay cinco personas, las mismas de antes. Como en el primer caso, no tienes forma de avisarles a ellos ni al maquinista, y también te encuentras en un cruce de agujas. Sin embargo, en este caso la vía alternativa hace un bucle y vuelve a la original justo antes del grupo de cinco personas, así que el tren seguiría atropellándoles. No obstante, en ese bucle hay un hombre, mezcla de vendedor de cómics y Gordo Cabrón, con cuya masa se detendría el tren. Pero claro, él la pifiaría. Resumiendo: o dejamos que el tren siga por la vía y se lleve a cinco por delante, o lo desviamos al bucle para que choque con el gordito y se detenga. ¿Qué haces?
- Último ejemplo: en un hospital hay cinco enfermos, cada uno con un fallo letal de un órgano distinto (a uno no le funciona el hígado, a otro el corazón, a otro…), y los cinco morirán inevitablemente a no ser que se les trasplante el órgano defectuoso. No se encuentra ningún donante compatible con ellos, y tampoco serviría emplear las piezas de uno para curar a los otros cuatro. Sin embargo, en la sala de espera del hospital hay una persona, completamente sana, cuyos órganos salvarían a los cinco enfermos… a costa de matarle. ¿Qué haces?
Vale: ahora voy a echar la quiniela. En la primera pregunta, todos sacrificasteis al pobre hombre que estaba solo en la vía. En la segunda seguramente dudasteis, pero muchos habréis desviado el tren. Y en la tercera, (casi) todos dejasteis morir a los cinco pacientes. ¿Me equivoco? Primero acabas con uno para salvar a cinco, y después dejas morir a cinco por no matar a uno. Ahora te pregunto: ¿por qué lo hiciste? La respuesta en el primer caso está clara: ¡es preferible que muera uno a que lo hagan cinco! Estamos de acuerdo. Se llama principio del mal menor, y es un básico en ética. Sin embargo, ¿por qué no lo aplicaste también al segundo y al tercer caso? ¿Por qué no has acabado sólo con uno antes de dejar que cinco mueran? Me dirás: «Ya, ¡es que no es lo mismo!». ¿Seguro?
Déjame que lo ponga con palabras neutras. En el primer ejemplo van a morir cinco personas, y tú matas a una para que esas cinco sobrevivan. En el segundo y en el tercero, igual. ¿No me crees? Vuelve a leerlo. Es más: si eres sagaz habrás visto que el primero es distinto a los otros dos. Pero el segundo y el tercero son iguales entre sí. Y tu respuesta, no obstante, fue distinta. Entonces, si ahora te percatas de eso, ¿por qué cuando respondiste no lo pensaste así? Muy sencillo: porque simplemente no lo pensaste, sino que actuaste guiado por tu instinto; «te pareció» que era lo correcto, pero no has razonado por qué. Tanto es así, que cuando ahora te pido que lo expliques, no puedes, no sabes.
No intentes ahora justificar tu elección, porque con eso acabas de confirmar la teoría. Has decidido con tus sentimientos, y después buscas un argumento que explique/justifique lo que has hecho. Argumento que no consigues encontrar. Aún cuando tu cerebro te dice bien claro que siempre será preferible que muera uno antes de que lo hagan cinco (mal menor, ¿recuerdas?), tú no respondiste eso.
Una última cosa, y ya termino. ¿Sabéis lo que significa «demagogia»? Significa emplear los sentimientos para guiar las decisiones. Que es justo lo que acabo de hacer con vosotros en el experimento. Así que ya lo sabéis: siempre hay que intentar ir al fondo, y no os perdáis (ni dejéis que os pierdan) en los detalles. La cabeza sirve para pensar, y el corazón, para bombear sangre. Si no lo hacéis así, podrán conseguir de vosotros lo que quieran: todo será cuestión de retórica.
Que paséis buen fin de semana.
Factor humano (III): efecto Zeigarnik
EXENCIÓN DE RESPONSABILIDAD: Este no es mi tema: sólo escribo sobre él porque leí un libro que me pareció interesante. Así que si detectáis cualquier error, os agradecería enormemente que lo dijerais y lo explicarais.
Lo reconozco, es deformación profesional, pero me encantan los epónimos. Así que, cuando leí lo del efecto Zeigarnik, no pude menos que dedicarle una entrada. Veamos: ¿a alguno os pasa que no podéis dejar las cosas a medias? ¿Que tenéis que terminar todo lo que empezáis, y si no lo hacéis os ponéis nerviosos? Si es así: ¡felicidades! ¡Sois gente constante, y no unos procrastinadores empedernidos como yo! Pero sabed que eso que os sucede ya fue descrito en los años 20 por la psicóloga rusa Bluma Zeigarnik.
Ella observó que un camarero recordaba mejor los pedidos que aún no había servido que aquellos que ya estaban en las mesas; así pues, parece ser que las labores inacabadas se recuerdan mucho mejor que las ya terminadas. Por otra parte, las tareas inconclusas provocan tensión en el individuo, y una fuerte pulsión por terminarlas: vamos, parecido al dolor de huevos, pero más fisno.
¿Qué implicaciones tienen estos dos hechos? Según el primero, se mantiene que un estudiante recuerda mejor los contenidos aprendidos cuando las clases o sesiones de estudio han tenido alguna pausa intermedia (mira, y yo que pensaba que lo hacer descansitos cada hora era un defecto…). Así mismo, buscando algo de información sobre el tema, he visto otra explicación curiosa en «El psicoanalista lector»: «Para superar los traumas necesitamos tener conciencia de haber alcanzado una meta, concluido una etapa, superado una fase. Muchas veces esa necesidad se concreta en la búsqueda de un por qué, de una razón que explique los acontecimientos del pasado. Cuando no logramos dar con esa razón, el efecto Zeigarnik hace que los recuerdos sigan atormentándonos hurgando en la herida no cicatrizada.»
Y el segundo, el de la tensión, es el que más juego da en el tema de la toma de decisiones: muchas veces es más conveniente pararse y dejar algo sin terminar, que empecinarse en acabarlo. El efecto Zeigarnik lleva a un piloto a intentar ejecutar la aproximación y aterrizar a pesar de que no consigue ver el campo, está lloviendo y hace viento: no puede dejar la tarea a medias (otro día hablaremos sobre el set, la focalización en un único objetivo). Esto además va unido al hecho de que, en situaciones de estrés, todos tendemos a «hacer algo», aunque a menudo esto sea contraproducente. De hecho, recuerdo que en una de las ediciones de «El Factor Humano» en Radio5 explicaban que se había demostrado que los porteros paraban más penaltis cuando no se lanzaban a ningún lado, quedándose en el centro: sin embargo, la presión les inducía pensar que era más efectivo saltar para intentar coger el balón.
Si unimos dos factores del párrafo anterior podemos encontrarnos con que, cuando nos damos cuenta de que llevamos quince minutos caminando por el monte sin pista alguna, optamos por seguir andando para llegar al albergue, en vez de retornar sobre nuestros pasos. O que un médico intenta poner una vía central y, cuando ve que no refluye, en vez de mandar hacer una radiografía de urgencia*, saca el catéter e intenta poner otro.
En resumen: el dejar las cosas a medias, no siempre es malo. El empezar a dar golpes de ciego, sí.
* Si por una vía no refluye sangre, es porque no está en un vaso. Y si estoy intentando poner esa vía en la cavidad torácica (vía central), «igual» he perforado el pulmón y he provocado un neumotórax. Y eso puede llegar a matar al paciente, así que tengo que hacer una placa de tórax cuanto antes para asegurarme de que todo está en orden.
Hablan de esto:
Taringa
TheXcorner
Mal día para dejar de fumar
Factor humano (II): regresión
EXENCIÓN DE RESPONSABILIDAD: Este no es mi tema: sólo escribo sobre él porque leí un libro que me pareció interesante. Así que si detectáis cualquier error, os agradecería enormemente que lo dijerais y lo explicarais.
Creo que lo mejor para entender en qué consiste eso de la regresión es poner un ejemplo, aprovechando que la mayoría de vosotros conducís. Pongamos que tienes el carné desde hace… cinco años, con unos cuantos kilómetros a tus espaldas. El domingo llegaste a Dublín con unos amigos: has ido a visitar a un colega que está estudiando allí y, como él acaba de terminar los exámenes, decidís alquilar un coche para dar una vuelta por el país. Putada: allí conducen por el lado izquierdo. Bueno, no pasa nada: los primeros quinientos kilómetros vas bastante tenso, sin hablar con nadie, centrándote en la carretera. Pero después ya le has cogido el tranquillo: al fin y al cabo, basta con no intentar adelantar. Se os ha hecho tarde y la noche os ha cogido en el camino. Pero, aparte del pequeño retraso, conseguís llegar a vuestro destino sin problema.
Ahora voy a cambiar la situación… Pero después ya le has cogido el tranquillo: al fin y al cabo, basta con no intentar adelantar. Se os ha hecho tarde y la noche os ha cogido en el camino y, como no podía ser menos en este país, se ha puesto a llover. A jarrear, mejor dicho. Encima, como el coche es de alquiler, no aciertas con la palanquita del limpiaparabrisas (¡y la rueda de las luces, que es de noche!). Además, la miiiierda de carreteras que tienen en Irlanda, que te tienes que comer los setos si no quieres chocarte con el de enfrente. Los cristales se empañan: ¿dónde está el botón del antivaho? ¡No veo un carajo! ¡Límpiame esa luneta! Sales de una curva y, de repente, te deslumbran unos faros que se te echan encima.
¿Qué creéis que es más probable que ocurra? ¿Que recuerde que estoy en Irlanda y siga por la izquierda, o que puedan más los cinco años conduciendo en España y pegue un volantazo a la derecha?
Crash: hostiazo. O, cuando menos, un buen susto. ¿Por qué? Porque, bajo una condición de estrés, tendemos a volver a la condición previamente aprendida: lo que los técnicos llaman regresión. La regresión es un mecanismo de defensa contra una experiencia difícil o frustrante. ¿Alguna vez habéis visto un guiri que hable en español cuando se enfada? ¡Ninguno! Además, en una situación así, también tendemos a asumir que nuestra memoria y nuestra atención son mejores de lo que realmente son, razón por la cual es más probable que regresemos al conocimiento aprendido primeramente.
Además, se da la peculiaridad de que a mayor similaridad similitud de los estímulos, mayor es la posibilidad de confusión. Recordad uno de los aforismos de la anestesia: si tenemos que correr al antequirófano, es muy posible que confundamos la ampolla de atropina con la de fenilefrina (así que igual es conveniente que las guardemos separadas…).
Factor humano (I): introducción
Esta es la primera entrada de una (brevísima) serie sobre psicología, y por eso la dedico a hacer la introducción. Estoy a punto de terminar (me queda la parte más aburrida, la de la gestión empresarial) el libro The Naked Pilot que, en contra de lo que pudiera parecer en un primer momento, no es una lasciva recopilación de fotografías de caballeros del aire, sino que se trata de una amena explicación de los factores psicológicos que subyacen en los accidentes de aviación.
El autor, David Beaty, es un psicólogo y veterano piloto que escribió este libro en 1991 para explicar el factor humano de los accidentes aéreos, sirviéndose de su conocimiento en ambos campos para hacerlo de una forma asequible y proporcionando numerosos ejemplos con casos reales. Y, a pesar de emplear un lenguaje un poco antiguo (¿motor de babor y estribor? ¡número uno y número dos, de toda la vida!) resulta bastante interesante.
¡Esperad, esperad, no os vayáis todavía, que aún no he empezado! ¿Psicología y aviación? ¡Qué coñazo! No señor. Me consta que no somos pocos los frikis que nos leemos los informes de las comisiones de accidentes, porque de ellos se pueden sacar lecciones muy útiles para la vida diaria: conceptos como el CRM (Crew Resource Management) o MCC (Multi-Crew Co-operation) pueden, bien entendidos, aplicarse al ámbito cotidiano. Independientemente de que seamos pilotos comerciales, médicos de urgencias o conductores de taxi, la mente humana siempre es la misma, así que es útil saber qué «agujeros» tiene para poder anticiparnos a ellos y evitar o paliar sus consecuencias.
Por dar un par de ejemplos: si sabemos que en una situación de estrés tendemos a focalizarnos sobre un único hecho, la próxima vez que el monitor se ponga a pitar, no nos fijaremos sólo en el parámetro en rojo, sino que controlaremos todos los demás. Si sabemos que no tendemos a hacer aquello que nos mandan, sino aquello que esperamos que nos manden, nos cuidaremos muy mucho de colacionar las instrucciones («Pásale media ampolla de atropina. − ¿Media ampolla de adrenalina? − ¡No, no: de atropina!»).
Para terminar la introducción, sólo hacer un pequeño disclaimer: sabéis el cariño que profeso a pseudociencias como la psicología, así que creedme que no me metería en este berenjenal si no me pareciese interesante. Prometo intentar hacer que sea interesante también para vosotros.
La hipótesis falsa (o el error recurrente)
Cuando la tripulación realizó la segunda aproximación tenían en su mente un escenario que era muy difícil de cambiar. Una vez que se hace una suposición falsa a menudo no es fácil de corregir. Quizás la característica más peligrosa de una hipótesis falsa es que es con frecuencia extremadamente resistente a la corrección. Es fácil adoptarla y muy difícil de abandonar a pesar de que otras evidencias o explicaciones la contradigan.