Etiquetas

, , , , , ,

Este blog no suele tratar temas de actualidad. Normalmente se limita a la Historia, con artículos ocasionales sobre técnica y sobre seguridad operacional en el campo de la aviación, aunque es cierto que a menudo lo que escribo viene determinado por algún hecho actual. Mi anterior artículo es un buen ejemplo y sus lectores debieron de pensar que pronto escribiría una continuación contando qué pasó en Esfacteria. Después recordé cómo el dios Apolo desataba epidemias y consideré dejar Esfacteria para más adelante.

Para complicar las cosas, las críticas al gobierno por su gestión de la situación actual arreciaron, pero surgieron quienes lo defendían acusando a los críticos de estar bajo la influencia del sesgo de retrospectiva. Vaya, hombre, precisamente un tema típico de cualquier curso sobre estudio de accidentes. Esto no lo podía dejar pasar, aun arriesgándome a meterme en camisa de once varas. ¿Qué hacer? Nada como consultar a los lectores.

Y ciertamente los lectores hablaron. Nueve lectores, para ser exactos. Así que vamos allá, con camisa de once varas o sin ella.

Son varios los artículos de este blog que tratan sobre seguridad y citan accidentes como ejemplo. Para explicar lo ocurrido, siempre me dirijo al informe original, pero aun así es frecuente tener que ser cauto en su lectura, puesto que incluso en los informes aparecen aspectos que hay que esforzarse en superar. Para ello hay que tener en cuenta que en la reacción a un suceso no deseado, como un accidente, suelen aparecer cuatro características:

  • Visión retrospectiva: puesto que se conoce el desenlace de la secuencia de hechos.
  • Visión a corta distancia: indicando que es habitual centrarse en los hechos y personas más cercanos al suceso.
  • Visión contrafactual: centrada en lo que se podría haber hecho para evitar el suceso.
  • Visión inculpatoria: se centra en lo que determinadas personas hicieron o dejaron de hacer.

Estas nociones surgen de nuestro propio desarrollo cultural, según el cual todo tiene una causa y los resultados negativos son consecuencia de acciones incorrectas. Lástima que las cosas no sean así: el mundo no es lineal y puede que en lugar de una causa, tras un evento haya muchas razones. En cuanto a las acciones incorrectas o no, basta con poner un ejemplo: el comandante del avión que amerizó en el río Hudson en una situación de emergencia se estaba saltando todos los protocolos habidos y por haber. Acciones incorrectas, según las normas, pero acertadas. Si hubiese seguido la norma, habría intentado regresar al aeropuerto y es casi seguro que se habría estrellado por el camino; sin embargo sus acciones habrían sido impecables según la teoría. El comandante Sullenberger, Sully, tomó una decisión en una situación crítica y acertó. Pero ¿cómo juzgaríamos al mismo piloto si 10 o 15 personas hubiesen muerto en el río?

En relación con los cuatro conceptos mencionados antes está el sesgo de retrospectiva. El observador conoce los hechos y los resultados, de manera que juzga las cosas a toro pasado. Su mirada va hacia atrás en el pasado a partir del suceso y se detiene en el primer evento que encuentra (visión a corta distancia), aprovecha que tiene todo el tiempo del mundo para estudiar cómo se podría haber evitado el suceso (visión contrafactual) y observa lo que en realidad se hizo para llegar a la conclusión de que hubo un error (visión inculpatoria). El accidente se achaca a un error humano y todos contentos. Sobre esto hay muchos artículos en este mismo blog y quien quiera encontrarlos sólo tiene que pinchar en las etiquetas Cultura de seguridad, Accidente aéreo y Seguridad aérea.

A modo de ejemplo, veamos el caso del accidente del AF 447, que ya estudiamos en su momento. Si nos dejamos llevar por las primeras informaciones nos centraremos en  lo que ocurre justo antes del accidente (visión a corta distancia): el piloto automático se desconecta, el piloto humano no comprende el suceso y no acierta a entender que el avión ha entrado en pérdida. Si se hubiese limitado a bajar el morro del avión y dejar que el avión se recuperase (visión contrafactual) todo habría ido bien, pero por su error (visión inculpatoria) el desenlace fue fatal. Muy sencillo, pero no sirve para nada. Ni tiene en cuenta la fatiga, ni la falta de formación en ese tipo de situaciones, ni el hecho de que sólo uno de los tres pilotos tenía el título de comandante, ni el hecho de que había habido incidentes previos, ni sirve para sacar conclusiones que ayuden en el futuro… nada de nada.

Con nuestra visión retrospectiva, sabemos perfectamente lo que habría que haber hecho. De la misma forma, alguien que observara un laberinto desde arriba contemplaría cómo una persona camina sin encontrar la salida y se desesperaría al ver que esa persona gira a la derecha cuando sólo tenía que hacerlo a la izquierda para encontrar la salida tras el siguiente recodo. Desde su posición privilegiada todo es sencillo, de la misma forma que para el investigador son evidentes las acciones que habrían evitado el accidente. Por eso, para encontrar la lógica de las acciones de los implicados en un accidente hay que luchar contra ese sesgo de retrospectiva y meterse en el laberinto con ellos.

Esta noción de sesgo de retrospectiva es muy utilizada por los investigadores que han desarrollado y dado forma a conceptos como Safety II o Cultura Justa. En sus libros y conferencias, los expertos en la materia suelen utilizar para ello ejemplos del mundo de la medicina y del transporte aéreo. Y no es casual, puesto que ambos tienen algunas características en común: los sucesos no deseados pueden tener consecuencias trágicas, las decisiones se tienen que tomar en un lapso de tiempo muy corto (minutos o incluso segundos) y existen métodos establecidos de recolección de datos que permiten reconstruir los accidentes con bastante fidelidad.

Y aquí vienen mis problemas al analizar la actualidad, puesto que en el mundo de la política las consecuencias de una decisión pueden ser trágicas, pero hay mucho tiempo para tomar decisiones y por eso me pregunto si este modelo que acabamos de ver se puede aplicar sin más. No estamos hablando de un piloto aislado del mundo en su cabina, que no acierta a interpretar correctamente un dato escondido entre otros muchos en una situación de estrés, ni de una enfermera que, tras un turno de 16 horas, comete un error al preparar una dosis de un medicamento siguiendo unas confusas instrucciones escritas además a mano porque el ordenador del pediatra que preparó la receta no tenía impresora (ambos casos son reales).

En el caso de la epidemia actual ha habido dos errores que han centrado la atención: que se transmitieran mensajes de normalidad hasta después de la manifestación, apoyada por el gobierno, del 8 de marzo (el día 9 se dijo de pronto “el escenario ha cambiado”) y que no haya material suficiente, no ya para atender a una oleada de pacientes, sino para proteger a los profesionales sanitarios. La discusión se ha centrado en si se podía prever o no la gravedad de la situación. Dejando aparte el hecho de que los contagios siguen, como es previsible, una ley exponencial (hablé sobre esto aquí, hace ya tiempo), sería interesante saber de qué información se disponía. No podemos saber qué informes estaban sobre la mesa de los responsables, pero sí qué decía la Organización Mundial de la Salud en público. Basta con ojear sus tuits.

El 30 de enero se declaró una emergencia de salud pública:

El 18 de febrero ya se advertía del problema del incremento de la demanda de material de protección.

Sobre ese mismo tema se insistía el 5 de marzo. La OMS pedía que se activaran los planes de emergencia en cada país, se divulgara información al público para que conocieran los síntomas y supieran cómo reducir el riesgo de contagio, se incrementara la disponibilidad de tests para detectar quiénes estaban infectados, se preparara a los hospitales para la situación y se garantizara la existencia de equipos adecuados.

Sobre la necesidad de equipos, la OMS citaba también cuáles son los instrumentos esenciales y la cantidad requerida cada mes en todo el mundo.

Y ahora viene para nosotros el problema de ponerse en guardia contra el sesgo de retrospectiva, entrar en el laberinto y decidir hacia dónde habríamos ido con esta información. Y no estamos hablando de tomar la decisión en unos minutos, sino de tener semanas, incluso meses, para prepararse. Si decidimos que las advertencias no eran suficientes, la falta de previsión es un trágico error; si consideramos que se desoyeron una y otra vez las advertencias de la principal organización de expertos estaríamos hablando de una negligencia criminal. Reconozco que a mí me resulta especialmente difícil, por no decir imposible, conceder el beneficio de la duda a los cargos políticos, dada su tendencia a actuar siguiendo precisamente las cuatro características de visión retrospectiva, a corta distancia, contrafactual e inculpatoria mencionadas antes. Quien se pregunte por qué digo esto que lea, por ejemplo, mi artículo La cultura del error.

Pero la conclusión que se alcance, error o negligencia, tampoco depende en realidad de los hechos ni de dónde se trace la línea. Depende de quién traza la línea. Cada cuál verá lo que quiera ver según, probablemente, su orientación política. En palabras de uno de los principales estudiosos en el campo de la seguridad, Sidney Dekker, en su libro Just culture: balancing safety and accountability, refiriéndose al problema de quién traza la línea en el caso de un accidente:

No se trata de que uno no tenga nada que temer cuando no ha hecho nada malo sino de que uno no tiene nada que temer si el juez decide que no ha hecho nada malo.

(Nota: La traducción no es literalmente exacta, pero el sentido sí lo es).

Independientemente del veredicto, en el mundo de la seguridad operacional algo está muy claro: el error no es más que un síntoma de fallos más profundos en el conjunto del sistema. La investigación debe servir para corregir esos fallos de manera que el sistema esté a salvo de futuros errores. ¿Servirá todo esto para algo? ¿Se corregirán esos fallos para tener un sistema que responda rápida y eficientemente ante futuras amenazas sanitarias? De momento ya hay una propuesta de mejora. La hizo el 18 de marzo, en el Congreso de los Diputados, el diputado del PNV Aitor Esteban, que dijo:

Crisis como estas superan las fronteras. Cuando pase esto, tenemos que plantearnos seriamente un sistema internacional de alerta y prevención de crisis sanitarias”

Una idea excelente si no llegara con 72 años de retraso, porque ese sistema existe desde 1948, depende de la ONU, se llama Organización Mundial de la Salud, dio una alerta en enero en forma de declaración de emergencia sanitaria y desde entonces no ha dejado de insistir en dar la alarma. El sistema de alerta y prevención existe, pero lo que hay que plantearse seriamente es por qué no se le hace caso. Nos habríamos ahorrado tener que explicar cuándo se puede hablar con propiedad y cuándo no del sesgo de retrospectiva.