• Sobre el blog
  • Un año en Los Gelves
  • Diez años en Los Gelves

Los Gelves

~ Somos lo que somos porque fuimos lo que fuimos.

Los Gelves

Archivos de etiqueta: Cultura de seguridad

El lento deslizamiento hacia el desastre

23 domingo May 2021

Posted by ibadomar in Cultura de seguridad

≈ 2 comentarios

Etiquetas

Cultura de seguridad, Modelo de Reason, Rasmussen, Seguridad aérea

Hace bastante que no escribo sobre seguridad operacional, a pesar de que me quedan algunos puntos por aclarar tras artículos como El factor humano, en el que describí el conocidísimo modelo de Reason. Este modelo deja claro que las diferentes capas de seguridad presentan inevitablemente unos huecos que, en caso de alinearse, dejan paso al temido accidente. Cuando éste ocurre no falta nunca un análisis en el que se lamenta que se permitiera que estos agujeros de seguridad crecieran.

El modelo de Reason explica satisfactoriamente cómo un fallo único no es suficiente para provocar un accidente, puesto que hay diferentes capas de seguridad y es necesario alinear fallos, tanto latentes como activos, en todas las capas para llegar a un desenlace fatal. Reason obliga a buscar más allá del fallo activo al analizar un accidente, pero tiene un punto débil: no explica cómo y por qué se producen los agujeros de las capas de seguridad.

El profesor Jens Rasmussen, por su parte, elaboró un modelo que sí explica las razones por las que un sistema se degrada y, en consecuencia, se desliza hacia el fallo. Su modelo se adapta muy bien a organizaciones en las que se requiere un nivel de seguridad muy alto y se mueven en un ambiente muy competitivo. Casos típicos de aplicación son sectores en los que una operación fallida tiene consecuencias desastrosas, como puede ser la sanidad o la aviación. El modelo considera la existencia de un espacio en el que se desarrollan las operaciones de la organización a estudiar, sea ésta un hospital, una aerolínea, un centro de control aéreo o una central nuclear. Para mayor simplicidad, veámoslo con una imagen:

El área de forma aproximadamente triangular encerrada por tres líneas coloreadas representa los límites de nuestro espacio de operaciones, mientras que el punto azul es la situación en la que nos encontramos, que puede evolucionar moviéndose por ese espacio limitado. En su movimiento, el punto azul puede llegar a estar muy cerca de alguno de los límites, pero nunca traspasarlos porque de hacerlo las consecuencias serían desastrosas e incluso podrían llevar a la organización a su desaparición. Esto se explica por la naturaleza de los límites:

-La línea azul representa el límite económico. Acercarse a él, significa que las operaciones no son rentables y traspasarlo quiere decir que se ha llegado a la quiebra, con la consiguiente ruina de la organización y el cese de operaciones. Es por tanto, un límite infranqueable.

-La línea verde es un límite impuesto por las condiciones de trabajo. Si la presión sobre los trabajadores se incrementa nos acercaremos a este límite, lo que implica que habrá dimisiones, bajas laborales motivadas por depresión, ansiedad, enfermedades coronarias, etc y, en última instancia, incluso muertes por exceso de trabajo, situación que se conoce con la palabra japonesa karoshi, que se aplica al fallecimiento de una persona que realiza constantemente jornadas de trabajo extenuantes. Traspasar la línea verde deteriora la situación de tal manera que la operación deja de ser viable.

-La línea roja es el límite de seguridad. Franquearla significa que se produce un accidente con todo lo que ello conlleva de pérdidas humanas y materiales sumadas al deterioro de la credibilidad que sufre la organización, por lo que a la tragedia se suma, con frecuencia, el cese de operaciones. En este mismo blog hay un ejemplo en el artículo El fin de una aerolínea.

De manera que tenemos un espacio limitado del que no debemos salir. A mantenernos dentro de él contribuyen distintas presiones que nos alejan de los límites. En el dibujo vemos claramente dos de ellas: la flecha azul es la tendencia en busca de mayor eficiencia que ejerce constantemente la dirección de la empresa. Ya sea por evitar pérdidas o para aumentar ganancias, los directivos ejercen una presión que aleja las operaciones del límite económico, pero inevitablemente nos acerca a los otros límites.

Los propios trabajadores suelen presionar para alejarse de la línea verde: todo el mundo busca la forma de realizar el mismo trabajo más deprisa, sobre todo si la cantidad de trabajo o la presión por sacarlo adelante es excesiva, de manera que se acortan procedimientos engorrosos aunque ello signifique apartarse del funcionamiento nominal del sistema. Solemos llamar a esto, un tanto peyorativamente, aplicar la ley del mínimo esfuerzo, pero a menudo es la única manera de sacar adelante el trabajo. Si algún lector espera siempre a que el semáforo se ponga verde para cruzar la calle, que levante la mano y que sea consciente de ser la única persona que nunca ha tenido prisa en su vida. Esta tendencia a sacudirse la presión laboral la representa la flecha verde del dibujo.

Si la flecha azul nos aleja del límite económico y la verde del exceso de trabajo ¿adónde nos lleva la combinación de ambas? Inevitablemente hacia el límite rojo y de ahí la flecha roja, resultante de las dos anteriores. Lo peor de todo es que el rojo no es un límite claramente establecido, como lo es el azul, sino que es muy difuso. El departamento de contabilidad nos avisará con toda precisión: «de seguir así tendremos que cesar operaciones por bancarrota en noviembre», pero nadie tiene el poder de decir: «de continuar así, habrá un accidente dentro de 6 semanas». Como mucho podemos observar la tendencia y estar alerta en caso de que se incremente el número de incidentes.

Ni siquiera así. La doctora en sociología Diane Vaughan describió, al estudiar el accidente del transbordador espacial Challenger, el fenómeno de normalization of deviance, que traduciré por estandarización de lo anormal. Aunque la operación esté fuera de normas se supone que es segura porque se ha realizado otras veces sin consecuencias negativas. Así se normaliza una alteración de los procedimientos, luego otra, y otra… El físico Richard Feynman, cuando formó parte de la comisión que estudió ese mismo accidente lo describió de una forma muy gráfica: es como si se jugara a la ruleta rusa asumiendo que es seguro apretar el gatillo sólo porque no se produjo el disparo en el intento anterior.

En cierta ocasión asistí a una conferencia en la que el profesor Erik Hollnagel comparaba las organizaciones que se mueven en las cercanías de la línea roja con un niño al que se le prohíbe acercarse a un sitio peligroso, por ejemplo un cuadro eléctrico. «No te acerques más allá de aquí» se le dice al niño y éste se queda en el lugar designado mientras observa la zona prohibida, mira de reojo a sus padres y, cuando cree que no lo ven, da un pasito adelante. Como no pasa nada, repite el juego acercándose cada vez más. Y así, poco a poco, paso a paso, nos vamos acercando al lugar peligroso con la confianza que da saber que no ha pasado nada a pesar de que ya estamos en el área prohibida.

Hay muchos ejemplos en los que la presión por reducir costes y maximizar la eficiencia tuvo efectos catastróficos. En el blog he mencionado casos como el del Lamia 2933 que describí en el artículo El precio del combustible, pero resulta especialmente clarificador el dictamen del Congreso de los Diputados que se ha publicado con fecha 22 de abril de este año, hace apenas un mes, referente al accidente del vuelo de Spanair JK5022, ocurrido el 20 de agosto de 2008. Quien haga click en el enlace para leerlo podrá encontrar en la página 165, entre las conclusiones, la siguiente frase:

(…) los pilotos ante el retraso del vuelo actuaron presionados por el compromiso asumido por la aerolínea mediante campaña publicitaria de devolver el importe de los pasajes en caso de salidas impuntuales, ligado con la presentación de un ERE el 8 de agosto de 2008 que afectaba a más de 1.200 empleados de la Compañía (…)

La razón de esa presión queda bastante clara en la página anterior:

(…) la compañía Spanair ya en el año del siniestro venía sufriendo serias dificultades económicas (…)

Es una muestra perfecta de la situación típica en las organizaciones que estudió el profesor Rasmussen: la compañía estaba incrementando la presión para alejarse de la temida línea azul. Recordemos además que en este accidente se produjo una incorrecta configuración del avión para el despegue (no se habían desplegado los flaps). ¿No vemos ahí una consecuencia de las prisas por estar cuanto antes en el aire y por tanto el efecto de la flecha verde de nuestro dibujo? El dictamen del Congreso no lo puede decir más claro: los pilotos actuaron presionados.

El efecto de ambas presiones es, según el modelo de Rasmussen, que la organización se desliza lentamente hacia la línea roja que delimita la zona de seguridad. Por desgracia nadie sabe dónde está exactamente y sólo se hace evidente su cercanía cuando se traspasa. Pero entonces ya es tarde.

Compartir

  • Twitter
  • Facebook
  • Meneame
  • Correo electrónico
  • LinkedIn

Me gusta esto:

Me gusta Cargando...

La súbita fama del sesgo de retrospectiva

31 martes Mar 2020

Posted by ibadomar in Actualidad, Cultura de seguridad

≈ 1 comentario

Etiquetas

AF447, Cultura de seguridad, Cultura justa, Factores humanos, OMS, Sidney Dekker, Sully

Este blog no suele tratar temas de actualidad. Normalmente se limita a la Historia, con artículos ocasionales sobre técnica y sobre seguridad operacional en el campo de la aviación, aunque es cierto que a menudo lo que escribo viene determinado por algún hecho actual. Mi anterior artículo es un buen ejemplo y sus lectores debieron de pensar que pronto escribiría una continuación contando qué pasó en Esfacteria. Después recordé cómo el dios Apolo desataba epidemias y consideré dejar Esfacteria para más adelante.

Para complicar las cosas, las críticas al gobierno por su gestión de la situación actual arreciaron, pero surgieron quienes lo defendían acusando a los críticos de estar bajo la influencia del sesgo de retrospectiva. Vaya, hombre, precisamente un tema típico de cualquier curso sobre estudio de accidentes. Esto no lo podía dejar pasar, aun arriesgándome a meterme en camisa de once varas. ¿Qué hacer? Nada como consultar a los lectores.

Y ciertamente los lectores hablaron. Nueve lectores, para ser exactos. Así que vamos allá, con camisa de once varas o sin ella.

Son varios los artículos de este blog que tratan sobre seguridad y citan accidentes como ejemplo. Para explicar lo ocurrido, siempre me dirijo al informe original, pero aun así es frecuente tener que ser cauto en su lectura, puesto que incluso en los informes aparecen aspectos que hay que esforzarse en superar. Para ello hay que tener en cuenta que en la reacción a un suceso no deseado, como un accidente, suelen aparecer cuatro características:

  • Visión retrospectiva: puesto que se conoce el desenlace de la secuencia de hechos.
  • Visión a corta distancia: indicando que es habitual centrarse en los hechos y personas más cercanos al suceso.
  • Visión contrafactual: centrada en lo que se podría haber hecho para evitar el suceso.
  • Visión inculpatoria: se centra en lo que determinadas personas hicieron o dejaron de hacer.

Estas nociones surgen de nuestro propio desarrollo cultural, según el cual todo tiene una causa y los resultados negativos son consecuencia de acciones incorrectas. Lástima que las cosas no sean así: el mundo no es lineal y puede que en lugar de una causa, tras un evento haya muchas razones. En cuanto a las acciones incorrectas o no, basta con poner un ejemplo: el comandante del avión que amerizó en el río Hudson en una situación de emergencia se estaba saltando todos los protocolos habidos y por haber. Acciones incorrectas, según las normas, pero acertadas. Si hubiese seguido la norma, habría intentado regresar al aeropuerto y es casi seguro que se habría estrellado por el camino; sin embargo sus acciones habrían sido impecables según la teoría. El comandante Sullenberger, Sully, tomó una decisión en una situación crítica y acertó. Pero ¿cómo juzgaríamos al mismo piloto si 10 o 15 personas hubiesen muerto en el río?

En relación con los cuatro conceptos mencionados antes está el sesgo de retrospectiva. El observador conoce los hechos y los resultados, de manera que juzga las cosas a toro pasado. Su mirada va hacia atrás en el pasado a partir del suceso y se detiene en el primer evento que encuentra (visión a corta distancia), aprovecha que tiene todo el tiempo del mundo para estudiar cómo se podría haber evitado el suceso (visión contrafactual) y observa lo que en realidad se hizo para llegar a la conclusión de que hubo un error (visión inculpatoria). El accidente se achaca a un error humano y todos contentos. Sobre esto hay muchos artículos en este mismo blog y quien quiera encontrarlos sólo tiene que pinchar en las etiquetas Cultura de seguridad, Accidente aéreo y Seguridad aérea.

A modo de ejemplo, veamos el caso del accidente del AF 447, que ya estudiamos en su momento. Si nos dejamos llevar por las primeras informaciones nos centraremos en  lo que ocurre justo antes del accidente (visión a corta distancia): el piloto automático se desconecta, el piloto humano no comprende el suceso y no acierta a entender que el avión ha entrado en pérdida. Si se hubiese limitado a bajar el morro del avión y dejar que el avión se recuperase (visión contrafactual) todo habría ido bien, pero por su error (visión inculpatoria) el desenlace fue fatal. Muy sencillo, pero no sirve para nada. Ni tiene en cuenta la fatiga, ni la falta de formación en ese tipo de situaciones, ni el hecho de que sólo uno de los tres pilotos tenía el título de comandante, ni el hecho de que había habido incidentes previos, ni sirve para sacar conclusiones que ayuden en el futuro… nada de nada.

Con nuestra visión retrospectiva, sabemos perfectamente lo que habría que haber hecho. De la misma forma, alguien que observara un laberinto desde arriba contemplaría cómo una persona camina sin encontrar la salida y se desesperaría al ver que esa persona gira a la derecha cuando sólo tenía que hacerlo a la izquierda para encontrar la salida tras el siguiente recodo. Desde su posición privilegiada todo es sencillo, de la misma forma que para el investigador son evidentes las acciones que habrían evitado el accidente. Por eso, para encontrar la lógica de las acciones de los implicados en un accidente hay que luchar contra ese sesgo de retrospectiva y meterse en el laberinto con ellos.

Esta noción de sesgo de retrospectiva es muy utilizada por los investigadores que han desarrollado y dado forma a conceptos como Safety II o Cultura Justa. En sus libros y conferencias, los expertos en la materia suelen utilizar para ello ejemplos del mundo de la medicina y del transporte aéreo. Y no es casual, puesto que ambos tienen algunas características en común: los sucesos no deseados pueden tener consecuencias trágicas, las decisiones se tienen que tomar en un lapso de tiempo muy corto (minutos o incluso segundos) y existen métodos establecidos de recolección de datos que permiten reconstruir los accidentes con bastante fidelidad.

Y aquí vienen mis problemas al analizar la actualidad, puesto que en el mundo de la política las consecuencias de una decisión pueden ser trágicas, pero hay mucho tiempo para tomar decisiones y por eso me pregunto si este modelo que acabamos de ver se puede aplicar sin más. No estamos hablando de un piloto aislado del mundo en su cabina, que no acierta a interpretar correctamente un dato escondido entre otros muchos en una situación de estrés, ni de una enfermera que, tras un turno de 16 horas, comete un error al preparar una dosis de un medicamento siguiendo unas confusas instrucciones escritas además a mano porque el ordenador del pediatra que preparó la receta no tenía impresora (ambos casos son reales).

En el caso de la epidemia actual ha habido dos errores que han centrado la atención: que se transmitieran mensajes de normalidad hasta después de la manifestación, apoyada por el gobierno, del 8 de marzo (el día 9 se dijo de pronto “el escenario ha cambiado”) y que no haya material suficiente, no ya para atender a una oleada de pacientes, sino para proteger a los profesionales sanitarios. La discusión se ha centrado en si se podía prever o no la gravedad de la situación. Dejando aparte el hecho de que los contagios siguen, como es previsible, una ley exponencial (hablé sobre esto aquí, hace ya tiempo), sería interesante saber de qué información se disponía. No podemos saber qué informes estaban sobre la mesa de los responsables, pero sí qué decía la Organización Mundial de la Salud en público. Basta con ojear sus tuits.

El 30 de enero se declaró una emergencia de salud pública:

El 18 de febrero ya se advertía del problema del incremento de la demanda de material de protección.

Sobre ese mismo tema se insistía el 5 de marzo. La OMS pedía que se activaran los planes de emergencia en cada país, se divulgara información al público para que conocieran los síntomas y supieran cómo reducir el riesgo de contagio, se incrementara la disponibilidad de tests para detectar quiénes estaban infectados, se preparara a los hospitales para la situación y se garantizara la existencia de equipos adecuados.

Sobre la necesidad de equipos, la OMS citaba también cuáles son los instrumentos esenciales y la cantidad requerida cada mes en todo el mundo.

Y ahora viene para nosotros el problema de ponerse en guardia contra el sesgo de retrospectiva, entrar en el laberinto y decidir hacia dónde habríamos ido con esta información. Y no estamos hablando de tomar la decisión en unos minutos, sino de tener semanas, incluso meses, para prepararse. Si decidimos que las advertencias no eran suficientes, la falta de previsión es un trágico error; si consideramos que se desoyeron una y otra vez las advertencias de la principal organización de expertos estaríamos hablando de una negligencia criminal. Reconozco que a mí me resulta especialmente difícil, por no decir imposible, conceder el beneficio de la duda a los cargos políticos, dada su tendencia a actuar siguiendo precisamente las cuatro características de visión retrospectiva, a corta distancia, contrafactual e inculpatoria mencionadas antes. Quien se pregunte por qué digo esto que lea, por ejemplo, mi artículo La cultura del error.

Pero la conclusión que se alcance, error o negligencia, tampoco depende en realidad de los hechos ni de dónde se trace la línea. Depende de quién traza la línea. Cada cuál verá lo que quiera ver según, probablemente, su orientación política. En palabras de uno de los principales estudiosos en el campo de la seguridad, Sidney Dekker, en su libro Just culture: balancing safety and accountability, refiriéndose al problema de quién traza la línea en el caso de un accidente:

No se trata de que uno no tenga nada que temer cuando no ha hecho nada malo sino de que uno no tiene nada que temer si el juez decide que no ha hecho nada malo.

(Nota: La traducción no es literalmente exacta, pero el sentido sí lo es).

Independientemente del veredicto, en el mundo de la seguridad operacional algo está muy claro: el error no es más que un síntoma de fallos más profundos en el conjunto del sistema. La investigación debe servir para corregir esos fallos de manera que el sistema esté a salvo de futuros errores. ¿Servirá todo esto para algo? ¿Se corregirán esos fallos para tener un sistema que responda rápida y eficientemente ante futuras amenazas sanitarias? De momento ya hay una propuesta de mejora. La hizo el 18 de marzo, en el Congreso de los Diputados, el diputado del PNV Aitor Esteban, que dijo:

”Crisis como estas superan las fronteras. Cuando pase esto, tenemos que plantearnos seriamente un sistema internacional de alerta y prevención de crisis sanitarias”

Una idea excelente si no llegara con 72 años de retraso, porque ese sistema existe desde 1948, depende de la ONU, se llama Organización Mundial de la Salud, dio una alerta en enero en forma de declaración de emergencia sanitaria y desde entonces no ha dejado de insistir en dar la alarma. El sistema de alerta y prevención existe, pero lo que hay que plantearse seriamente es por qué no se le hace caso. Nos habríamos ahorrado tener que explicar cuándo se puede hablar con propiedad y cuándo no del sesgo de retrospectiva.

Compartir

  • Twitter
  • Facebook
  • Meneame
  • Correo electrónico
  • LinkedIn

Me gusta esto:

Me gusta Cargando...

Un golpe bajo

09 martes Jul 2019

Posted by ibadomar in Aviación, Cultura de seguridad

≈ Deja un comentario

Etiquetas

Aviación, Control aéreo, Cultura de seguridad, Cultura justa, IFATCA, Incidente aéreo, Seguridad aérea

Hace mucho que no paso por aquí, por mi propio blog, y no porque haya perdido la afición a escribir sino porque ando fatal de tiempo. Es lo que tiene la vida real, la que transcurre fuera de internet, que suele venir con exigencias y no se puede dejar de atenderlas. Y así estaba yo, buscando un hueco libre y sin encontrarlo y, lo peor de todo, perdiendo el hábito de escribir y publicar. Y entonces, el 4 de julio, ocurrió algo que puede traer consecuencias preocupantes para la seguridad aérea en Europa.

Pero vayamos por partes. Los habituales del blog recordarán varios artículos sobre cultura de seguridad en aviación, y no sólo en aviación (ver la etiqueta Cultura de seguridad para una lista completa de los artículos). Es recomendable releer alguno de ellos para encontrar la definición de Cultura Justa, un ejemplo teórico de cómo aplicar una visión sistémica en un riesgo de accidente y un ejemplo práctico de cómo usar el error humano como inicio de una investigación para hallar fallos sistémicos.

Quien quiera profundizar un poco sólo tiene que hacer click en los enlaces del párrafo anterior. En cualquier caso, la idea básica es sencilla de comprender: para que haya un accidente no basta con que algún componente del sistema no cumpla su función sino que son necesarios varios factores encadenados. Por otro lado, los accidentes suelen tener precedentes menos graves, los incidentes. Estudiando incidentes es posible hallar puntos débiles en la cadena de seguridad, pero el estudio sólo es posible si se sabe que ha existido un incidente y se recoge una información lo más completa posible sobre él.

La visión tradicional y simplista de la seguridad cree que el sistema es perfecto y que sólo lo puede estropear la actuación inapropiada de quienes están a cargo de él. En caso de accidente (o de incidente) busca a un culpable, le carga la responsabilidad, le impone un castigo y confía en que sirva de escarmiento. Quienes hayan leído los artículos referenciados más arriba saben que eso no sirve de mucho. Hay varios motivos, pero uno de ellos, el que nos interesa hoy, es que quien vive en semejante ambiente hará todo lo posible por ocultar errores e incidentes con el fin de evitar que recaigan sobre él las consecuencias. No informará de ningún fallo a no ser que no tenga más remedio, y en ese caso lo hará de forma sesgada para intentar ponerse a salvo.

Por eso surgió el concepto de Cultura Justa, que reconoce el derecho del operario de un sistema a equivocarse y la existencia del llamado «error honesto», cometido inintencionadamente por alguien que actúa según su formación y experiencia. Una de las grandes ventajas de la implantación de dicho concepto es que gracias a él es posible crear un clima de confianza en el que no exista motivo para ocultar un incidente, incluso reconociendo errores propios que puedan haber contribuido a los hechos. Así surgieron los sistemas de notificación de incidentes, que son la base de los sistemas de gestión de seguridad actuales. En palabras de la máxima autoridad en cuestiones de aviación civil, la OACI en su documento 9859, cuarta edición (2018):

3.2.5.2 (…) Si las organizaciones e individuos que notifican problemas de seguridad operacional están protegidos y son tratados en forma justa y coherente, es más probable que divulguen dicha información y trabajen con los reglamentadores o administradores para gestionar eficazmente los riesgos de seguridad operacional conexos.

Y tras este largo preámbulo vamos con los hechos: en abril del año 2013 hubo un incidente sin mayores consecuencias entre dos aviones que volaban sobre Suiza. Después de leer todo lo anterior, se podría pensar que los implicados rellenaron sendos informes de seguridad, que los departamentos de seguridad correspondientes estudiaron el incidente para intentar extraer conclusiones, y que no hubo más consecuencias. Pues bien, lo primero es cierto, lo segundo lo desconozco y lo tercero es falso: la fiscalía, a partir de una ley que data de 1942, abrió diligencias penales contra pilotos y controladores y los tribunales admitieron su versión. Las apelaciones se sucedieron y la última instancia, el tribunal federal, confirmó la sentencia condenatoria el pasado 4 de julio. Ése es el hecho que me sacó de mi marasmo.

Y no sólo a mí, sino a todo el que tiene relación con la seguridad aérea. Como era de esperar, la asociación profesional suiza de controladores aéreos, Aerocontrol, publicó inmediatamente un comunicado (texto en alemán) expresando su preocupación. En la misma línea se expresó Skyguide, la empresa que se encarga del servicio de control y a la que pertenece el controlador afectado, y que también ha publicado una nota (texto en inglés). Ambos comunicados explican los hechos, aclaran que tanto el controlador implicado como uno de los pilotos fueron los que iniciaron, con sus informes sobre el incidente, la investigación que ahora se ha vuelto contra ellos y muestran su inquietud por el deterioro para la seguridad que puede acarrear el desenlace. En circunstancias como ésta, como se ve, empresa y empleados van de la mano.

El asunto va más allá de Suiza. Mientras asociaciones de controladores de varios países expresan su preocupación, IFATCA, la Federación Internacional de Asociaciones de Controladores Aéreos, ha iniciado la publicación de una serie de artículos sobre la dificultad de que sobreviva la Cultura Justa en un ambiente punitivo. El primero de dichos artículos, con el significativo título ¿Estamos enterrando la Cultura Justa para siempre? está ya disponible (en inglés).

El problema es muy complicado: por un lado, la seguridad requiere que existan sistemas de notificación e incluso hay en muchos países obligación de notificar cualquier incidente, pero en el caso que nos ocupa esta obligación legal colisiona con el derecho de toda persona a no presentar una declaración que se pueda utilizar en su contra ante un tribunal. Bonito lío para quien sea aficionado al Derecho. La única solución lógica es revisar la legislación para que no haya contradicciones de este tipo, pero eso es mucho más fácil de decir que de hacer.

Me gustaría creer que este embrollo servirá para llamar la atención sobre un problema muy delicado y que pronto se iniciará un proceso que llevará a su solución, porque en el fondo soy un optimista. Pero muy en el fondo, porque en la superficie soy bastante realista y me preocupa que podamos estar asistiendo a la primera paletada de tierra sobre la sepultura de la Cultura Justa, a la que podrían seguir otras, porque hay más casos en Suiza pendientes de apelación y ya se ha visto por dónde pueden ir los tiros. Lo cierto es que entre los profesionales del sector, y los comunicados de Aerocontrol y Skyguide, así como el artículo de IFATCA lo demuestran, existe el temor de que el péndulo de la seguridad haya llegado al final de su recorrido y esté iniciando su retroceso. El tiempo dirá si es un temor infundado.

 

Compartir

  • Twitter
  • Facebook
  • Meneame
  • Correo electrónico
  • LinkedIn

Me gusta esto:

Me gusta Cargando...
← Entradas anteriores

Por iBadomar

Únete a otros 114 suscriptores

Estadísticas del blog

  • 109.307 visitas

Páginas

  • Diez años en Los Gelves
  • Sobre el blog
  • Un año en Los Gelves

Archivo de entradas

Etiquetas

Accidente aéreo Alejandro Magno Alemania Alfonso XIII Antigüedad Arqueología Arquitectura Arte Atenas Aviación Batalla Carlos II Cartago Cervantes Cine Comunismo Constantinopla Constitucion Control aéreo Corrupción Corsarios Cruzadas Cultura de seguridad Cultura justa Diocleciano Edad Media Edad Moderna Egipto Esparta España Espionaje Factores humanos Felipe V Fiscalidad Francia Franquismo Grecia Guerra del Peloponeso Guerra de Marruecos Guerra de Sucesión Guerra Fría Herodoto Hindenburg Historia Hitler ILS Imperio Bizantino Incidente aéreo Inocencio III Isabel I Isabel II Jerjes Jolly Roger Julio César Literatura Ludendorff Luis XIV Luis XVIII Messerschmitt Modelo de Reason Modelo SHELL Momentos cruciales Mussolini Napoleón Navegación aérea Periodismo Persia Pintura Piratas Política Prehistoria Primera Guerra Mundial Pétain Radar Reactor Realismo Renacimiento Restauración Revolución Revolución francesa Roma Salamina Segunda Guerra Mundial Seguridad aérea Sicilia Siglo XIX Siglo XVII Siglo XVIII Siglo XX Sila Stalin TCAS Temístocles Tetrarquía Tito Livio Transición Técnica Uberlingen Ucrania URSS

Meta

  • Registro
  • Acceder
  • Feed de entradas
  • Feed de comentarios
  • WordPress.com

Crea un blog o un sitio web gratuitos con WordPress.com.

Privacidad y cookies: este sitio utiliza cookies. Al continuar utilizando esta web, aceptas su uso.
Para obtener más información, incluido cómo controlar las cookies, consulta aquí: Política de cookies
  • Seguir Siguiendo
    • Los Gelves
    • Únete a 114 seguidores más
    • ¿Ya tienes una cuenta de WordPress.com? Accede ahora.
    • Los Gelves
    • Personalizar
    • Seguir Siguiendo
    • Regístrate
    • Acceder
    • Denunciar este contenido
    • Ver sitio web en el Lector
    • Gestionar las suscripciones
    • Contraer esta barra
 

Cargando comentarios...
 

    A %d blogueros les gusta esto: