• Sobre el blog
  • Un año en Los Gelves
  • Diez años en Los Gelves

Los Gelves

~ Somos lo que somos porque fuimos lo que fuimos.

Los Gelves

Archivos de etiqueta: Cultura justa

La súbita fama del sesgo de retrospectiva

31 martes Mar 2020

Posted by ibadomar in Actualidad, Cultura de seguridad

≈ 1 comentario

Etiquetas

AF447, Cultura de seguridad, Cultura justa, Factores humanos, OMS, Sidney Dekker, Sully

Este blog no suele tratar temas de actualidad. Normalmente se limita a la Historia, con artículos ocasionales sobre técnica y sobre seguridad operacional en el campo de la aviación, aunque es cierto que a menudo lo que escribo viene determinado por algún hecho actual. Mi anterior artículo es un buen ejemplo y sus lectores debieron de pensar que pronto escribiría una continuación contando qué pasó en Esfacteria. Después recordé cómo el dios Apolo desataba epidemias y consideré dejar Esfacteria para más adelante.

Para complicar las cosas, las críticas al gobierno por su gestión de la situación actual arreciaron, pero surgieron quienes lo defendían acusando a los críticos de estar bajo la influencia del sesgo de retrospectiva. Vaya, hombre, precisamente un tema típico de cualquier curso sobre estudio de accidentes. Esto no lo podía dejar pasar, aun arriesgándome a meterme en camisa de once varas. ¿Qué hacer? Nada como consultar a los lectores.

Y ciertamente los lectores hablaron. Nueve lectores, para ser exactos. Así que vamos allá, con camisa de once varas o sin ella.

Son varios los artículos de este blog que tratan sobre seguridad y citan accidentes como ejemplo. Para explicar lo ocurrido, siempre me dirijo al informe original, pero aun así es frecuente tener que ser cauto en su lectura, puesto que incluso en los informes aparecen aspectos que hay que esforzarse en superar. Para ello hay que tener en cuenta que en la reacción a un suceso no deseado, como un accidente, suelen aparecer cuatro características:

  • Visión retrospectiva: puesto que se conoce el desenlace de la secuencia de hechos.
  • Visión a corta distancia: indicando que es habitual centrarse en los hechos y personas más cercanos al suceso.
  • Visión contrafactual: centrada en lo que se podría haber hecho para evitar el suceso.
  • Visión inculpatoria: se centra en lo que determinadas personas hicieron o dejaron de hacer.

Estas nociones surgen de nuestro propio desarrollo cultural, según el cual todo tiene una causa y los resultados negativos son consecuencia de acciones incorrectas. Lástima que las cosas no sean así: el mundo no es lineal y puede que en lugar de una causa, tras un evento haya muchas razones. En cuanto a las acciones incorrectas o no, basta con poner un ejemplo: el comandante del avión que amerizó en el río Hudson en una situación de emergencia se estaba saltando todos los protocolos habidos y por haber. Acciones incorrectas, según las normas, pero acertadas. Si hubiese seguido la norma, habría intentado regresar al aeropuerto y es casi seguro que se habría estrellado por el camino; sin embargo sus acciones habrían sido impecables según la teoría. El comandante Sullenberger, Sully, tomó una decisión en una situación crítica y acertó. Pero ¿cómo juzgaríamos al mismo piloto si 10 o 15 personas hubiesen muerto en el río?

En relación con los cuatro conceptos mencionados antes está el sesgo de retrospectiva. El observador conoce los hechos y los resultados, de manera que juzga las cosas a toro pasado. Su mirada va hacia atrás en el pasado a partir del suceso y se detiene en el primer evento que encuentra (visión a corta distancia), aprovecha que tiene todo el tiempo del mundo para estudiar cómo se podría haber evitado el suceso (visión contrafactual) y observa lo que en realidad se hizo para llegar a la conclusión de que hubo un error (visión inculpatoria). El accidente se achaca a un error humano y todos contentos. Sobre esto hay muchos artículos en este mismo blog y quien quiera encontrarlos sólo tiene que pinchar en las etiquetas Cultura de seguridad, Accidente aéreo y Seguridad aérea.

A modo de ejemplo, veamos el caso del accidente del AF 447, que ya estudiamos en su momento. Si nos dejamos llevar por las primeras informaciones nos centraremos en  lo que ocurre justo antes del accidente (visión a corta distancia): el piloto automático se desconecta, el piloto humano no comprende el suceso y no acierta a entender que el avión ha entrado en pérdida. Si se hubiese limitado a bajar el morro del avión y dejar que el avión se recuperase (visión contrafactual) todo habría ido bien, pero por su error (visión inculpatoria) el desenlace fue fatal. Muy sencillo, pero no sirve para nada. Ni tiene en cuenta la fatiga, ni la falta de formación en ese tipo de situaciones, ni el hecho de que sólo uno de los tres pilotos tenía el título de comandante, ni el hecho de que había habido incidentes previos, ni sirve para sacar conclusiones que ayuden en el futuro… nada de nada.

Con nuestra visión retrospectiva, sabemos perfectamente lo que habría que haber hecho. De la misma forma, alguien que observara un laberinto desde arriba contemplaría cómo una persona camina sin encontrar la salida y se desesperaría al ver que esa persona gira a la derecha cuando sólo tenía que hacerlo a la izquierda para encontrar la salida tras el siguiente recodo. Desde su posición privilegiada todo es sencillo, de la misma forma que para el investigador son evidentes las acciones que habrían evitado el accidente. Por eso, para encontrar la lógica de las acciones de los implicados en un accidente hay que luchar contra ese sesgo de retrospectiva y meterse en el laberinto con ellos.

Esta noción de sesgo de retrospectiva es muy utilizada por los investigadores que han desarrollado y dado forma a conceptos como Safety II o Cultura Justa. En sus libros y conferencias, los expertos en la materia suelen utilizar para ello ejemplos del mundo de la medicina y del transporte aéreo. Y no es casual, puesto que ambos tienen algunas características en común: los sucesos no deseados pueden tener consecuencias trágicas, las decisiones se tienen que tomar en un lapso de tiempo muy corto (minutos o incluso segundos) y existen métodos establecidos de recolección de datos que permiten reconstruir los accidentes con bastante fidelidad.

Y aquí vienen mis problemas al analizar la actualidad, puesto que en el mundo de la política las consecuencias de una decisión pueden ser trágicas, pero hay mucho tiempo para tomar decisiones y por eso me pregunto si este modelo que acabamos de ver se puede aplicar sin más. No estamos hablando de un piloto aislado del mundo en su cabina, que no acierta a interpretar correctamente un dato escondido entre otros muchos en una situación de estrés, ni de una enfermera que, tras un turno de 16 horas, comete un error al preparar una dosis de un medicamento siguiendo unas confusas instrucciones escritas además a mano porque el ordenador del pediatra que preparó la receta no tenía impresora (ambos casos son reales).

En el caso de la epidemia actual ha habido dos errores que han centrado la atención: que se transmitieran mensajes de normalidad hasta después de la manifestación, apoyada por el gobierno, del 8 de marzo (el día 9 se dijo de pronto “el escenario ha cambiado”) y que no haya material suficiente, no ya para atender a una oleada de pacientes, sino para proteger a los profesionales sanitarios. La discusión se ha centrado en si se podía prever o no la gravedad de la situación. Dejando aparte el hecho de que los contagios siguen, como es previsible, una ley exponencial (hablé sobre esto aquí, hace ya tiempo), sería interesante saber de qué información se disponía. No podemos saber qué informes estaban sobre la mesa de los responsables, pero sí qué decía la Organización Mundial de la Salud en público. Basta con ojear sus tuits.

El 30 de enero se declaró una emergencia de salud pública:

El 18 de febrero ya se advertía del problema del incremento de la demanda de material de protección.

Sobre ese mismo tema se insistía el 5 de marzo. La OMS pedía que se activaran los planes de emergencia en cada país, se divulgara información al público para que conocieran los síntomas y supieran cómo reducir el riesgo de contagio, se incrementara la disponibilidad de tests para detectar quiénes estaban infectados, se preparara a los hospitales para la situación y se garantizara la existencia de equipos adecuados.

Sobre la necesidad de equipos, la OMS citaba también cuáles son los instrumentos esenciales y la cantidad requerida cada mes en todo el mundo.

Y ahora viene para nosotros el problema de ponerse en guardia contra el sesgo de retrospectiva, entrar en el laberinto y decidir hacia dónde habríamos ido con esta información. Y no estamos hablando de tomar la decisión en unos minutos, sino de tener semanas, incluso meses, para prepararse. Si decidimos que las advertencias no eran suficientes, la falta de previsión es un trágico error; si consideramos que se desoyeron una y otra vez las advertencias de la principal organización de expertos estaríamos hablando de una negligencia criminal. Reconozco que a mí me resulta especialmente difícil, por no decir imposible, conceder el beneficio de la duda a los cargos políticos, dada su tendencia a actuar siguiendo precisamente las cuatro características de visión retrospectiva, a corta distancia, contrafactual e inculpatoria mencionadas antes. Quien se pregunte por qué digo esto que lea, por ejemplo, mi artículo La cultura del error.

Pero la conclusión que se alcance, error o negligencia, tampoco depende en realidad de los hechos ni de dónde se trace la línea. Depende de quién traza la línea. Cada cuál verá lo que quiera ver según, probablemente, su orientación política. En palabras de uno de los principales estudiosos en el campo de la seguridad, Sidney Dekker, en su libro Just culture: balancing safety and accountability, refiriéndose al problema de quién traza la línea en el caso de un accidente:

No se trata de que uno no tenga nada que temer cuando no ha hecho nada malo sino de que uno no tiene nada que temer si el juez decide que no ha hecho nada malo.

(Nota: La traducción no es literalmente exacta, pero el sentido sí lo es).

Independientemente del veredicto, en el mundo de la seguridad operacional algo está muy claro: el error no es más que un síntoma de fallos más profundos en el conjunto del sistema. La investigación debe servir para corregir esos fallos de manera que el sistema esté a salvo de futuros errores. ¿Servirá todo esto para algo? ¿Se corregirán esos fallos para tener un sistema que responda rápida y eficientemente ante futuras amenazas sanitarias? De momento ya hay una propuesta de mejora. La hizo el 18 de marzo, en el Congreso de los Diputados, el diputado del PNV Aitor Esteban, que dijo:

”Crisis como estas superan las fronteras. Cuando pase esto, tenemos que plantearnos seriamente un sistema internacional de alerta y prevención de crisis sanitarias”

Una idea excelente si no llegara con 72 años de retraso, porque ese sistema existe desde 1948, depende de la ONU, se llama Organización Mundial de la Salud, dio una alerta en enero en forma de declaración de emergencia sanitaria y desde entonces no ha dejado de insistir en dar la alarma. El sistema de alerta y prevención existe, pero lo que hay que plantearse seriamente es por qué no se le hace caso. Nos habríamos ahorrado tener que explicar cuándo se puede hablar con propiedad y cuándo no del sesgo de retrospectiva.

Compartir

  • Twitter
  • Facebook
  • Meneame
  • Correo electrónico
  • LinkedIn

Me gusta esto:

Me gusta Cargando...

Un golpe bajo

09 martes Jul 2019

Posted by ibadomar in Aviación, Cultura de seguridad

≈ Deja un comentario

Etiquetas

Aviación, Control aéreo, Cultura de seguridad, Cultura justa, IFATCA, Incidente aéreo, Seguridad aérea

Hace mucho que no paso por aquí, por mi propio blog, y no porque haya perdido la afición a escribir sino porque ando fatal de tiempo. Es lo que tiene la vida real, la que transcurre fuera de internet, que suele venir con exigencias y no se puede dejar de atenderlas. Y así estaba yo, buscando un hueco libre y sin encontrarlo y, lo peor de todo, perdiendo el hábito de escribir y publicar. Y entonces, el 4 de julio, ocurrió algo que puede traer consecuencias preocupantes para la seguridad aérea en Europa.

Pero vayamos por partes. Los habituales del blog recordarán varios artículos sobre cultura de seguridad en aviación, y no sólo en aviación (ver la etiqueta Cultura de seguridad para una lista completa de los artículos). Es recomendable releer alguno de ellos para encontrar la definición de Cultura Justa, un ejemplo teórico de cómo aplicar una visión sistémica en un riesgo de accidente y un ejemplo práctico de cómo usar el error humano como inicio de una investigación para hallar fallos sistémicos.

Quien quiera profundizar un poco sólo tiene que hacer click en los enlaces del párrafo anterior. En cualquier caso, la idea básica es sencilla de comprender: para que haya un accidente no basta con que algún componente del sistema no cumpla su función sino que son necesarios varios factores encadenados. Por otro lado, los accidentes suelen tener precedentes menos graves, los incidentes. Estudiando incidentes es posible hallar puntos débiles en la cadena de seguridad, pero el estudio sólo es posible si se sabe que ha existido un incidente y se recoge una información lo más completa posible sobre él.

La visión tradicional y simplista de la seguridad cree que el sistema es perfecto y que sólo lo puede estropear la actuación inapropiada de quienes están a cargo de él. En caso de accidente (o de incidente) busca a un culpable, le carga la responsabilidad, le impone un castigo y confía en que sirva de escarmiento. Quienes hayan leído los artículos referenciados más arriba saben que eso no sirve de mucho. Hay varios motivos, pero uno de ellos, el que nos interesa hoy, es que quien vive en semejante ambiente hará todo lo posible por ocultar errores e incidentes con el fin de evitar que recaigan sobre él las consecuencias. No informará de ningún fallo a no ser que no tenga más remedio, y en ese caso lo hará de forma sesgada para intentar ponerse a salvo.

Por eso surgió el concepto de Cultura Justa, que reconoce el derecho del operario de un sistema a equivocarse y la existencia del llamado «error honesto», cometido inintencionadamente por alguien que actúa según su formación y experiencia. Una de las grandes ventajas de la implantación de dicho concepto es que gracias a él es posible crear un clima de confianza en el que no exista motivo para ocultar un incidente, incluso reconociendo errores propios que puedan haber contribuido a los hechos. Así surgieron los sistemas de notificación de incidentes, que son la base de los sistemas de gestión de seguridad actuales. En palabras de la máxima autoridad en cuestiones de aviación civil, la OACI en su documento 9859, cuarta edición (2018):

3.2.5.2 (…) Si las organizaciones e individuos que notifican problemas de seguridad operacional están protegidos y son tratados en forma justa y coherente, es más probable que divulguen dicha información y trabajen con los reglamentadores o administradores para gestionar eficazmente los riesgos de seguridad operacional conexos.

Y tras este largo preámbulo vamos con los hechos: en abril del año 2013 hubo un incidente sin mayores consecuencias entre dos aviones que volaban sobre Suiza. Después de leer todo lo anterior, se podría pensar que los implicados rellenaron sendos informes de seguridad, que los departamentos de seguridad correspondientes estudiaron el incidente para intentar extraer conclusiones, y que no hubo más consecuencias. Pues bien, lo primero es cierto, lo segundo lo desconozco y lo tercero es falso: la fiscalía, a partir de una ley que data de 1942, abrió diligencias penales contra pilotos y controladores y los tribunales admitieron su versión. Las apelaciones se sucedieron y la última instancia, el tribunal federal, confirmó la sentencia condenatoria el pasado 4 de julio. Ése es el hecho que me sacó de mi marasmo.

Y no sólo a mí, sino a todo el que tiene relación con la seguridad aérea. Como era de esperar, la asociación profesional suiza de controladores aéreos, Aerocontrol, publicó inmediatamente un comunicado (texto en alemán) expresando su preocupación. En la misma línea se expresó Skyguide, la empresa que se encarga del servicio de control y a la que pertenece el controlador afectado, y que también ha publicado una nota (texto en inglés). Ambos comunicados explican los hechos, aclaran que tanto el controlador implicado como uno de los pilotos fueron los que iniciaron, con sus informes sobre el incidente, la investigación que ahora se ha vuelto contra ellos y muestran su inquietud por el deterioro para la seguridad que puede acarrear el desenlace. En circunstancias como ésta, como se ve, empresa y empleados van de la mano.

El asunto va más allá de Suiza. Mientras asociaciones de controladores de varios países expresan su preocupación, IFATCA, la Federación Internacional de Asociaciones de Controladores Aéreos, ha iniciado la publicación de una serie de artículos sobre la dificultad de que sobreviva la Cultura Justa en un ambiente punitivo. El primero de dichos artículos, con el significativo título ¿Estamos enterrando la Cultura Justa para siempre? está ya disponible (en inglés).

El problema es muy complicado: por un lado, la seguridad requiere que existan sistemas de notificación e incluso hay en muchos países obligación de notificar cualquier incidente, pero en el caso que nos ocupa esta obligación legal colisiona con el derecho de toda persona a no presentar una declaración que se pueda utilizar en su contra ante un tribunal. Bonito lío para quien sea aficionado al Derecho. La única solución lógica es revisar la legislación para que no haya contradicciones de este tipo, pero eso es mucho más fácil de decir que de hacer.

Me gustaría creer que este embrollo servirá para llamar la atención sobre un problema muy delicado y que pronto se iniciará un proceso que llevará a su solución, porque en el fondo soy un optimista. Pero muy en el fondo, porque en la superficie soy bastante realista y me preocupa que podamos estar asistiendo a la primera paletada de tierra sobre la sepultura de la Cultura Justa, a la que podrían seguir otras, porque hay más casos en Suiza pendientes de apelación y ya se ha visto por dónde pueden ir los tiros. Lo cierto es que entre los profesionales del sector, y los comunicados de Aerocontrol y Skyguide, así como el artículo de IFATCA lo demuestran, existe el temor de que el péndulo de la seguridad haya llegado al final de su recorrido y esté iniciando su retroceso. El tiempo dirá si es un temor infundado.

 

Compartir

  • Twitter
  • Facebook
  • Meneame
  • Correo electrónico
  • LinkedIn

Me gusta esto:

Me gusta Cargando...

La cultura del error

26 jueves Sep 2013

Posted by ibadomar in Cultura de seguridad

≈ 3 comentarios

Etiquetas

Cultura de seguridad, Cultura justa, Factores humanos, Modelo de Reason, Modelo SHELL, Seguridad aérea

No tenía previsto volver sobre el tema de la cultura de seguridad, al menos tan pronto, pero esta noticia según la cual Fomento quiere poner cámaras en los trenes para vigilar la conducta de los maquinistas a raíz del desgraciado accidente de Santiago me ha resultado tan chocante que no puedo evitar regresar a este asunto.

Habíamos visto ya en artículos anteriores que el diseño de sistemas debe hacer imposible, al menos en teoría, la existencia de un componente cuyo fallo por sí solo acarree la caída del sistema completo (lo conté aquí) y también vimos por encima (en un artículo que se puede leer aquí) los modelos SHEL y de Reason y el concepto de Cultura Justa. Vimos que, según el modelo de Reason, un accidente se explica por uno o más fallos activos que se unen a varios fallos latentes que han debilitado previamente el sistema. Estos fallos latentes, achacables a la organización, deben corregirse para evitar las consecuencias de un fallo activo, imposible de evitar por completo.

Recordemos que comenté que al alcanzar la aviación la madurez técnica empiezan a achacarse los accidentes sistemáticamente al fallo humano. Al no existir un fallo mecánico evidente, los investigadores buscan acciones u omisiones del personal que opera el sistema. Se llega así hasta el descubrimiento de fallos activos, pero no se avanza hasta llegar a los fallos latentes. La consecuencia es una cultura que tiende a achacar culpas y asignar castigos.

El problema es que este enfoque consigue identificar qué ha ocurrido, quién ha actuado o dejado de actuar de una manera determinada y cuándo ha sucedido cada hecho. Y sin embargo queda sin saberse el cómo y el por qué ha ocurrido el accidente. Al no profundizar la investigación hasta identificar los fallos latentes, las condiciones que hicieron posible el accidente siguen presentes a la espera de un nuevo fallo activo similar que haga posible la repetición. El modelo de Reason y la Cultura Justa surgen para llenar este hueco.

Vamos a insertar un ejemplo, pero esta vez no lo inventaré yo, sino que se lo tomaré prestado nada menos que a OACI, la Organización de Aviación Civil Internacional, que naturalmente conoce perfectamente todos los conceptos esbozados y se refiere a ellos en  su documento 9859 (Safety Management Manual o Manual de Gestión de la Seguridad). El ejemplo supone la existencia de una ventana en cuyo alféizar colocamos una maceta. Existe la posibilidad de que al asomarse alguien a la ventana empuje accidentalmente la maceta, provocando su caída con consecuencias más o menos graves dependiendo del piso en el que estemos situados y de que alguien esté o no pasando por debajo de la ventana justo en el momento de la caída. (Nota: el ejemplo está tomado de la segunda edición, publicada en 2009, del documento 9859, edición que estaba en vigor en el momento de escribir el artículo. Las ediciones posteriores, empezando por la tercera, de 2013, eliminaron este ejemplo).

Un enfoque tradicional investigaría el accidente partiendo de la responsabilidad de la persona que se asomó descuidadamente a la ventana y resolvería el problema con una multa y, a lo sumo, un recordatorio a los ocupantes del edificio de la necesidad de ser cuidadosos al asomarse, o simplemente prohibiendo tal acción. Sin embargo un enfoque atento a los factores de organización podría dar las siguientes recomendaciones:

  • Colocar un tope al final del alféizar para detener la maceta en caso de que se la empuje accidentalmente.
  • Colocar una red bajo la ventana para detener la maceta en su caída.
  • Colocar un toldo a la altura del primer piso para detener la maceta en su caída.
  • Ampliar el ancho del alféizar.
  • Desviar el paso de peatones bajo las ventanas, construyendo por ejemplo un jardincito justo debajo de ellas.
  • En un caso extremo, tapiar las ventanas.

Con cualquiera de estas medidas se tiene en cuenta el hecho de que el ser humano tiende a cometer errores, sólo que así conseguimos que no sean irreparables. Aunque ahora alguien, en un descuido, empuje la maceta, las consecuencias ya no serán catastróficas. Al suprimir errores latentes, el error activo pierde su capacidad de desencadenar el accidente.

Lo curioso del documento 9859 de OACI, al que aludí antes, es que cuando habla del modelo según el cual el problema de la maceta llevaría a multas y recordatorios de la necesidad de tener cuidado, se refiere al “enfoque tradicional” al que menciona siempre en pasado, nunca en presente, puesto que lo considera como algo ya superado. Esto es natural, ya que permanecer anclado en una mentalidad que se centra en el llamado “error humano”, sin profundizar más allá deja sin resolver el problema de fondo: cómo crear las condiciones para que el accidente no se produzca.

El recuerdo de este documento y de este ejemplo tan sencillo es lo que me hizo pensar en escribir este artículo cuando leí la noticia que mencioné al inicio. El responsabilizar exclusivamente a una persona de un accidente y pretender que la solución es que no se cometan errores instaurando una cultura punitiva y un sistema policial es algo que debería estar ya superado. Por eso escribo este artículo y por eso escribí los dos anteriores: porque, a pesar del escaso número de lectores de este blog, es preciso esforzarse en divulgar esta cultura de seguridad con el fin de que algo tan importante como los servicios de transporte público no basen sus sistemas de seguridad en una cultura que los principales expertos en la materian consideran que quedó obsoleta hace cuarenta años.

Compartir

  • Twitter
  • Facebook
  • Meneame
  • Correo electrónico
  • LinkedIn

Me gusta esto:

Me gusta Cargando...
← Entradas anteriores

Por iBadomar

Únete a otros 114 suscriptores

Estadísticas del blog

  • 109.307 visitas

Páginas

  • Diez años en Los Gelves
  • Sobre el blog
  • Un año en Los Gelves

Archivo de entradas

Etiquetas

Accidente aéreo Alejandro Magno Alemania Alfonso XIII Antigüedad Arqueología Arquitectura Arte Atenas Aviación Batalla Carlos II Cartago Cervantes Cine Comunismo Constantinopla Constitucion Control aéreo Corrupción Corsarios Cruzadas Cultura de seguridad Cultura justa Diocleciano Edad Media Edad Moderna Egipto Esparta España Espionaje Factores humanos Felipe V Fiscalidad Francia Franquismo Grecia Guerra del Peloponeso Guerra de Marruecos Guerra de Sucesión Guerra Fría Herodoto Hindenburg Historia Hitler ILS Imperio Bizantino Incidente aéreo Inocencio III Isabel I Isabel II Jerjes Jolly Roger Julio César Literatura Ludendorff Luis XIV Luis XVIII Messerschmitt Modelo de Reason Modelo SHELL Momentos cruciales Mussolini Napoleón Navegación aérea Periodismo Persia Pintura Piratas Política Prehistoria Primera Guerra Mundial Pétain Radar Reactor Realismo Renacimiento Restauración Revolución Revolución francesa Roma Salamina Segunda Guerra Mundial Seguridad aérea Sicilia Siglo XIX Siglo XVII Siglo XVIII Siglo XX Sila Stalin TCAS Temístocles Tetrarquía Tito Livio Transición Técnica Uberlingen Ucrania URSS

Meta

  • Registro
  • Acceder
  • Feed de entradas
  • Feed de comentarios
  • WordPress.com

Crea un blog o un sitio web gratuitos con WordPress.com.

Privacidad y cookies: este sitio utiliza cookies. Al continuar utilizando esta web, aceptas su uso.
Para obtener más información, incluido cómo controlar las cookies, consulta aquí: Política de cookies
  • Seguir Siguiendo
    • Los Gelves
    • Únete a 114 seguidores más
    • ¿Ya tienes una cuenta de WordPress.com? Accede ahora.
    • Los Gelves
    • Personalizar
    • Seguir Siguiendo
    • Regístrate
    • Acceder
    • Denunciar este contenido
    • Ver sitio web en el Lector
    • Gestionar las suscripciones
    • Contraer esta barra
 

Cargando comentarios...
 

    A %d blogueros les gusta esto: