• Sobre el blog
  • Un año en Los Gelves
  • Diez años en Los Gelves

Los Gelves

~ Somos lo que somos porque fuimos lo que fuimos.

Los Gelves

Archivos de etiqueta: TCAS

La vista es la que trabaja

07 martes Ene 2014

Posted by ibadomar in Aviación

≈ 3 comentarios

Etiquetas

Aviación, Incidente aéreo, Radar, Seguridad aérea, TCAS

En mi anterior artículo prometí comentar un incidente aéreo que ilustra a la perfección el concepto de see and avoid que tanto complica la hipotética convivencia de aviones no tripulados con aviones convencionales en el mismo espacio aéreo. Dije entonces que los pilotos tienen la obligación, según las normas, de mantener la vigilancia visual para evitar posibles colisiones. Una norma tan básica parece a veces superada por la técnica en un mundo en el que los aviones vuelan siguiendo procedimientos instrumentales, se separan del resto de aeronaves según las instrucciones de control aéreo y están provistos de un sistema anticolisión (el célebre TCAS). Sin embargo, el 2 de junio de 2010 se evitó una colisión en vuelo gracias a la maniobra ejecutada in extremis por un piloto que había localizado visualmente a la otra aeronave.

Los hechos ocurrieron en el espacio aéreo gestionado por el centro de control de Burdeos. El primer protagonista de la historia es un avión de clase ligera, que puede llevar a cerca de 10 personas, un Pilatus PC-12, monomotor turbohélice, con matrícula española, que volaba entre Buochs, en Suiza, y San Sebastián. Un avión como este:

PilatusImagen tomada de Wikipedia

Hacia las 14 horas y 15 minutos, el piloto de este avión notificó que tenía un problema: uno de sus altímetros marcaba 27.000 pies mientras que el otro indicaba 29.000, así que no podía saber con seguridad a qué altitud volaba. El controlador tampoco podía ayudarle porque el radar secundario (SSR) que emplea el control civil no proporciona información de altitud, sino que recibe dicha información de las propias aeronaves. En este caso marcaba FL270 (27.000 pies), que correspondía a lo leído por uno de los altímetros, pero eso no aclaraba la duda.

El controlador decidió consultar con un compañero de control militar, por si tenía acceso a información de algún radar 3D que se empleara en defensa aérea. El controlador militar no tenía más datos que el civil, pero llamó a un centro de la defensa aérea y preguntó si podían saber la altitud del avión en cuestión. El controlador de este nuevo centro respondió: «Yo veo FL270 en el modo C del radar». Esa información, la del modo C, es la que también veía el controlador civil. El malentendido estaba servido. El controlador militar de Burdeos dijo a su compañero civil que le informaban de que el avión estaba a 27.000 pies y así lo transmitió el controlador al piloto. Todo el mundo pensaba que el avión volaba a 27.000 pies y el segundo altímetro estaba averiado. Pero la realidad era muy diferente.

En realidad los instrumentos del lado del piloto estaban recibiendo información errónea. La altitud correcta era 29.000 pies, la indicada por el altímetro del lado del copiloto y la misma a la que, por detrás, se acercaba el segundo protagonista de nuestra historia: un Airbus 318 de Air France, que se dirigía a Toulouse. El A318 es un reactor comercial, un avión mucho más rápido que el PC-12. En este caso la diferencia de velocidad era de 170 nudos para ser exactos (unos 315 Km/h). Ya que hemos visto una foto de un PC-12 bueno será enseñar un A318 para comparar:

800px-2010-07-08_A318_AirFrance_F-GUGM_EDDF_03Imagen tomada de Wikipedia

El A318 se estaba echando encima del Pilatus sin que nadie se diera cuenta, porque además los pilotos estaban ocupados preparando la aproximación a Toulouse, pero les extrañó notar unas oscilaciones sospechosas. No parecía un movimiento natural y pensaron que podría deberse a la turbulencia generada por un avión precedente, aunque aparentemente no había nadie por delante, según los instrumentos; sin embargo se pusieron alerta y echaron una ojeada al exterior. Fue el copiloto quien divisó al otro avión, sin tener apenas tiempo para reaccionar, puesto que estaban recortando más de 85 metros de distancia por segundo. Desconectó el piloto automático, inició un descenso y viró a la izquierda, puesto que había visto el avión ligeramente a su derecha y algo por encima.

Nadie sabe exactamente a qué distancia mínima se encontraron los dos aviones. Las grabaciones no ayudan, porque las trazas radar están tan próximas que no sirven como información. Las tripulaciones de ambos aviones calculan que estuvieron a unos 15 ó 30 metros de distancia horizontal y unos 100 pies (30 metros) de distancia vertical. Teniendo en cuenta que la envergadura de un A318 es de 34 metros podemos decir que se pasaron rozando.

¿Y el TCAS? Se supone que los aviones llevan un sistema anticolisión que debería haber informado en teoría, pero que sin embargo estuvo mudo durante todo el tiempo porque tenía la misma información errónea que recibían los demás sistemas. Mientras efectuaba la maniobra de evasión, el piloto del A318 miró la pantalla y vio cómo según el TCAS había un avión allí, en efecto… pero 2.000 pies por debajo.

El fallo de altímetro del PC-12 había provocado que el controlador no actuara para separar a los aviones porque aparentemente ya estaban separados y el mismo fallo impedía que la siguiente capa de seguridad, el TCAS, detectara conflicto alguno. Todo era correcto para todos los sistemas, menos para un piloto experimentado que sospechó de una turbulencia que le parecía poco natural y confió más en sus propios ojos que en los equipos. Es esa capacidad de enfrentarse a situaciones novedosas la que hace que el ser humano sea insustituible como pieza clave de sistemas complejos. Al menos hasta la fecha y, probablemente, durante unos cuantos años.

El informe oficial del incidente se puede encontrar aquí (en francés). La traducción al inglés está disponible aquí.

Compartir

  • Twitter
  • Facebook
  • Meneame
  • Correo electrónico
  • LinkedIn

Me gusta esto:

Me gusta Cargando...

Los drones omnipresentes

11 miércoles Dic 2013

Posted by ibadomar in Aviación, Historia

≈ 2 comentarios

Etiquetas

Aviación, Drones, Seguridad aérea, TCAS

Son noticia y los encontramos en todas partes. Se han puesto de moda, qué le vamos a hacer, y no hay día en el que no leamos algunas de las muchas aplicaciones que tendrán los aviones no tripulados en un futuro que se nos promete muy cercano. Ciertamente la industria está presionando para que este tipo de aeronaves, cuyo nombre más extendido es UAV (Unmanned Aerial Vehicle, es decir, aeronave no tripulada), realice cada vez más funciones. Hace unos días levantó bastante polvareda la noticia de que Amazon esperaba hacer entregas mediante este sistema. Dejando aparte cuestiones del tipo de qué hará el vehículo cuando tenga que entregar un paquete en un sexto piso y el cliente no esté en casa, lo cierto es que las cosas no son tan sencillas como parece.

El piloto fuera del avión

Decir que estas aeronaves no están tripuladas es inexacto. Sí lo están, pero a distancia, y ahí radica su peculiaridad porque surgen cuestiones que en un avión convencional ya están resueltas. Por ejemplo: ¿qué tipo de licencia debe poseer el piloto? ¿Debe superar los mismos requisitos médicos que para pilotar un avión normal y corriente? ¿Tendrá el piloto la misma conciencia de la situación que el piloto de una aeronave normal?

Hasta el momento las experiencias proceden del aeromodelismo, cuyos aviones se mantienen a la vista de su piloto, y en el campo militar de los aviones de vigilancia y ataque, como por ejemplo el célebre Global Hawk. Estos últimos son el modelo a seguir, puesto que se pretende en la mayoría de los casos que el piloto opere a distancia sin mantener el contacto visual con la aeronave. Pero son un caso muy particular puesto que operan en un espacio aéreo diferente al de las aeronaves civiles. Veamos como ejemplo el caso del Global Hawk.

Este avión tiene un tamaño similar al de un reactor comercial del tipo del B737, con unas prestaciones muy peculiares. No es muy rápido, pero a cambio tiene un techo de servicio muy elevado: 60.000 pies (casi 20.000 metros), mientras que un reactor comercial rara vez llega a alcanzar los 40.000 pies de altitud (unos 13.000 metros). Su modo de acción lo separa totalmente del resto de aeronaves: una vez que ha despegado, asciende por un trozo de espacio aéreo reservado para él hasta estar muy por encima del resto de aeronaves y entonces ya puede moverse libremente. Por eso se dice que opera en espacio aéreo segregado. El reto al que se enfrenta la industria es el de operar aeronaves no tripuladas en espacio no segregado.

Imaginemos un helicóptero de vigilancia de tráfico. Podríamos poner en su lugar a un UAV y observar la situación en una carretera. Por ejemplo, en la salida de Madrid por la carretera de Barcelona. Puestos a imaginar, supongamos que nuestra aeronave detecta un vehículo que circula a gran velocidad en sentido salida. En contacto con el centro de coordinación de la policía, el piloto recibe la orden de no perder de vista al coche sospechoso y lanza a la aeronave en su persecución. Concentrado en la imagen de la carretera que se proyecta en su monitor el piloto sólo tiene ojos para su presa, que está llegando a la altura de San Fernando de Henares y… ¿por qué se ha apagado el monitor? ¿Será porque justo allí los aviones que van a aterrizar en Barajas cruzan sobre la carretera a baja altitud y nuestro drone acaba de estrellarse contra uno de ellos? Suena muy dramático, pero mientras que es difícil que el piloto de un helicóptero pierda la conciencia de dónde está, alguien que está mirando una pantalla puede despistarse con facilidad. Y si el incidente parece poco verosímil, aquí tenemos un interesante vídeo, que ha sido enlazado en múltiples periódicos, en el que un UAV está a punto de estrellarse contra un avión civil.

Command and control

Bajo esta expresión se esconde otro de los problemas de los UAVs. Se trata de asegurar que el enlace de datos que asegura el control de la aeronave es seguro y fiable. En un avión normal, para tomar el control de la aeronave hay que estar dentro de ella, pero en uno no tripulado no es así y eso abre fascinantes (e inquietantes) posibilidades. Se supone que el enlace será seguro, pero hay ejemplos de que puede fallar. Por ejemplo un incidente en el que Irán se apropió de una aeronave norteamericana utilizando, según fuentes iraníes, técnicas informáticas ya fuera para tomar el control del avión o para conseguir que su piloto lo perdiera.

Un incidente así se presta a confusión, puesto que por motivos de seguridad la información que se hace pública es sesgada en uno u otro sentido. Pero sí existe un caso perfectamente documentado en el que un avión no tripulado fue derribado intencionadamente utilizando señales falsas de GPS. Lo consiguió un equipo de la Universidad de Texas, que hizo la demostración el año pasado, según vemos en esta noticia de la propia universidad. También podemos consultar el informe que envió al Comité de Seguridad Nacional el profesor Todd Humphreys, que dirigía el experimento. En él se reconoce que aunque no es sencillo conseguir el resultado, sí es factible lograrlo por un coste material que no llega a los 3.000 dólares.

See and avoid

Otra expresión que anuncia problemas. Se puede traducir por «ver y evitar» y se refiere a la obligación de todo piloto de mantener la vigilancia a su alrededor con el fin de impedir posibles colisiones. Esta vigilancia no puede sustituirse con el sistema anticolisión TCAS (ambos se complementan) ni debe confundirse con la función de separación entre aeronaves. Existe un incidente que lo ilustra a la perfección y que prometo comentar en un próximo artículo. Por el momento baste decir que el término «ver» se ha sustituido por «detectar» y así ha aparecido la expresión «detect and avoid». Pero eso no es tan sencillo, porque aún no se sabe cómo sustituir al ojo humano. Veamos un ejemplo:

Todos los pilotos conocen las reglas de preferencia de paso cuando dos aviones llevan trayectorias coincidentes: hay que ceder el paso a quien viene por la derecha, pero hay excepciones. Por ejemplo, un avión con motor debe ceder el paso a planeadores y globos, mientras que un planeador cederá el paso a los globos. Para un piloto humano la cosa es sencilla porque los distingue de una ojeada, pero ¿qué sistema empleará el piloto de un avión no tripulado? En una pantalla las cosas no se ven con tanta claridad. Este problema de sustituir a la visión del piloto es actualmente uno de los grandes escollos para el uso de UAVs en espacio no segregado.

Y más problemas

Dependiendo del tipo de espacio aéreo la separación entre aeronaves la asumiría el control aéreo, pero eso requiere de una comunicación con el piloto que es bien conocida en el caso de aviones tripulados, pero ¿cómo será la comunicación con el piloto del avión no tripulado? La lógica lleva a que se haga usando una radiofrecuencia para que los pilotos «convencionales» puedan escuchar el diálogo, como ocurre en el caso general. Pero si el piloto está en Australia y el avión sobre Nápoles, por ejemplo, habría que transmitir al avión para que éste reenviara la señal a su piloto con el riesgo de retrasos en la comunicación en un enlace por satélite. En otros espacios aéreos la separación la debería asumir el propio piloto y eso lleva más que nunca al problema de cómo sustituir la visión de un piloto sentado en la cabina del avión que tratamos en el párrafo anterior.

¿Y cómo permitir a un drone de reparto sobrevolar una ciudad a baja altura cuando a un avión tripulado se le exige que mantenga una altitud suficiente como para asegurar un aterrizaje sin peligro para la población en caso de emergencia? ¿Qué ocurrirá cuando una de esas hipotéticas aeronaves de reparto tenga un fallo de motor en el momento de efectuar una entrega?

Son demasiadas las preguntas sin respuesta. En la actualidad hay gran cantidad de expertos trabajando en organismos tales como OACI, la FAA norteamericana, EASA, etc. para resolver estos problemas. Por el momento no hay solución fácil pese a la presión de la industria por integrar a los UAVs cuanto antes en el espacio aéreo común al resto de aeronaves. Pero las prisas son malas consejeras: un accidente inoportuno causado por una operación precipitada facilitada por una normativa precoz podría acabar con el uso de UAVs para aplicaciones civiles durante muchos años. Por el momento las informaciones sobre el inminente uso de drones en los negocios más variopintos dan la impresión de ser muy prematuras.

Compartir

  • Twitter
  • Facebook
  • Meneame
  • Correo electrónico
  • LinkedIn

Me gusta esto:

Me gusta Cargando...

El problema del fallo único

28 domingo Jul 2013

Posted by ibadomar in Aviación, Cultura de seguridad, Técnica

≈ 5 comentarios

Etiquetas

Cultura de seguridad, Cultura justa, Gestión de riesgos, Seguridad aérea, Técnica, TCAS, Uberlingen

No me gusta demasiado entrar en polémicas y por eso este blog no trata directamente de mi trabajo ni de temas de actualidad sino que suele buscar paralelismos entre acontecimientos presentes y otros del pasado. Eso cuando no busco algún incidente de aviación que creo que es interesante o decido simplemente escribir algo entretenido y me decido por narrar una historia de piratas. Pero hoy voy a hacer una excepción. La causa es el desgraciado accidente ferroviario en el que han muerto cerca de 80 personas.

Es lamentable que en estos casos se tienda a buscar una explicación rápida y sencilla sin aguardar a que se realice un informe de seguridad detallado e independiente. El resultado es que se busca un culpable, se le adjudica toda la responsabilidad y se finge que el sistema está bien diseñado y gestionado sin tener en cuenta que en un sistema complejo un fallo único no explica un accidente. Hace algún tiempo escribí un artículo sobre la colisión entre dos aviones sobre Überlingen en el que explicaba todos los fallos que se presentaron aquel día y cómo la prensa y el público se habían limitado a acogerse al mucho más sencillo y tranquilizador fallo humano. Mucho me temo que las cosas siguen igual.

Como no soy experto en ferrocarriles no voy a intentar un análisis, que en cualquier caso sería prematuro puesto que aún no tenemos todos los datos. Pero sí os contaré algo que puede dar un poco de luz. Hace ahora dos años yo estaba trabajando en un documento que debía presentar en una conferencia internacional y que trataba sobre la implementación de nuevos sistemas en la Gestión de Tráfico Aéreo. Una de las fuentes que empleé la obtuve de la FAA, la agencia gubernamental estadounidense que se encarga de la aviación. El documento en cuestión está disponible aquí y es una guía sobre la gestión de riesgos aplicada a la adquisición de sistemas. En la página 15 hay una tabla de la que yo hice mi propia versión para mi documento. Básicamente es lo que vemos a continuación.

TablaLa tabla es una matriz de gestión de riesgos. Por un lado tenemos la probabilidad de que ocurra un suceso y por el otro la gravedad de las consecuencias que se pueden derivar de dicho suceso. Aunque los términos estén escritos en inglés, creo que se entiende bastante bien. Aun así la explicaré con un poco más de detalle.

La probabilidad del suceso se puede dar de distintas formas, pero la más intuitiva es la frecuencia con la que se espera que se pueda repetir el evento. En nuestro caso la FAA, aplicando el concepto al control aéreo, nos da esa frecuencia tanto en una posición individual de control, como en un centro de control compuesto de muchas posiciones y también en el conjunto de todos los centros de control de Estados Unidos. Así, un suceso puede ser:

  • Frecuente: puede ocurrir una vez cada 3 meses aproximadamente en una posición individual, que es como decir que ocurrirá una vez al día o una vez cada dos días en el conjunto de todos los centros que forman el sistema.
  • Probable: Se calcula que ocurrirá varias veces al mes en el conjunto del sistema.
  • Remoto: Se espera que ocurrirá una vez cada pocos meses en el conjunto del sistema.
  • Extremadamente remoto: Se calcula que ocurrirá aproximadamente una vez cada 3 años en el conjunto del sistema.
  • Extremadamente improbable: Se calcula que ocurrirá como mucho una vez cada 30 años en el conjunto del sistema.

En el caso de la gravedad del suceso tenemos una escala que va desde catastrófico (el accidente) hasta la falta de efectos en la seguridad pasando por varios estados (cuasicolisión, necesidad de maniobra evasiva basada en el sistema anticolisión TCAS, etc.)

Los colores indican si el riesgo es o no aceptable y sirven de guía para introducir novedades en el sistema. El verde es aceptable, el rojo totalmente inaceptable y el amarillo implica que se puede realizar el cambio, pero debe estar sometido a seguimiento y evaluación. Por ejemplo, introducimos un nuevo componente cuya probabilidad de fallo es muy escasa, por lo que calculamos que en un único centro de control se produciría el fallo una vez cada 10 años o más y eso quiere decir más o menos una vez cada 3 años en el conjunto de todos los centros. Eso es un suceso extremadamente remoto. Si ese fallo implicara que podríamos tener un incidente severo, el color amarillo indica que sí que podemos introducir el cambio gracias a lo improbable de la situación, aunque siempre sometiéndolo a seguimiento; pero si consideráramos como muy posible que un fallo en ese componente diera lugar a un accidente el color rojo avisa de que no podemos introducirlo.

Veamos un ejemplo en el que aplicaremos la tabla a un motor de aviación. El fabricante nos dará todos sus parámetros, por lo que sabremos la probabilidad de que haya una pérdida de potencia. Lo peor que puede ocurrir es que ese caso se dé justo en el momento en el que el avión está en carrera de despegue y rotando, es decir, empezando a levantar el morro. Como las normas obligan a que el avión sea capaz de despegar aunque tenga un motor parado el caso no sería catastrófico, aunque sí muy grave. Si la fiabilidad es tal que el caso es extremadamente improbable la casilla es verde y podemos usar ese motor, pero si nuestro motor no es tan fiable y el caso entra en lo extremadamente remoto la casilla amarilla implica que tendremos que someterlo a vigilancia: por ejemplo obligando a guardar en cada vuelo un registro de determinados parámetros, para su análisis posterior. Si el motor es tan poco fiable que el fallo entra en lo remoto, probable o frecuente el color rojo deja claro que su instalación es inaceptable por motivos de seguridad.

En la tabla hay una casilla peculiar, porque no es roja ni amarilla, sino una mezcla: se trata de un suceso extremadamente improbable cuya presencia implicaría un posible accidente. Esa casilla se debe tratar como amarilla, pero debe ser considerada como roja en el caso de fallos de punto único. Es decir, un sistema así es admisible con supervisión, pero no si el fallo en ese punto único provoca el accidente. Volvamos al ejemplo del motor para entenderlo mejor.

Supongamos el motor más fiable del mercado. Tal y como hemos visto su fallo daría lugar a una situación muy peligrosa, pero no necesariamente a un accidente, así que se puede utilizar sin problemas. ¿Y si el avión fuera monomotor? En ese caso tenemos que su fallo, por muy improbable que fuera, sí echaría abajo nuestro sistema (el avión). Por lo tanto consideraríamos esa casilla como roja.

Sin embargo si en lugar de un motor estuviéramos considerando instalar un TCAS (sistema anticolisión) sería cierto que su fallo puede dar lugar a un accidente, pero para ello tendrían que darse previamente otros muchos errores, puesto que el sistema sólo funciona como último recurso. La casilla en este caso sería amarilla. (Para más detalles sobre cómo funciona el TCAS recomiendo una ojeada al artículo que mencioné al principio sobre el accidente de Überlingen).

La consecuencia de esa casilla está clara: no es admisible un sistema en el que el fallo de un único componente lleve a un resultado fatal. Y eso incluye cualquier componente del sistema, también el ser humano. Porque las probabilidades de fallo del ser humano son bastante indeterminadas, pero existen: una persona puede distraerse, cometer un error, sufrir un infarto, tener una perforación de estómago, ingerir un alimento en mal estado… cualquiera de estos incidentes puede incapacitar al componente humano del sistema y por eso hay que prever su fallo y buscar la forma de compensarlo.

Volvamos ahora al origen de este artículo. Ahora sabemos que un sistema bien diseñado y gestionado no puede depender en ningún momento de uno solo de sus componentes. Por eso es tan necesaria una investigación, exhaustiva e independiente, antes de juzgar, ya que la socorrida explicación del error humano significaría a lo sumo que un componente del sistema, el humano, ha fallado ¿pero qué pasó con el resto de componentes? ¿O es que quien diseñó el sistema confiaba en que había un componente de fiabilidad infinita que jamás iba a fallar? ¿O lo diseñó correctamente, pero el sistema se había degradado previamente al fallo humano? Y en ese caso ¿por qué se dejó que el sistema siguiera funcionando como si no hubiera pasado nada?

Como vemos hay muchas preguntas que pueden implicar no sólo a la parte operativa del sistema sino también a su diseño y gestión. Demasiadas cuestiones para responder en unas pocas horas y sin un análisis detallado. En cualquier caso se echa de menos el concepto de Cultura Justa (o Cultura de Equidad), según el cual el error no debe criminalizarse, sin que esto signifique que la negligencia quede impune. Pero los modelos de seguridad y el concepto de Cultura Justa merecen un artículo aparte que prometo escribir en breve.

Compartir

  • Twitter
  • Facebook
  • Meneame
  • Correo electrónico
  • LinkedIn

Me gusta esto:

Me gusta Cargando...
← Entradas anteriores

Por iBadomar

Únete a otros 114 suscriptores

Estadísticas del blog

  • 109.307 visitas

Páginas

  • Diez años en Los Gelves
  • Sobre el blog
  • Un año en Los Gelves

Archivo de entradas

Etiquetas

Accidente aéreo Alejandro Magno Alemania Alfonso XIII Antigüedad Arqueología Arquitectura Arte Atenas Aviación Batalla Carlos II Cartago Cervantes Cine Comunismo Constantinopla Constitucion Control aéreo Corrupción Corsarios Cruzadas Cultura de seguridad Cultura justa Diocleciano Edad Media Edad Moderna Egipto Esparta España Espionaje Factores humanos Felipe V Fiscalidad Francia Franquismo Grecia Guerra del Peloponeso Guerra de Marruecos Guerra de Sucesión Guerra Fría Herodoto Hindenburg Historia Hitler ILS Imperio Bizantino Incidente aéreo Inocencio III Isabel I Isabel II Jerjes Jolly Roger Julio César Literatura Ludendorff Luis XIV Luis XVIII Messerschmitt Modelo de Reason Modelo SHELL Momentos cruciales Mussolini Napoleón Navegación aérea Periodismo Persia Pintura Piratas Política Prehistoria Primera Guerra Mundial Pétain Radar Reactor Realismo Renacimiento Restauración Revolución Revolución francesa Roma Salamina Segunda Guerra Mundial Seguridad aérea Sicilia Siglo XIX Siglo XVII Siglo XVIII Siglo XX Sila Stalin TCAS Temístocles Tetrarquía Tito Livio Transición Técnica Uberlingen Ucrania URSS

Meta

  • Registro
  • Acceder
  • Feed de entradas
  • Feed de comentarios
  • WordPress.com

Blog de WordPress.com.

Privacidad y cookies: este sitio utiliza cookies. Al continuar utilizando esta web, aceptas su uso.
Para obtener más información, incluido cómo controlar las cookies, consulta aquí: Política de cookies
  • Seguir Siguiendo
    • Los Gelves
    • Únete a 114 seguidores más
    • ¿Ya tienes una cuenta de WordPress.com? Accede ahora.
    • Los Gelves
    • Personalizar
    • Seguir Siguiendo
    • Regístrate
    • Acceder
    • Denunciar este contenido
    • Ver sitio web en el Lector
    • Gestionar las suscripciones
    • Contraer esta barra
 

Cargando comentarios...
 

    A %d blogueros les gusta esto: