En las anteriores partes hemos comentado los distintos tipos
de sistemas utilizados para dar precisión a la señal del GPS. Aquí conoceremos
qué beneficios nos reportan estas señales en la práctica.
Integridad de la señal GPS. RAIM.
Durante el despacho de un vuelo, de la mucha documentación que comprobamos es el “RAIM check passed”. ¿Qué significa?
En el anterior capítulo nombramos uno de los puntos básicos para
poder utilizar GPS para navegación en aviación: La integridad. Para poder
garantizarla, era necesario comprobar que, durante el vuelo, el servicio iba a
tener cobertura GPS suficiente.
El RAIM (Receiver Autonomous Integrity Monitoring) es
sencillamente un algoritmo que determina, mediante la comparación de distancias
desde varios satélites, que la información que da cada uno es consistente. Para
comprobar esa consistencia, es necesario la señal de varios satélites, teniendo
en cuenta que para establecer una posición en 3 dimensiones.
Cuatro satélites visibles pueden dar una posición. Sin
embargo, el sistema considera que no son suficientes para proveer integridad en
el caso de que uno diera mala señal, o dejara de estar visible.
En el caso de estar visibles 5 satélites, si alguna anomalía
es detectada en alguno de ellos, el sistema puede descartar uno, quedándose con
los cuatro básicos.
Con 6 o más satélites visibles, el receptor es capaz de
detectar y excluir el satélite cuya señal sea inconsistente.
Existen dos funciones, FD (Fault Detection) y FDE (Fault Detection
and Exclusion), que se combinan con el sistema RAIM. La primera ya la hemos
comentado, pues tiene que ver con la detección de las anomalías o inconsistencia.
Al detectarlas realiza un aviso, pero no excluye el satélite anómalo. En la
segunda, más habitual en los receptores modernos desde hace unos años, no solamente
detecta el satélite anómalo, sino que, además, lo excluye de la ecuación y no
lo tiene en cuenta para realizar sus cálculos de navegación.
¿Cuándo es necesario realizar una comprobación RAIM?
Todos los operadores que utilicen navegación RNAV, deben emitir
un informe de predicción RAIM antes del vuelo.
Existen algunos sistemas que por sí mismos proveen la
integridad necesaria como vimos en la segunda parte. Los sistemas de aumentación
de la señal GNSS, eran capaces por sí mismos de autocomprobar la integridad de
su señal. Sin embargo, dado que son utilizados para aproximaciones específicas,
quedan otro tipo de navegaciones basadas en GPS en las cuales es necesaria su comprobación:
Rutas RNP,
RNP (GPS),
Aproximaciones GPS,
SIDs y STAR RNP.
¿RNAV o RNP? ¿Diferencias?
El concepto de RNAV es el espacio aéreo en el que existe un
cierto nivel de equipos abordo de la aeronave y asume que ésta permanecerá
durante al menos un 95% del tiempo manteniendo un nivel de precisión de
navegación determinada. Es decir, una aeronave volando en espacio aéreo RNAV-10
será capaz de mantener el 95% del tiempo dentro de un pasillo de 10 NM de
ancho.
Sin embargo, RNP es parte del conocido como Performance
Based Navigation (PBN), el cual añade a la misma precisión de navegación RNAV un
sistema de monitorización y alerta en caso de degradación de su capacidad.
RNAV + sistema de aviso = RNP
Al mismo tiempo, habréis podido observar que, durante años,
algunos términos podrían llevar a confusión como el de BRNAV, PRNAV, RNAV-2.
RNAV-5… Hasta hace relativamente poco tiempo, Europa y Estados Unidos y otros
estados como Canadá seguían criterios diferentes a la hora de denominar el
mismo requisito de navegación. Por suerte, esto quedó unificado bajo denominaciones
OACI. En Europa, consideraba BRNAV a las actuales RNP5 y PRNAV a las RNP1,
utilizando el criterio para ruta, llegadas y/o salidas instrumentales. En
Estados Unidos, por el contrario, la FAA utilizaba el término RNAV. Quizá aún
podáis encontrar algo de literatura al respecto, pero, al fin y al cabo, es lo
mismo con distinto nombre.
Desde el año 2.014, los términos RNAV y RNP aparecían
indistintamente en la cartografía aeronáutica llevando a confusión al piloto,
incluso cuando desde entonces, en la práctica eran lo mismo. Esto se produjo
dado el enorme esfuerzo que suponía, no sólo económico, sino retirar la ingente
documentación publicada hasta la fecha y la modificación de toda la cartografía
que existía, sobrepasando la capacidad de los recursos de aquel momento.
Afortunadamente, según la última versión del doc. 9613 de OACI al respecto, esto
dejará de pasar y la cartografía verá ya con referencia a RNP y no RNAV (*).
De esta manera, los cambios serán de la siguiente manera:
(*) En una publicación en mayo de este año,
OACI ha elaborado un plan por países que se extenderá hasta algo mas de 2.020.
¿Y nuestros mínimos? ¿Podemos realizar la aproximación?
En la publicación anterior dejamos alguna idea de qué tipo
de mínimos corresponden a cada tipo de aproximación. Realizar una aproximación
GPS simple, o realizar una aproximación con GBAS (aproximación GLS) o con SBAS
(WAAS o EGNOS), llevará consigo unos mínimos determinados.
Aproximaciones “RNAV (GNSS) RWY xx” ó “RNAV (GPS) RWY xx”.
Si se realizan aproximaciones PBN utilizando tan solo la
señal GPS, tendremos una señal de guiado horizontal o curso de final hacia la
pista. En este caso dispondremos de unos mínimos barométricos que seleccionaremos
en nuestro FMS llamados LNAV/VNAV. Dichos mínimos, al ser barométricos, se
verían afectados ante una temperatura fuera del margen que establece la ficha,
por lo que habría que variar la manera en la que la volamos como ya sabéis. Por
lo tanto, no podría realizarse con el guiado vertical en “managed” del avión,
estableciendo el piloto la senda de descenso correcto.
En el caso de realizar aproximaciones PBN basadas en SBAS, y
bajo la misma designación, los mínimos a tener en cuenta serían los de LPV
(Localizer Performance with Vertical guidance). Es decir, en la propia designación
de la ficha de aproximación constataremos el canal (CH) en el que la señal del
WAAS (si es en U.S.A.) difunde la información. Estos mínimos, a diferencia de
los anteriores son geométricos, por lo que no se verán afectados por la
temperatura.
En algunos aeropuertos, bajo la misma designación encontraremos
varias opciones de mínimos: LNAV, LNAV/VNAV y/o LPV. En función de la capacidad
del avión para realizar la aproximación utilizaremos unos u otros. El hecho de
que aparezca el canal del WAAS o EGNOS, no implica que automáticamente no
podamos realizar esa aproximación si no disponemos de SBAS. Hay que consultar
los mínimos de la ficha y sólo con la designación no es posible saberlo. Cómo
ejemplo podéis consultar en Lido AIP el aeropuerto de Miami Int’l. Esto cambiará
como veremos más abajo con las nuevas designaciones.
Aproximaciones “GLS RWY”
Las aproximaciones del tipo GLS (GBAS Landing System) son consideradas de precisión. La forma de volarlas es “ILS alike”. La selección de la frecuencia o canal como sucede en las aproximaciones basadas en SBAS, la puede seleccionar el avión directamente como en los modernos aviones Airbus o Boeing, o manualmente mediante una caja selectora instalada a tal efecto.
Selección de una aproximación GLS para el aeropuerto de Franckfurt en un A330-200.
Al tratarse de una aproximación de precisión, los mínimos a considerar serán los de CAT I ó CAT II/III si estuvieran ya instalado en algún aeropuerto. Podéis consultar el AIP los aeropuertos de Frankfurt o Málaga para ver su representación.
Aproximación GLS Y a la 07L de Frankfurt.
CAMBIOS EN LA REPRESENTACIÓN DE LOS MÍNIMOS.
Entre los cambios mencionados anteriormente, existe otra
sobre la representación de los mínimos, más fácil de interpretar.
Para ello, la nueva designación de fichas para las aproximaciones
RNP, pasará a ser del siguiente modo. Si la designación de la ficha de aproximación
es “RNP RWY xx”, quiere decir que los mínimos disponibles serán los de LPV,
LNAV/VNAV y LNAV. Si, por el contrario, la ficha sólo tiene mínimos LPV, la
ficha se designará como “RNP RWY xx (LPV only)”. Y si sólo tiene mínimos de LNAV/VNAV,
la designación sería “RNP RWY xx (LNAV/VNAV only)”. Esto agiliza sensiblemente
el proceso de identificación de la ficha y los mínimos necesitando la lectura
de la designación y no “buceando” por la ficha escudriñando los mínimos
para ver si somos o no capaces de realizar esa aproximación.
Tabla del EUR REGIONAL TRASITION PLAN de OACI para los nuevos sufijos sobre mínimos.
RNP AR
APCH (RNP authorisation required approach).
Además de los tipos de aproximación mencionadas, existen
unas, un tanto especiales. En algunos aeropuertos que requieren tipos de aproximación
cuyos requisitos sean mayores del estándar debido a su difícil orografía. Así
nacen las RNP AR APCH. Sin embargo, dadas sus características especiales
necesitan una autorización especial tanto para la compañía como para las
tripulaciones que las realizan.
Este tipo de aproximaciones requieren valores de desvío en
aproximación final inferiores a 0.3 NM, en algunos casos de 0.1 NM ó 0.15 NM.
Dado la exactitud de su requerimiento, los tramos de viraje han de tener requisitos
más elevados de lo habitual. Normalmente los encontraremos basados en RF (Radius
to Fix o Virajes de radio fijo).
Como dato añadido, cuando observamos las denominaciones de los
tipos de aproximación nos encontramos con algunas que indican el requerimiento añadido
para la aproximación: “RF Required” ó “RNP <0.3 Missed approach RNP <1”.
No obstante, estos requerimientos añadidos nos los podemos encontrar tanto en
las AR como en otras, por lo que no necesariamente son AR aquellas que
requieran la utilización de RF, por ejemplo.
Con este capítulo damos por finalizados estos tres capítulos
sobre las aplicaciones del GPS en aviación y los tipos de aproximaciones
disponibles. Espero que estos tres capítulos hayan podido esclarecer algunos de
los conceptos utilizados a diario en nuestras operaciones aéreas.
Recientemente, en uno de mis tweet, mencionaba el
tema de los aeropuertos “hot & high” y, algunos curiosos, con buen
criterio, me lanzaron algunas preguntas que paso a tratar de responder a la vez
con este artículo. El término es desconocido para muchas personas que viajan
habitualmente en avión, e incluso para muchos pilotos deportivos o de
ultraligero que no son conscientes de las limitaciones que suponen las altas
temperaturas veraniegas en el hemisferio norte, o australes en el caso hemisferio
sur.
Altitud de Densidad (DA).
Llevemos un orden. Para poder entender bien lo de “Hot &
High”, hay que explicar bien qué es la altitud de densidad como pilar del
artículo. Debemos dar cuenta de este factor que, de manera invisible y con gran
impacto, afecta a las actuaciones del avión. Quizá el factor más importante de
todos los que afectan cuando llegan las altas temperaturas.
El avión utiliza medios aerodinámicos para generar sustentación
como el ala o sus estabilizadores, tanto verticales como horizontales y, el
medio en el que tiene lugar es el aire. Además, los motores utilizan el aire
para realizar la combustión, o tracción si hablamos de hélices.
El aire, se considera un fluido que, cuando aumenta su
temperatura las moléculas que lo componen se dispersan (disminuye la densidad
del aire). Si, por el contrario, su temperatura disminuyera, las moléculas
ocuparían menor espacio entre sí, reduciéndose el volumen que ocupa (la
densidad del aire aumenta). Esto es conocido como densidad del aire.
Relación entre la temperatura y densidad del aire con la Density Altitude (DA). Relación entre la variación con la altura (h), la temperatura (T) y la Presión (P) con la Density Altitude (DA).
Según la International Standard Atmosphere (ISA), la temperatura
a nivel del mar está establecida en 15º C y, según ascendemos en la atmósfera
300 metros, ésta ha de descender 2º C. Por lo tanto, con el razonamiento
anterior, podríamos decir que al ascender 300 m. desde el nivel del mar, si la
temperatura es de 20º C, nos encontraríamos con que la densidad del aire es
menor que la que deberíamos tener. Es decir, la temperatura es 7º C superior a
la ISA (ISA+7).
Si tomamos en la atmósfera los dos parámetros de temperatura y densidad del aire al mismo tiempo, la densidad del aire disminuye a pesar del decremento de temperatura según ascendemos. Esto es debido a que la presión del aire disminuye en mayor proporción de lo que lo hace la temperatura.
Dicho esto, ¿qué es la altitud de densidad? Pues es la altitud,
cuya densidad del aire sería la correspondiente a la densidad establecida en la
atmósfera ISA. Es decir, si nos encontramos en Madrid, cuya elevación es de 2.000
pies. (600 m.), si su temperatura fuera de 11º C, diríamos que su altitud de
densidad, de ahora en adelante DA, es de 2.000 pies. Si, por el contrario, la
temperatura fuera de 17º C, al encontrarnos a ISA+6, la densidad del aire se correspondería
como si estuviéramos, no a 2.000 pies, sino a 3.000 pies. Es decir que, a 2.000
pies de elevación, la DA sería de 3.000 pies. ¿Qué efectos tiene esto sobre
nuestra aeronave?
Tabla para conocer la Density Altitude.
Efectos de la Altitud de Densidad.
Como hemos visto, la densidad del aire disminuye según ascendemos
en la atmósfera. Una densidad de aire pequeña tiene consecuencias directas en
la sustentación. Si un ala tiene una superficie determinada para generar sustentación,
un aumento en su altitud de densidad (DA) supondría que la sustentación
generada equivaldría a un ala de una superficie más pequeña. Es decir, que al
avión le costaría mucho más generar sustentación.
Esto último, tiene un efecto muy importante. A la hora de aumentar
la sustentación, el piloto ha de elevar el morro del avión, esto es el ángulo
de ataque. Al elevarlo, el ángulo de ataque se aproximaría aún más al máximo:
la velocidad de pérdida. Además, al disminuir al disminuir la densidad del
aire, el ángulo de ataque a partir del cual entraría en pérdida se reduciría,
por lo que el margen sobre esta queda sensiblemente afectado.
La actuación sobre los mandos de vuelo se ve afectada. La
respuesta del avión es menor y, requiere al piloto mayor deflexión de mandos
para lograr el efecto deseado. Además, requiere mayor anticipación debida a la
tardía respuesta de los mandos, sobretodo en el momento del aterrizaje, lo que
en algunos casos desemboca en que, en algunas ocasiones, se “sobremande”
innecesariamente. Aunque este efecto es poco significativo en aviones pequeños,
sí lo es en aviones de mucho tamaño.
En otro orden de cosas, si nos encontramos en un avión de
hélice, ésta generaría menos tracción al tener el aire menor densidad. Si el
motor no compensa la pérdida de en su densidad de aire, la potencia que de será
inferior a la que daría en una atmósfera con aire más densa. Además, con elevadas
temperaturas ambientales, para que el motor pueda desarrollar la potencia necesaria,
trabajan a temperaturas muy cercanas a las máximas por lo que su degradación aumenta.
Como resultado de dichos aumentos en la altitud de densidad,
nos encontraríamos con que nuestra aeronave necesitaría mayores longitudes de
pista para despegar y ascensos de menor pendiente, con las implicaciones que
tiene a la hora de salvar obstáculos en la senda de despegue. Podríamos realizar
la equivalencia de que, para una pista dada, ante un aumento de la altitud de
densidad, es como si acortásemos nuestra pista, o acercáramos de manera
hipotética del obstáculo a librar tras el despegue.
Distancia de despegue de un avión ligero con dos DA diferentes.
En crucero, los aviones comerciales son operados a niveles
altos, por encima de los 35.000 pies de altitud. Dichos niveles son los óptimos
en garantías de poder reducir el consumo de combustible para aumentar su
alcance, ofrecer velocidades más altas y mayor confort al pasajero. Sin
embargo, volar a esos niveles implica que, como hemos visto antes, los aviones
se encuentren volando con márgenes sobre la pérdida pequeños. Un aumento de
temperatura sobre la ISA puede reducir ese margen, por lo que exige al piloto
prestar atención a su evolución durante el vuelo, especialmente en el paso
sobre la zona ecuatorial, donde las temperaturas suelen ser de media superiores
a la ISA en 10ºC, obligando en ocasiones a descender para mantener el nivel de
seguridad con sus márgenes adecuados.
Las tablas… La mejor herramienta del piloto.
Los pilotos realizamos antes de cada vuelo estudios sobre
las actuaciones de nuestro avión para comprobar que, con las condiciones atmosféricas
actuales y las esperadas en el momento del despegue, crucero y aterrizaje, se
encuentren dentro los márgenes de seguridad correspondientes. En la jerga habitual
a las actuaciones del avión las denominamos performance. Y para ello utilizamos
las conocidas tablas de performance. Hoy en día, la mayor parte de ellas electrónicas.
En ellas, introducimos los datos atmosféricos: temperatura,
presión atmosférica y viento. Además, comprobamos la longitud de pista disponible
y su estado. No es lo mismo una pista seca que encharcada, de tierra, o con nieve.
Además, el uso de sistemas que nos puedan afectar a la reducción de empuje de
los motores, como el uso de sistemas anti-hielo o aire acondicionado, han de
ser debidamente en cuenta y, qué potencia hemos de utilizar para despegar. Todo
ello nos permite conocer nuestro grado de ascenso en las condiciones más
conservadoras posibles, teniendo en cuenta un fallo de alguno de los motores o
cuanta pista nos quedaría para frenar si tuviéramos que realizar un aborto de
despegue. Además, nos permite conocer, bajo esas condiciones que configuración
de flap debemos seleccionar para franquear los obstáculos que existan durante
nuestro ascenso inicial.
Un factor muy importante, no mencionado en el anterior párrafo
es el del peso. Es esencial conocer cuanto es el peso máximo que podemos tener
al despegue. Un empeoramiento de las condiciones atmosféricas o en el estado de
la pista, puede hacer que tengamos que reducir el peso máximo con el que
podemos despegar. Esto significa que habría que dejar carga en tierra.
En mis recomendaciones para la aviación general ligera, y
después de muchos años practicándola, es muy importante tener bien claro que no
siempre se ha de poder despegar dos pilotos, algo de equipaje y los depósitos
de gasolina llenos hasta arriba. En muchos casos, si el combustible es necesario
para realizar una determinada etapa del vuelo, pensar en buscar un aeródromo en
el que realizar una parada para repostar en el camino, tratar de despegar a
horas tempranas donde la temperatura aún es suficientemente baja, o la más
segura de todas: No despegar. En ocasiones, conviene comprobar en las tablas de
performance si es posible despegar con algo de viento en cola en dirección a una
zona carente de obstáculos, que despegar hacia un obstáculo que no sabes si
serás capaz de librar con seguridad, aunque tengas el viento en cara en el despegue.
No cerrarse ante una sola posibilidad es conveniente en aras a mantener la
seguridad. Las pistas, habitualmente no son de un único sentido.
Aeropuertos Hot & High.
Después de haber explicado cómo influye la altitud de
densidad en las operaciones aéreas, vamos a tratar de centrarnos en los
aeropuertos que denominamos “hot and high”.
¿Hay algo peor para la altitud de densidad que tener mucha
temperatura ambiente? Efectivamente, que además de mucha temperatura tenga una alta
elevación… Esto es básicamente lo que sucede en numerosos aeropuertos de Centroamérica
y Sudamérica. Quito, México, Bogotá, Medellín son típicos ejemplos con
elevaciones que rondan los 5.000, 7.000 u 8.000 pies de elevación que, junto
con temperaturas de alrededor de 25 a 30º C, alcancen con facilidad los 10.000
pies de altitud de densidad.
Sin embargo, si analizamos las tablas de altitud de densidad,
también Madrid (España) cuya elevación son 2.000 pies con temperaturas cercanas
a los 40º C en verano pueden hacer que la altitud de densidad alcance los 5.500
o 6.000 pies de DA.
Un incremento de temperatura significativo más una cierta
elevación del aeropuerto, puede convertir la operación de un aeropuerto en algo
delicado y que requiere una cierta atención en los cálculos de performance.
Además de los efectos antes mencionados, vamos a añadir alguno
más que en estos aeropuertos son especialmente significativos.
Los pilotos tienen en la cabina indicaciones de velocidad
aerodinámica respecto al aire, que son las que utiliza el piloto para volar la
aeronave. Sin embargo, no son las que realmente lleva el avión respecto del
suelo. Ésta última velocidad, aumenta con la altura. Es decir, para una misma
velocidad indicada en el instrumento del piloto, la velocidad respecto del
suelo será mayor para un aeropuerto de alta elevación que para un aeropuerto a
nivel del mar, lugar en el que coincidiría la indicada con la del suelo.
Esto trae consigo, como en ausencia de viento, la velocidad respecto
del suelo puede ser de unos 20 kt. superior a la indicada. Si echamos cuentas,
podemos realizar un aterrizaje en el aeropuerto de México a unos 175 kt de
velocidad respecto del suelo con una indicada de 155 kt…. ¡muy rápido! ¿Consecuencias?
La primera es fácilmente deducible. Parar una masa de unas 160 toneladas a 175
kt no es lo mismo que pararla desde 155 kt. Necesitamos una pista más larga y
una ejecución de la frenada adecuada.
Los frenos de un avión, a pesar de disponer de frenada
automática, son muy delicados. Debemos calcular qué tipo de frenada vamos a
utilizar para evitar un sobrecalentamiento de frenos excesivo. La técnica,
tanto manual o automática ha de ser cuidadosa. Es normal superar los 400 o 500º
C en un aterrizaje de semejantes características. Es habitual disponer de
servicio de ventiladores para disipar el calor de los discos de freno.
Indicación de la temperatura de frenos tras un aterrizaje en el Aeropuerto Internacional de México D.F: (A340-600).
Para el despegue, donde las velocidades suelen ser mayores que
las de aterrizaje debido al peso sensiblemente mayor, la velocidad de rotación (velocidad
a la que el piloto actúa los mandos con el propósito de irse al aire) es muy
alta. Tan alta, que muchas veces está limitada por la velocidad máxima a la que
las ruedas pueden girar antes de deshacerse. En torno a 204 kt. en el mejor de
los casos. En este tipo de aeropuertos de gran elevación, existe gran diferencia,
bien apreciable, entre el momento en que el piloto inicia la rotación, el avión
comienza a levantar el morro de la pista, y el momento en el que finalmente
despega el tren principal del suelo (Lift-off). En ese transcurso de tiempo
entre la rotación y el lift-off, las ruedas siguen girando sobre tierra, alcanzando
fácilmente los 190 kt. Retrasar una rotación puede acarrear el riesgo de romper
alguna rueda por exceso de velocidad… De nuevo el piloto ha de ejecutar una
rotación a la velocidad y tiempo adecuada.
Otro problema añadido en este tipo de aeropuertos son los
obstáculos. Además de todo lo comentando hasta ahora, es que la mayoría de
estos aeropuertos no están situados en unas amplias planicies. Por lo que las
aproximaciones han de ser bien planificadas a velocidades no demasiado altas,
por lo que debemos hacer uso de los flaps desde mucha altura para llevar el
avión “cogido con riendas” y evitar que se nos desboque… Existe una limitación
de altitud a partir de la cual podemos comenzar a utilizar los flaps,
normalmente entre 19.000 y 20.000 pies, dependiendo del modelo de avión. A la hora
de aterrizar en un aeropuerto con las mencionadas complicaciones es habitual utilizar
el primer punto de flap/slat cercanos a los 17.000 pies en algunos casos para
poder cumplir con las restricciones de velocidad para un avión tipo A340, B777
o B747. Otra vez, cerca de su limitación.
Realizar una aproximación a un aeropuerto de gran elevación
trae consigo otra complicación más. Por si faltaba alguna… Dadas las
velocidades tan altas respecto al suelo, al tratar de mantener una senda
constante de descenso de 3º aproximadamente, lo que es una senda habitual, nos
hace resolver un problema trigonométrico sencillo: ¿Cuál es el régimen de
descenso que llevaremos antes del aterrizaje? Cuando normalmente para una
aproximación de 3º el régimen de descenso suele ser alrededor de 750 – 800 pies
por minuto, en este tipo de aproximaciones es muy próximo a los 1.000 – 1.100
pies por minuto. Quizá estos datos no te digan nada. Pero ¿y si te digo que el
régimen de descenso máximo antes de tener que realizar un motor y al aire son
1.200 pies por minuto? Es decir, el margen es de apenas 100 pies por minuto. Una
vez más las correcciones que se le exigen al piloto durante la aproximación
final han de realizarse muy suaves y con gran anticipación, y más aún durante
el momento del aterrizaje como ya mencionamos anteriormente.
Cómo veis esto de la aviación tiene muchas peculiaridades que a través de mi carrera voy descubriendo y, que de una manera u otra trato de contároslo lo mejor que puedo. Mientras tanto, en mi cuenta de Twitter @Daniel_Jambrina voy poniendo fotos y comentarios.
En el capítulo I sobre el GPS y sus aplicaciones acabamos
hablando sobre el DGPS, o GPS diferencial. Se convertía en el primer sistema de
aumentación de la señal GPS que daría lugar a varios tipos de sistemas. Desde
ahí comenzamos esta segunda parte.
Los sistemas de aumentación de la señal GPS han abierto la
puerta a otros tipos de aproximaciones instrumentales sin necesidad de apoyarse
en ayudas radioeléctricas como el VOR, NDB o incluso el ILS, dando la capacidad
realizar aproximaciones de CAT II/III o en curva donde antes la orografía no
permitía una aproximación ILS.
Errores en la señal GPS.
En este punto, tenemos claro que la precisión en la posición
de los receptores proviene directamente de la señal emitida por los satélites.
En la primera parte y a modo repaso, comentamos el efecto del Selective
Availability (SA) y que había sido eliminado en el año 2.000. Además, gracias
al DGPS este efecto se contrarrestaba aumentando la precisión. Sin embargo, hay
otros efectos intrínsecos que también son necesarios corregir: Error del reloj,
error de efemérides, el error ionosférico y el error multitrayecto.
Vimos como alterando
en la señal el tiempo al que se envía la señal, la posición se alteraba (SA).
En este caso, el error del tiempo era intencionado. Sin embargo, el reloj del
GPS, a pesar de ser atómico, tiene un pequeño error que es necesario corregir.
El error de efemérides, suele rondar los 2,5 m. Los
satélites siguen órbitas determinadas alrededor del planeta Tierra. Sin
embargo, el planeta no es un globo perfecto y las fuerzas gravitacionales que
actúan sobre los satélites no son constantes, lo que implica que las órbitas
satelitales necesitan corregirse constantemente. Esto afecta a la posición del
satélite para un instante determinado.
El error ionosférico es el más significativo. Según varias
fuentes oscila entre los 3 y los 5 metros. Este error es debido a que la señal
GPS tiene que atravesar la capa atmosférica y, al hacerlo, la señal cambia su
velocidad y se refracta, provocando un retraso en la señal.
Por último, el error de multitrayecto, es un error más
pequeño que los anteriores. Está relacionado con el reflejo de la señal del GPS
con la superficie. Provoca que el receptor reciba la misma señal en diferentes
rangos debidos al rebote. La orografía es un claro ejemplo.
Sistemas de aumentación de la señal GNSS.
El GPS por sí mismo no podía dar un servicio de navegación aérea
apropiado ya que, debido a todos los errores mencionados en el apartado
anterior, no cumplía con los requisitos del anexo de 10 de OACI: Precisión,
Disponibilidad e Integridad. Con la aparición del DGPS, la FAA se dio cuenta de
que podría adaptarlo a la aviación no sólo para la navegación de enruta, sino
para dar servicio de aproximación por instrumentos sin depender de las actuales
radioayudas eliminándolas en un futuro cercano. (Australia ya comenzó a
desmantelar todos los VOR y NDB).
GBAS.
Surgió entonces el LAAS (Local Area Augmentation System). No
era otro que un sistema basado en los mismos principios que el DGPS pero con
alguna mejora. El sistema permitiría obtener aproximaciones instrumentales del
tipo ILS sin necesidad de utilizar señales radioeléctricas. Con el tiempo,
pasaría a denominarse GBAS (Ground Based Augmentation System), término
utilizado en OACI. Aunque todavía quedan referencias con la terminología anterior
LAAS, no existen diferencias prácticas.
¿Cómo funciona el GBAS? En un área determinada se instalan 3
o más antenas receptoras de GPS que funcionan como referencia. Dichas antenas
miden el tiempo de la señal entre el satélite y la antena, y calculan la
posición. Dicha posición es enviada al GBAS Ground Facility y determina el
error y el error medio de la señal GPS. Dicho error es transmitido al equipo de
aviónica del avión mediante una antena emisora que opera mediante VHF Datalink
(VDB). Como función añadida, el GBAS monitoriza la funcionalidad de los
satélites, eliminándolo de la ecuación si fuera necesario.
Esquema de antenas del GBAS (imagen FAA).
El GBAS da cobertura en un área de unas 23 NM y permite
ofrecer hasta 48 tipos de aproximación diferentes. Hasta hace dos años, tenía
la capacidad de ofrecer CAT I, pero hoy en día tiene capacidad CAT II/III. A
este tipo de aproximaciones se les conoce como GLS (GBAS Landing System).
Podemos encontrarlas en numerosos aeropuertos de Estados Unidos, Asia y en
otros como Rio de Janeiro, Bremen, Frankfurt, Zurich y Málaga.
SBAS.
Dado el éxito del GBAS, se propuso la idea de mejorar la
señal del GPS en un entorno mayor al de las 23 NM. Así, la FAA implementó el
WAAS (Wide Area Augmentation System). Para el sistema WAAS, se crearon Estaciones
de Referencia WRS (Wide-area Reference Stations) distribuidas por el territorio
norteamericano y Hawaii, en concreto 38. Estas estaciones hacen la labor de
recibir las señales del GPS y compararlas con su propia localización exacta por
lo que son capaces de detectar los errores. Esta información recolectada por
los WRS (existen 3) es enviada a las WAAS Master Stations (WMS) que generan un
mensaje cada segundo. Dicho mensaje contiene información que permite a los receptores
de GPS/WAAS corregir el error de posición mejorando su precisión y su
integridad. ¿Pero como se consigue enviar el mensaje a los receptores GPS?
Arquitectura WAAS (imagen FAA). Similar al sistema EGNOS europeo.
Para el envío de dichos mensajes, se lanzaron un total de 3
satélites de comunicaciones geoestacionarios que recibían de 6 estaciones o
antenas (GEO Uplink System), los paquetes de información y la difundían
utilizando el mismo método de envío de las señales GPS. De esta manera, el
propio receptor GPS podría recalcular su posición corrigiendo la señal de los
GPS con la del mensaje corrector enviada por los satélites geoestacionarios. Al
mismo tiempo el propio sistema monitoriza y avisa cualquier dato erróneo que
pudiera existir, permitiendo al receptor contar con la fiabilidad adecuada.
Dado el uso de satélites geoestacionarios para el envío de
la señal correctora, OACI lo denominó SBAS (Satellite Based Augmentation
System). Dado que el WAAS es un sistema SBAS sólo válido para el territorio de
Estados Unidos y Hawaii, otras naciones decidieron poner en órbita su propia constelación
geoestacionaria. En el caso de Europa, su sistema es el EGNOS. Rusia, India, Japón
y China también disponen del suyo.
Sistemas SBAS.
Los sistemas SBAS mencionados anteriormente son
interoperables. Es decir, permiten al mismo receptor utilizar las señales en
todas las zonas de cobertura GPS.
El sistema SBAS, nos permite realizar aproximaciones SLS
(SBAS Landing System) hasta mínimos LPV. Es decir, “Localizer Performace and
Vertical guidance”. Lo que podemos traducir a ser capaces de realizar una
aproximación como si fuera un ILS, hasta unos mínimos verticales geométricos y
no barométricos (utilizando el altímetro).
¿Hay alguna diferencia entre los receptores comunes de GPS y los que utilizan SBAS? Sí. En modelos de avión de líneas aéreas es menos visible dado que, en el caso de Airbus, se integra en los MMR del avión. Hablaremos de esto en la siguiente parte. En el caso de aviones ligeros, el equipo utilizado es diferente y si se desea acceder a este tipo de capacidad de navegación es necesario utilizar un GPS con función SBAS. En algunos GPS, la denominación del aparato GPS cambia a “W”. Por ejemplo, GARMIN en el modelo G430, el que tiene la capacidad de realizar estas aproximaciones es G430W.
ABAS.
Una mención aparte merece el ABAS (Aircraft-Based Augmentation
system). Como su propio nombre indica, será la aeronave mediante sus equipos de
aviónica que mejoran su precisión de navegación. Sin embargo, aunque lo hay, esto
no significa que utilice la señal GPS como en los casos anteriores del SBAS y
GBAS.
Los equipos de aviónica realizan cálculos mediante
algoritmos utilizando otros sensores para corregir su posición. Los más utilizados
son los sistemas inerciales de navegación (INS), el DME/DME, o la mezcla de
ambos. De hecho, es muy común encontrarse con requerimientos de navegación
DME/DME para realizar aproximaciones RNAV-1, por ejemplo. Sin necesidad de
requerir GPS.
Otro sistema ABAS muy extendido es el RAIM (Receiver Autonomous Integrity Monitoring que utiliza señales redundantes del GPS para detectar fallos.
Tanto del RAIM como de los distintos tipos de aproximaciones, hablaremos en el siguiente capítulo.
El GPS es un dispositivo bien conocido en nuestros días. Desde
su nacimiento en el año 1.973 ha sufrido muchísimas mejoras. Sin embargo, prácticamente
sin darnos cuenta estas modificaciones han traído consigo mejoras sin saber qué
beneficios nos aportan. Con muchas siglas, eso sí.
Nacimiento y
desarrollo.
No podemos explicar algunas de sus mejoras sin recordar ligeramente
sus orígenes, aunque sea de manera breve.
Algunos de los lectores podrán recordar algunos de los
sistemas de navegación predecesores al GPS. El LORAN, OMEGA o DECCA comenzaron a
desarrollarse con el fin de obtener y de mejorar la precisión de sus sistemas
de orientación de armas en las diversas fuerzas armadas de los Estados Unidos. Coincidente
con la Guerra Fría en la que sus misiles balísticos necesitaban mejorar la
precisión de sus sistemas de navegación, además de conocer la posición de sus
submarinos y bombarderos estratégicos.
Cuando los soviéticos comenzaron a lanzar satélites a
mediados de los años 50, se dieron cuenta que, aplicando el Efecto Doppler a
las señales electromagnéticas enviadas, podían conocer la posición de los
satélites en órbita alrededor de la tierra. Poco después intentarían resolver la
ecuación al revés. Es decir, un usuario en tierra, mediante la posición conocida
de los satélites, podía determinar su posición. El GPS, de hecho, utiliza el mismo
método, pero en sentido contrario, para ello es necesario que el GPS lleve un
reloj a bordo con la precisión requerida. Con toda esta tecnología y sus posteriores
estudios se pudo desarrollar una tecnología que mejoraría la precisión de
navegación de miles de metros a cientos de metros.
En 1.973, fue creado el NAVSTAR – GPS, y más tarde se le acabaría
llamando Global Positioning System,
más conocido con sus siglas como GPS. Entre 1.973 y 1.985 se pusieron en órbita
los 10 satélites necesarios para formar la constelación. No sería hasta 1.993
que la constelación la formarían 24 unidades. Aunque en realidad hoy en día son
unos 30, de los cuales 24 se encuentran activos.
¿Pero cómo funciona?
Como se ha explicado anteriormente, existe una constelación
de satélites describiendo 6 órbitas diferentes dando una vuelta a la tierra
cada 12 horas a una altura de más de 20.000 km. Para determinar la posición, los
satélites envían una señal desde una posición y hora conocida. La señal
electromagnética llegará a un receptor en tierra que sabrá a qué hora exacta
llegó la señal. Sabiendo la velocidad de propagación de la onda, el receptor podrá
determinar la distancia desde el satélite. Sin embargo, esta distancia sería el
radio de una esfera alrededor del propio satélite. Al calcular las distancias
con cuatro satélites, el receptor podrá determinar su posición en el punto de
cruce de esas cuatro esferas. Dicho cruce no sólo da una posición geográfica
sobre un plano horizontal, sino también su altura sobre el terreno.
Dichos satélites emiten varios tipos de ondas en la banda “L”.
L1 (1575,42 MHz) transmite en una frecuencia determinada para uso civil y L2
(1227,6 MHz), para uso militar y de manera codificada.
SA (Selective
Availability).
En el año 1.983 un B747 de Korean Airlines fue derribado al
entrar en espacio aéreo prohibido de la Unión Soviética debido a errores en la
navegación. El presidente de Estados Unidos entonces, Ronald Reagan, prometió en
ese momento que el GPS estuviera disponible para uso civil de manera gratuita.
La señal del GPS tiene una precisión de unos 30 metros. Cuando
el GPS fue creado, el ejército norteamericano, por motivos de seguridad, se reservó
que dicha precisión no fuera utilizada por sus enemigos. Así, la señal L1 de
uso civil estaba degradada, alterando el reloj de manera aleatoria. Así, la
precisión caía hasta niveles de algo más de 100 metros.
A mediados de los años 80, algunas organizaciones como la
FAA, United States Department of Transport (DOT) y United States Coast Guard
(USCG) ejercieron presión, sin resultado para desconectar el SA.
DGPS (GPS Diferencial).
Como respuesta, la USCG experimentó y desarrolló un sistema que
le permitía mejorar la precisión a pesar del Selective Availability. Dicho
sistema consistía en colocar una estación en un punto, cuyas coordenadas
geográficas eran conocidas. La estación estaba equipada con un receptor de
señal GPS y podía cotejar la señal del GPS con su posición real. La estación contaba
con un emisor que difundía en frecuencias VHF el error de la señal GPS a otros
receptores GPS en la zona de cobertura VHF de la estación para corregir en sus sistemas
de posicionamiento el error en la señal del GPS, mejorando la precisión incluso
con el SA activado. Este sistema se denominó DGPS o Differential GPS (GPS diferencial).
Esquema de funcionamiento del DGPS.
A finales de los años 90, y dado el éxito del DGPS, la
necesidad de mantener el SA desaparecía. Bill Clinton eliminó de manera
definitiva el SA en los GPS civiles en el año 2.000. Por otra parte, el ejército
norteamericano también había podido desarrollar otra vía para alterar la
posición de los GPS en determinadas zonas geográficas por lo que ya no podían alegar
seguridad para seguir utilizando el Selective Availability.
Hay que añadir, que el desarrollo del DGPS mejoró la
precisión del GPS incluso por encima de la propia señal GPS sin el SA activado,
dando posiciones con márgenes de entre 5 y 10 metros.
Cortesía de GARMIN.
La FAA comenzó a utilizar el sistema DGPS para desarrollar
sistemas que le permitieran, entre otras cosas, reducir el uso de radioayudas a
la navegación, que costaban millones de dólares mantener y cuya precisión quedaba,
en algunos casos, muy por debajo del GPS. Comenzaron a estudiar los sistemas de
aumentación de la señal GPS, conocido como WAAS (Wide Area Augmentation System).
De esto hablaremos en la siguiente parte.
Descrubre las cinco preguntas sobre curiosidades aeronáuticas.
Hola de nuevo curiosos de la aviación.
En la anterior edición hablábamos del Boeing
737MAX que llevó a paralizar la flota de todos los 737MAX del mundo. Es la
primera vez que ocurre. Ni si quiera el modelo de DC-10 que tuvo varios
accidentes debido a su diseño de la bodega de carga, ni el propio 737 en su
versión clásica, con un problema de diseño en el pistón del timón de dirección,
dejaron de volar entonces hasta su solución.
Significa esto que la aviación ha mejorado
sus barreras de seguridad y se pueden implementar de manera global en un relativo
espacio de tiempo.
En la anterior edición hablábamos de un
trimotor… y hemos querido añadir un poquito más al respecto. Esperamos que las
encontréis interesantes.
Aquí van las primeras cinco de esta semana:
1. ¿Sabría
decir cuál fue el primer trirreactor comercial en entrar en servicio?
2. ¿Podría
nombrarnos al menos 10 trimotores que se hayan comercializado a lo largo de la
historia?
3. ¿Por
qué los pilotos de combate durante la Primera o Segunda Guerra mundial solían
llevar bufandas de seda alrededor del cuello?
4. Para
los amantes de la aviación deportiva, especialmente del vuelo sin motor… ¿Sabría
decirnos la diferencia fundamental entre un “Planeador” y un “Velero”?
Fue el famoso Boeing 727 de fabricación
americana… diseñado a
finales de los años 50 debido a una necesidad comercial de varias compañías americanas de
aquella época dorada, -United-Eastern-American-, que necesitaban un avión
polivalente capaz de mantener unos costes relativamente bajos en sus vuelos
internos dentro de Norteamérica, así como reducir
significativamente los costes para vuelos más largos y de baja densidad en los que se empleaban
habitualmente cuatrimotores como el 707 o el DC8. Contrariamente a lo que
algunos creen, que fue el Hawker Trident, y que, aunque
fue el primer trirreactor en surcar los cielos -el vuelo de prueba lo hizo un año antes que el
727-, la primera
entrega y el primer vuelo oficial realizado por un cliente fueron ambos
en el mismo año (1964) pero le ganó el podio el 727 entrando
en servicio con casi dos meses de antelación.
El 727 fue un avión de fuselaje estrecho ya que
fue diseñado a partir de los
modelos Boeing 707 y 720, lo cual marcó un
precedente en aquella época, pues supuso un tremendo ahorro en costes tanto de
fabricación en la cadena de producción como en los gastos de mantenimiento en
línea de las aerolíneas.
También es reseñable destacar que
fue el reactor comercial más vendido hasta principios de los 80, desbancado
posteriormente por el, tristemente de actualidad, Boeing 737. Se fabricaron
desde su inicio a principios de los años 60 cerca de 1.900 unidades, de las
cuales casi 100 siguen a día de hoy en servicio en distintas aerolíneas,
compañías cargueras y diferentes fuerzas aéreas en todo el mundo.
Aquí van algunos de los más significativos. Seguro que alguno más encontráis para añadir a la lista. Aparte del nombrado 727, claro…
Falcon 50 y sus versiones modernas del 900, 2000 y 7000.
Junkers JU-52;
Lockheed L-1011 TriStar;
Fokker VII;
Tupolev TU-154;
Ford “Tin Goose”;
DC-10 y posteriormente MD-11;
SM.81 Marchetti “Murcielago”;
Stout Bushmaster 2000;
BAC-111;
Yak 40 y 42;
Hawker Trident.
JU-52.
La respuesta tiene una sencilla explicación. No
era cuestión de “frío” como se puede suponer en primera instancia, puesto que
los aviones disponían algunos de calefacción. Su uso se extendió para evitar el
enrojecimiento y las posteriores heridas por rozaduras que sufrían los pilotos
durante sus misiones y que eran producidas por sus toscas uniformidades de rígidos
cuellos y gruesas cazadoras, especialmente en momentos de máxima tensión en
combate, cuando hacían girar bruscamente sus cabezas continuamente durante la
batalla con la intención de avistar y dar caza al enemigo.
Según la FAI (Federación Aeronáutica
Internacional) – que es la encargada de regular todos los requisitos de las
distintas clases de competiciones – y aunque a nivel de licencias no se
establece ninguna diferencia, existe distinción debido a que comúnmente los
Veleros poseen mejores prestaciones o “performances” en cuanto al planeo que
los planeadores convencionales. En algunos lugares se encuentra escrito que
hasta 1:15 de coeficiente de planeo es un planeador, y mayor a 1:15 es un velero.
Puestos a hablar de coeficientes de planeo,
¿Qué es esto? El coeficiente de planeo establece la capacidad de descenso
mínima relacionada con su avance en su misma unidad de medida longitudinal. Normalmente
se representa con dos números separados con dos puntos. Uno para indicar la capacidad
de avance y el otro, con el número “1” para indicar la unidad de pérdida de
altura. Lo podéis encontrar escrito como 1:15 o al revés, 27:1. Es decir, un velero
que tenga un coeficiente de planeo de 1:37. Así, por cada 1.000 metros que
descienda el avión, avanzará 37 Km.
Si profundizamos un poco más en el tema, podemos
añadir, que el coeficiente de planeo tiene que ver con la relación L/D, es
decir, la relación que existe entre la sustentación y su resistencia
aerodinámica, más conocida como “máxima fineza”. Dicha relación se consigue con
un ángulo de ataque determinado, es decir, una velocidad concreta para un peso
concreto. Los pilotos de vuelo sin motor conocen bien esta velocidad, pues es
la que han de utilizar en caso de no encontrar una térmica o ascendencia que
les haga ascender y necesiten maximizar su tiempo en el aire.
La “senda de los elefantes”, o más conocida por
su terminología anglosajona “Elephant walk”, surgió en la Segunda Guerra
Mundial cuando durante la salida de los bombarderos hacia sus misiones de
bombardeo sobre sus objetivos alemanes despegaban de manera masiva en números
cercanos a los mil aparatos. Se desarrolló un sistema para que hicieran
despegar el mayor número de fuerzas en el menor tiempo posible, lo que generaba
un desfile en tierra al que comenzaron a llamar “elephant walk”.
«Elephant walk» de F-16 Surcoreanos y Norteamericanos en la base aérea de Kunsan (Foto: Wikpedia)
Hoy en día se utiliza el término
para un ejercicio que simboliza el lanzamiento del mayor número de fuerzas de
manera masiva y de una sola vez. Dadas las implicaciones que supone lanzar de
golpe todos sus aviones al aire, se realiza en entrenamiento sin despegar dando
lugar a fotos realmente impresionantes en la que aparecen todos los aviones
sobre la pista rodando en formación.
Para conseguir ahorros de combustible mayores, los aviones de última
generación vuelan a altitudes mayores que sus antecesores. A esas altitudes la
concentración de ozono es mayor. Para evitar las molestias físicas desprendidas
de respirar aire con ozono, los aviones cuentan con una defensa en sus sistemas
de aire acondicionado.
Hasta la aparición de los reactores, la aviación se limitaba
a volar en un espacio aéreo que existe “cercano” al suelo, es decir, la
troposfera. Dicha capa de la atmósfera nos lleva desde la superficie terrestre
hasta una altitud entre 8 y 11 kilómetros, dependiendo si nos encontramos en
los polos o en el ecuador. En esta capa se desarrollan el mayor número de
fenómenos atmosféricos como las precipitaciones de diferente tipo y las nubes.
Sin embargo, con la aparición del reactor, los aviones eran
capaces de volar aún más alto y más rápido. Para realizar los vuelos de manera
más eficiente y de mayor alcance, éstos debían volar en la capa inmediatamente
por encima, la estratosfera. Ante la carencia de humedad y que la temperatura se
mantiene prácticamente constante alrededor de los -56ºC, no existe nubosidad. No
obstante, existen otros fenómenos que combatir, como los efectos del ozono o la
radiación. Hablemos del primero.
Amigo – enemigo. El ozono.
El Ozono (O3) es una molécula de gas incolora y
con ligero olor acre. En grandes concentraciones tiene ligero color azulado. Se
forma al disociarse las moléculas de oxígeno por acción de los rayos
ultravioleta. Las moléculas de oxígeno se unen a estos átomos disociados y dan
como resultado la molécula de ozono (O2 + O = O3). Algunas
veces, cuando hay tormentas con alto aparato eléctrico, los rayos descomponen
el oxígeno y podemos encontrar ozono cerca del suelo.
El ozono existe en muy bajas concentraciones en la atmósfera
terrestre (0,004 pmmv) según datos de la NASA, pero en la parte baja de la
estratosfera, es donde mayores concentraciones del gas existe. En numerosas
lecturas se hace referencia a la “Capa de Ozono”. La capa de ozono de la
estratosfera reduce la cantidad de los rayos ultravioleta procedente del sol
que alcanza la superficie terrestre.
Gráfico de concentración de ozono en la atmósfera. (imagen de la NASA).
El ozono es un oxidante muy potente que puede irritar las
vías respiratorias. Puede provocar tos, irritación de garganta, dolor de cabeza
y empeorar la bronquitis o el asma. Dados sus efectos, las aeronaves han de
contar con un sistema que rebaje los niveles del ozono del aire utilizado para
el aire acondicionado.
En 1.968, la American Conference of Government Industrial
Hygienists (A.C.G.I.H.) adoptó el límite del valor máximo T.L.V. (Threshold
Limit Value) de 0,1 partes por millón de volumen (pmmv). Este es el valor
máximo para una persona trabajando 8 horas al día, 40 horas a la semana.
El descubrimiento del
ozono en las cabinas.
Los aviones utilizan el aire de la atmósfera para su
acondicionamiento y que tanto los tripulantes como los pasajeros puedan
respirar el aire en condiciones ambientales adecuadas de temperatura, presión y
humedad. Hasta la aparición de los reactores, las altitudes a las que los
aviones volaban no superaban los 25.000 ft. Incluso, cuando los reactores
irrumpieron en el transporte aéreo, los cruceros se realizaban entre 25.000 y
35.000 pies. Sobre todo, con la crisis del petróleo, en la que los niveles de crucero
comenzaron a tener su importancia para reducir el consumo de combustible.
En el año 1.976 la FAA comenzó a recibir un incremento en el
número de reportes sobre molestias físicas del personal de vuelo y pasajeros en
los aviones de fuselaje ancho empleados en vuelos de largo recorrido. Tras
varias investigaciones realizadas a lo largo de 1.977 por miembros de la FAA,
de las aerolíneas y de los fabricantes de aeronaves, determinaron que el origen
de los reportes era debido a la respiración de aire con altas concentraciones
de ozono.
Durante los estudios se detectaron datos que superaban los
0,1 pmmv con creces. Los valores variaban en función de la época del año y de
la zona geográfica.
Llegados a este punto, era necesario una normativa que regulase el valor máximo de ozono en cabina. Boeing y Pan Am en este momento habían instalado un filtro para reducir la cantidad de ozono en sus 747 hasta en un 90%. Sin embargo la nueva normativa nació a primeros de los años 80 y requería en muchos de los casos reducirse por encima de ese 90% para cumplir con el valor límite arriba mencionado. Dicha norma se aplicó a todos los aviones que operaran por encima de los 18.000 pies de altura.
El catalizador.
Cuando la FAA decidió regular al respecto del valor máximo de
ozono en el aire de cabina, existían dos métodos principales para lograrlo: Un
filtro como el que había utilizado Pan Am en sus 747, y un catalizador que
descomponía las moléculas de O3 en O2.
El sistema que mejor solución ofrecía era el catalizador,
que además de su sencillez, carecía de los problemas que surgían con los otros
sistemas estudiados.
Catalizador o conversor de ozono de Reuters.
Los materiales catalíticos son muchos y variados, e incluyen
un gran número de metales base y metales óxidos y metales nobles como platino,
paladio y plata. Es decir, metales que por sus características poseen una
actividad catalítica. El catalizador tiene forma de cámara alargada con una
entrada de aire por un lado y una salida en el otro. El aire entra a través de
unos tubitos minúsculos o cánulas de acero que, al verlos de frente, parecen
una malla. Al penetrar el aire, el ozono hace reacción con un sustrato cerámico
de material activo y separa las moléculas de oxígeno.
De esta manera, el conversor de ozono se monta a la entrada del sistema de aire acondicionado y pasa a formar parte del ECS (Environmental Control System). El aire sangrado del compresor del motor entra en el Pack de aire acondicionado a través del conversor de ozono, el cual transforma el aire en oxígeno por efecto catalítico, entonces continua su camino hacia la Flow control Valve que regula el flujo de aire demandada por el sistema de aire acondicionado y de presurización.
A la derecha de la imagen se puede ver el conversor de ozono del sistema de aire acondicionado de un A340.
Representación.
Como se ha mencionado antes, las concentraciones de ozono
son variables tanto en niveles de altitud como zonas geográficas, además de
variar por épocas del año. Existen algunas aplicaciones que usamos los pilotos para
obtener información sobre meteorología en ruta, como el e-WAS de SITA ON AIR, en
la que aparece la concentración de ozono. Si bien es meramente informativo, los
aviones comerciales, como hemos mencionado antes, tienen la capacidad de
reducir el ozono hasta niveles por debajo del valor de 0,1 pmmv por
certificación.
Información de un vuelo Madrid a Los Ángeles en la aplicación e-WAS.
Airbus comunicaba que en el año 2.021 el A380 dejará de ser fabricado, poniendo fin a 16 años del llamado “Super jumbo”. Boeing, mediante su vicepresidente de maketing Randy Tinseth dijo: “francamente, no veo una demanda para aviones realmente grandes”. El tiempo ha dado la razón a Boeing. ¿Pero que otros proyectos han fracasado a lo largo de la historia de la aviación comercial? Aquí va alguno de ellos.
El fracaso de la era moderna. El A380.
En 2.007 entró en servicio el primer A380 con la aerolínea
Singapore Airlines. Posteriormente las aerolíneas de bandera de Asia, Europa y
Oriente Medio incorporaban también el A380 a sus flotas y convertiría en su
flota más emblemática.
Desde el punto de vista del pasajero, pronto el “super
jumbo” se ganaría a los pasajeros más exigentes. El espacio, su silencio y la
nueva tecnología aplicada al pasajero tuvo un efecto muy positivo. Sin embargo,
y en contrapartida, las compañías con el tiempo comenzaron a recelar del avión.
Si bien, responde a rutas muy densificadas, llenarlo se convertía también en un
reto financiero para las aerolíneas.
El proyecto con el tiempo tuvo unos sobrecostes en la
fabricación que encareció el producto final. Mientras que en 2.005 el precio de
catálogo era de entre 315 y 335 millones de dólares, en 2.015 su coste
alcanzaba los 430 millones de dólares. El consejero delegado de IAG, siempre ha
dicho que es un gran avión, pero el precio ha sido siempre su mayor queja: “Airbus tiene que bajar el precio del A380
para elevar las ventas”.
Airbus que planeaba vender en torno a 700 unidades, lleva
entregados 234, y sólo le quedan 14 más por entregar después de que su
principal cliente, Emirates, anunciara que reducía su actual pedido de aviones
y convertía parte de el en el último modelo del fabricante, el A350.
A380 de Emirates. (Foto: Emirates Airlines)
Boeing, años atrás se mostró muy reticente ante la aparición
del A380. Mientras que Boeing desarrollaba el Boeing 787, más pequeño que el
777 y el 747, pensaba que el mercado mundial evolucionaba hacia un desarrollo
de rutas aéreas punto a punto, de menor densidad de pasajeros y distancias más
largas, y el Boeing 787 se adaptaba mejor a ese modelo. No obstante, ellos ya
contaban con el Boeing 747, éxito de ventas desde 1.970 y lo único que habrían
de hacer era crear una nueva versión del mismo.
Cuando Boeing se planteó varias veces modernizar el Boeing
747, fue consecuente con su decisión. O se modernizaba a un coste muy bajo, o
se cancelaba la producción del mítico “jumbo”. Así, aplicaron tecnología ya existente
del 787 en el nuevo 747-8i. No obstante, no obtuvo mucho interés de las
aerolíneas como ya predijeron inicialmente. Con todo y con ello, han vendido
más de 1.500 unidades de su modelo más emblemático en 50 años de existencia.
El concorde. El fracaso
como base del éxito.
En 1.969, realizaba su primer vuelo el Concorde 001. Era el
resultado de la “concordia” entre British Aircraft Corporation y Aérospatiale.
A finales de los años 50 del siglo pasado, algunos
fabricantes de aviones de la época pensaban desarrollar e introducir en el
transporte aéreo aviones supersónicos. La tecnología que se había desarrollado
en el ámbito militar todavía requería de una evolución más. En la aviación
militar se alcanzaba el vuelo supersónico en determinados momentos, pero la
tecnología no era capaz de mantener un vuelo durante varias horas a velocidad
supersónica. Los motores, y la estructura del avión debían ser el objeto de
dichas mejoras. Si bien los norteamericanos estaban trabajando en ello, los
británicos y los franceses ya tenían muy avanzado el proyecto. No obstante, su
desarrollo era tan caro, que para desarrollar y vender de manera masiva el
avión requería de una inversión conjunta. Capital que llegaría a través de los
estados francés e inglés. Nació el proyecto de un avión de largo radio para una
capacidad de 100 pasajeros: El Concorde.
En enero de 1.976 entraba en servicio el Concorde, sin
embargo, no lo haría de la manera esperada. Durante la fase de presentación del
avión, había acumulado el interés y pedidos de varias aerolíneas, entre ellas
Pan Am. British Airways y Air France recibieron grandes subvenciones de sus
respectivos gobiernos para que compraran el avión. Hasta 1.972, tenía más de 70
pedidos del modelo. Debido a varios factores las aerolíneas comenzaron a
cancelar sus pedidos y rebajar sus pretensiones sobre el avión.
Foto archivo BAe systems.
En aquella época, el transporte aéreo era un modelo muy
protegido y poco liberalizado. La intervención de los gobiernos ante la
competencia era muy proteccionista respecto a sus operadores y fabricantes. En
Estados Unidos, el proyecto del avión supersónico Boeing 2701 fue cancelado en
1.971, dando como resultado una hipotética hegemonía europea. Así, la oposición
del gobierno norteamericano fue muy elevada.
Entre los problemas de mayor éxito mediático era el
medioambiental. El Concorde, como cualquier avión supersónico de la época, al
acelerar de velocidad subsónica a velocidad supersónica, se producía en el
perfil alar una onda de choque y un estampido sónico que generaba un ruido que
era escuchado desde muchos kilómetros de distancia en tierra.
El estampido sónico supuso el origen de las protestas de los
vecinos de las zonas donde se producía. No sólo en Estados Unidos, que utilizó
de la mejor manera posible para evitar los vuelos del Concorde sobre su
territorio, sino también en otras zonas de Inglaterra e Irlanda. El Congreso de
los Estados Unidos prohibió el vuelo del Concorde en sus aeropuertos.
Protestas contra la llegada del Concorde 2 a Los Angeles el 23 de octubre de 1.974. (Foto Daily Breeze Archive)
Sólo a partir de 1.977 la Corte Suprema de Estados Unidos
permitió el vuelo del Concorde en Estados Unidos, debido a que en aquel momento
se demostró que existían muchos modelos de aeronaves subsónicas que tenían un
nivel de ruido mucho mayor que el del Concorde. Los vuelos a New York se
pudieron inaugurar y mantener hasta el final de la vida del Concorde.
Si bien aquel problema medioambiental se palió mediante la
aplicación de nuevos procedimientos operativos y diversas batallas legales, el
daño a ese respecto estaba hecho.
Además de otros factores, algunos menos importantes, se
encontraba uno de índole económica. Durante el desarrollo del avión, no
tuvieron en cuenta el coste del precio del petróleo, para entonces un bien
abundante y barato. Sin embargo, la crisis del petróleo de los años 70 provocó
que las aerolíneas tuvieran que racionalizar su uso intentando por todos los
medios de reducir su coste en los balances. Otro motivo más para no comprar el
Concorde.
Un sobrecoste de más de 5 veces mayor del planificado en su
diseño y construcción, más de 1.300 millones de libras de la época. La crisis
del petróleo, la campaña mediática en contra y la gran preocupación acerca del
ruido, supuso la cancelación del proyecto. Sólo 20 unidades fueron fabricadas.
Incluyendo los 6 de pruebas.
Como contrapartida al fiasco económico del proyecto, pondría
de manifiesto que la industria aeronáutica europea contaba con suficiente
tecnología y medios económicos para poder desarrollar una industria aeronáutica
que pudiera poner fin al monopolio de los fabricantes norteamericanos. Se
constató que la unión de varias empresas aeronáuticas como la inglesa,
francesa, española, alemana e italiana principalmente podían trabajar en una
misma dirección compartiendo objetivos. Había nacido Airbus.
El avión que no
“llegó lejos”. El Mercure.
Cuando en abril de 1.967 Boeing realizaba con éxito el vuelo
del Boeing 737-100, el fundador de Dassault Aviation, Marcel Dassault realizó
junto a la aviación civil francesa un estudio de mercado de un avión comercial
civil de corto radio para poder competir con el 737. Así demostraría que la
aviación francesa era capaz de desarrollar un modelo civil basado en todos sus
conocimientos en la fabricación de aeronaves militares como el Mystères o el
Mirage.
El modelo elegido era muy parecido al 737 físicamente, pero
con una capacidad mayor, ya que éste contaría con 140 asientos en lugar de los
100 del B737-100, o 115 del B737-200.
Dassault Mercure 100. 23 de mayo de 1.978 en el aeropuerto de París Orly.
El primer prototipo voló en mayo de 1.971. Equipaba dos
motores JT8D – 11 Turbofan de la casa Pratt & Whitney. El avión,
certificado en 1.974 contaba con grandes innovaciones como por ejemplo el HUD
(Head-Up Display), usado en cazas, pero hasta entonces no en la aviación civil.
Contaba con una superficie alar y un perfil muy fino que permitía volar a
velocidades mayores que las habituales. Decidieron dar mayor capacidad de carga
para dar cabida a los 140 pasajeros y redujeron la capacidad de combustible a
su vez, lo que reducía su alcance a tan solo 1.700 km.
En aquella época, el DC-9 y el nuevo modelo Boeing 737 eran
los competidores en el segmento del Mecure. Cuando apareció el Mercure 100,
pareció no tener cabida. El DC-9 y el 737 eran modelos mucho más eficientes y
de mayor alcance (superior 2.400 km), lo que limitaba el mercado del Mercure al
regional o doméstico europeo. Tan sólo la francesa Air Inter se interesó y
compró 10 modelos del aparato para sus rutas domésticas. Algunos directores de
aerolíneas norteamericanos se permitían criticar el avión, y decían del Mercure
que era el puro ejemplo del “chovinismo
francés”, y que “habían creado un
avión que no podía salir de Francia”. Haciendo alusión a su limitado
alcance.
El Mercure 100 no tuvo éxito alguno fuera de las fronteras
francesas. Tanto es así, que Dassault intentó entrar en el mercado
norteamericano mediante acuerdos con McDonnell Douglas o el fabricante de
motores General Electric sin resultado. El mercado norteamericano, como hemos
visto anteriormente nunca puso fácil a los fabricantes de aeronaves extranjeros
entrar en su mercado.
Un futuro desarrollo del Mercure, la serie 200, se quedó en
nada debido a la falta de confianza del gobierno francés y, por lo tanto, el
proyecto no tuvo el apoyo financiero necesario.
Air France, que había mostrado interés y colaborado en su desarrollo se
quedó también sin avión.
El Mercure, como el Concorde fueron diseñados en un contexto
económico diferente al de su construcción. Hay que tener en cuenta, que estos
diseños fueron elaborados a mediados de la década de los 60, y su construcción,
venta y desarrollos posteriores, entraban en la década de los años 70, donde la
crisis del petróleo, excesos de capacidad en ciertos mercados, proteccionismos
gubernamentales, entre otros factores, llevaron a los fabricantes al borde de
la quiebra, perdiendo miles de millones de dólares.
El Mecure nació con un alcance demasiado limitado. El
consumo de combustible del JT8D era demasiado alto para la época en que tuvo
que desenvolverse y pronto tuvieron que buscar un motor alternativo, el SNECMA.
Pero llegó tarde.
Además, en aquella época, los costes variables de las
aeronaves eran relativamente bajos, lo que les permitía volar más rápido entre
sus destinos. Existía una competición entre Air France y Air Inter por ver
quien volaba en menor tiempo, reduciendo los tiempos en tierra y maximizando el
número de sectores. El consumo de
combustible era exorbitado y ante la crisis del petróleo supuso un nuevo revés
al Mercure.
A pesar de las novedades tecnológicas aplicadas en el avión,
tan sólo se construyeron 12 unidades y el proyecto se canceló en 1.975, cuatro
años después de su inicio. El último vuelo comercial tuvo lugar en 1.995 con
360.000 horas de vuelo acumuladas y una fiabilidad del 98%.
Límite de mercado
para el Tristar.
En los años 60, American Airlines necesitaba un modelo de
avión más pequeño que el B747 para sus rutas entre la costa este norteamericana
y Londres, y vuelos desde su hub de Dallas a Sudamérica y el resto del país.
Para ello contactó con McDonnell y con Lockheed.
Por aquella época, Lockheed no fabricaba aviones civiles
desde 1.957, con excepción del Electra L-188, un turbohélice cuatrimotor que
luego derivaría en el avión militar P3 Orion. Sin embargo, Lockheed sí que
había obtenido varios éxitos en aviones militares como el C-5 Galaxy y el C-130
Hercules. Un éxito que le animó a aceptar el reto de construir un avión civil.
El proyecto inicialmente era un diseño bimotor. Por aquel
entonces, para poder volar lejos de la costa más allá de 30 minutos el avión no
podía ser un bimotor. Ley que se mantendría hasta los años 80 con la aparición
del B767. Por ello, McDonnel y Lockheed diseñaron finalmente un trimotor.
Durante la fase de construcción del Lockheed L-1011 “Tristar”, sufrieron serios retrasos
debido al nuevo motor de Rolls – Royce RB211. Problemas en la fábrica y en el
diseño del nuevo motor supusieron un duro revés para Lockheed. El nuevo motor
se convirtió en un éxito tecnológico de muy alta fiabilidad y silencioso.
Rolls Royce RB211 en el Technik Museum Speyer.
El Tristar, fue un avión en el que se aplicaron nuevas tecnologías. Entre ellas, el diseño de la localización del motor central que estaba diseñado para el RB211, más pequeño que otros del mercado. De esta manera, y como en el 727, contaba con un difusor de entrada en forma de “S” para reducir la resistencia aerodinámica y facilitar el mantenimiento. Al contrario de cómo ocurría con su competidor el DC-10.
A pesar de que el L-1011 era más ligero que su competidor,
resultó más pesado de lo planificado para ese motor, y tuvo que desarrollar una
nueva versión de motor para sus versiones posteriores. Además, McDonnell
utilizó un motor mucho más eficiente, con más potencia y más fácil y rápido de
fabricar, lo que, a pesar del mayor peso del DC-10, lo que suponía reducir los
tiempos de fabricación.
Entre otras cosas, Lockheed tuvo que diseñar tecnología
nueva para su nuevo avión, de gran fiabilidad, lo que, unido a los retrasos con
el motor, le supuso una carga financiera elevada. Su competidor directo,
McDonnell utilizó la tecnología ya presente en el DC-8 y se ciñó a su
presupuesto de fabricación con mayor rectitud.
En 1.984, tras los malos resultados económicos conseguidos,
Lockheed entregó su L-1011 número 250, convirtiéndose en el último avión civil
fabricado por Lockheed.
DC-10 (izquierda) y L-1011 «Tristar» (derecha). Obsérvese la estructura del motor central.
Hay que decir, que tanto McDonnell y Lockheed sufrieron
financieramente compitiendo en un mercado muy limitado en número de clientes
potenciales y en tiempo. ¿En tiempo? A finales de los años 70, Boeing ya había
comenzado a diseñar el Boeing 767, un ¡bimotor! Que entraba en competencia
directa con el DC-10 y el L-1011. Sólo tenían 10 años antes de que el 767 se
convirtiera en la sentencia para ambos modelos.
La lucha
contracorriente. Sukhoi SSJ 100.
La aviación rusa siempre ha sido muy endogámica. A penas
hemos visto aviones rusos volando en compañías occidentales o asiáticas, y tras
la caída del régimen soviético, una profunda crisis en el sector de la
construcción aeronáutica impidió que pudieran mantenerse en el diseño puntero
hasta principios del siglo XXI.
En 2.005 se llevó a cabo una consolidación de constructores
rusos llamado UAC (United Aircraft Corporation). Con la creación de este grupo,
entre los que podemos encontrar las más conocidas Ilyushin, Beriev, Sukhoi,
Mikoyan, Tupolev y Yakovlev, y otras más pequeñas, Rusia pensaba crear
programas de aviones civiles que pudieran competir en el mercado con los
aviones norteamericanos y europeos, además de introducirse en el mercado chino
y conseguir sustituir sus viejos Tupolev aún en servicio.
Entre los proyectos más novedosos son el Irkut MC21, aún en
desarrollo y del que se espera su primer vuelo comercial en 2.021; y el Sukhoi
SSJ 100.
El Sukhoi SSJ 100, es un avión regional para 100 pasajeros.
Actualmente se ha superado la cifra del centenar de aeronaves. Sin embargo,
existen diversos problemas institucionales y técnicos por resolver que ha
provocado que varios operadores hayan tenido que parar su flota, Interjet y
Cityjet entre ellas.
Cuando el SSJ 100 apareció en el mercado provocó tanto en
occidente como en Asia una aceptación relativamente buena y originó el interés
de varios operadores regionales. Un avión regional con una tecnología moderna,
unos costes de fabricación y operativos bajos lo hacían económicamente
interesante.
Sin embargo, durante 2.016 la Agencia Federal de Transporte
Aéreo dejó en tierra 6 unidades debido a problemas de fatiga en los metales.
Durante 2.017 se consiguió mejorar su fiabilidad hasta alcanzar el 97% tras sufrir
varios problemas con los sistemas del avión. Además, Yakutia Airlines tuvo
problemas con los motores, teniendo que realizar inspecciones entre las 1.500 y
3000 horas de vuelo, en contra de sus especificaciones de 7.000 horas como
decía el fabricante.
Este pasado año, Brussels había alquilado a Cityjet varias
unidades de SSJ100, sin embargo, varios problemas en el despacho de las
aeronaves provocaron que su disponibilidad quedase por debajo del mínimo
aceptable por Brussels, y Cityjet tuvo que parar la flota.
Por otra parte, tras las tensiones sufridas en el ámbito de
la política internacional, las sanciones de Estados Unidos hacia Rusia. Por
ello, los equipos tecnológicos han de reducirse con el tiempo si quieren
exportar su aeronave hacia otros países. Entre ellos Irán. Por el momento, el
SSJ utiliza alrededor de un 50% de partes occidentales, y se espera poder
sustituir parte de ellas antes de 2.021. El APU, el sistema de navegación
inercial y el tren de aterrizaje, entre ellas son de fabricantes norteamericanos
o europeos.
SSJ100. (Foto: Sukhoi)
Con todo y con ello, el avión puede quedar relegado a un
fracaso si no se solucionan todos estos problemas. Los técnicos, que afectan a
fiabilidad del avión, afectan directamente a la viabilidad de las compañías
aéreas. Ante un negocio muy volátil, puede suponer un duro revés para las
expectativas del SSJ 100, que tiene como objetivo vender mas de 350 unidades en
los próximos 10 años.
Conclusión.
Cómo cualquier otra empresa que decide lanzar un producto al
mercado, se han de tener en cuenta muchas variables. Sin embargo, incluso
cuando el producto no es necesariamente malo, la competencia puede ser voraz.
Por otra parte, existen multitud factores exógenos y no
controlables como la subida del petróleo que hagan diferir al cliente de la
filosofía del producto. Las inversiones en nueva tecnología que se quiere
aplicar antes que la competencia y de la que no se ha tenido demasiado tiempo
para probar; o bien, una larga cadena de proveedores con tiempos de producción
muy ajustados en los que cualquier retraso puede provocar retrasos y desajustes
del programa completo y con penalizaciones económicas por parte del cliente.
Tanque de agua para simular la presurización. Introdujeron el Comet 1 para comprobar la fatiga después de simular varios vuelos. (Foto: De Havilland archive)
Uno de los casos más dramáticos, no comentado por su fama, fue el del De Havilland Comet. El primer reactor comercial. Ser los primeros significaba la implementación de tecnología en la manera comentada en el párrafo anterior. La fatiga del material al presurizar el avión provocó varios accidentes en corto espacio de tiempo, dejando al modelo en tierra hasta conseguir la solución. Esto hizo que, cuando llegase el Comet IV con los problemas solventados, el proyecto Comet fuera insostenible económicamente, y dio tiempo a la competencia a entrar en el mercado con los existosos modelos B707 y DC-8.
En otro ámbito de factores, la situación política afecta
sensiblemente al número de pedidos de los aviones. El caso de Irán, o el
bloqueo de Rusia es un ejemplo. Sin olvidar el caso del Concorde.
El último factor digno de tener en cuenta tiene que ver con los
tiempos de diseño, obtención de financiación para un proyecto y la capacidad de
producción. Todo este proceso es lento, lleva varios años y, una vez arrancado,
alcanza una inercia tan alta que cualquier modificación genera un efecto dominó
que se prolonga bastante en el tiempo. Esto supone que el tiempo desde la toma
de una decisión hasta comprobar si su resultado es el esperado o no, es largo y
caro, muy caro.
El 14 de enero un B707 carguero de la fuerza aérea iraní aterrizaba en el
aeropuerto equivocado con una pista sensiblemente más corta. Como resultado, el
avión se salió de pista y chocó contra unas viviendas, teniendo que lamentar 15
víctimas mortales y un herido grave, el mecánico de vuelo. Parece un hecho aislado,
sin embargo, es un suceso mas habitual de lo que debiera y con consecuencias
variadas. Pero ¿cómo puede una tripulación equivocarse de aeropuerto?
Si bien en algunas ocasiones confundir el aeropuerto tiene
consecuencias desastrosas, sólo las desastrosas tienen eco en mediático y por
lo tanto se hacen conocidas. El 16 de noviembre del año pasado, un MD88 realizó
la maniobra de motor al aire cuando confundió el mismo aeropuerto. Sobrevoló el
aeropuerto equivocado (Aeropuerto de Fath) y continuó a baja altura hasta
llegar al correcto, 10 km más adelante aterrizando en el aeropuerto de Karj con
seguridad.
Mapa de la zona con los dos aeropuertos en cuestión.
Cuando era aún un alumno piloto los instructores, previo a
nuestros primeros vuelos solos, nos advertían que tuviéramos cuidado en no
confundir el aeropuerto de Cuatro Vientos, donde teníamos nuestra base con la cercana
base aérea de Getafe donde, un alumno novel aterrizó por error tiempo atrás. No
entendíamos como era posible aterrizar en un aeródromo diferente en muchos
aspectos… Pero pasó. ¿Cómo es posible que esto ocurra en otras partes del mundo?
Falsas apariencias.
En la historia moderna de la aviación, existen numerosos
casos similares y con consecuencias dispares. Algunos muy conocidos sin que provocasen
más daños que un sonrojo de los tripulantes afectados. Entre ellos el Boeing
Dreamlifter que aterrizó en la pista 18 del aeropuerto de Jabara, 8 NM más al
norte de la pista 19 del destino original, McConnell Airbase en Wichita.
Torre de control: “Giant 4241 Heavy, do you know which airport you’re at?”
Piloto del Dreamlifter: “Well we think we have a pretty good pulse. Let me ask you this,… how many airports do, directly to the south of 1-9,… your 1-9 are there?”
Hace relativamente pocos años, un estudio realizado por la
Universidad de Purdue, en Indiana, mostró datos sobre este tipo de
equivocaciones. Si bien analiza los casos entre 1.992 y 2.012 da una idea
general de ciertos comportamientos sobre este tipo de sucesos en Estados
Unidos.
En el momento del diseño y construcción de una pista, entre los
parámetros a tener en cuenta, la dirección predominante del viento es el más
elemental. Por lo tanto, no resulta extraño encontrar pistas con la misma orientación
o similar, si se construyen en la misma zona bajo la misma influencia del
viento. En los dos casos planteados sobre el Dreamlifter y el 707 accidentado
se da el caso.
Boeing 747 Dreamlifter diseñado para el transporte de piezas para la fabricación del B787. Operado por Atlas Air. (Foto: Scott Wright).
Según el estudio de la Universidad de Pursue, la diferencia
en grados entre la pista correcta y la incorrecta es de 10º. Hecho que se dio
en el 72% de los casos.
Ya sé lo que están pensando. Si observan la foto de satélite
las diferencias entre los dos aeropuertos parecen obvios. Las terminales y las
plataformas son diferentes y se encuentran en diferente disposición. En ambos
casos, y en la vasta mayoría (casi un 90% en el caso del estudio de Pursue) a
los que hemos podido tener acceso, la visibilidad era muy buena, con algunas
nubes dispersas o pocas en varios casos, lo que a priori favorece la identificación
correcta del aeropuerto.
Imagen de «Flight Instructor Guide».
Sin embargo, estudios referentes a la fatiga y cansancio de
las tripulaciones, sobre todo en los últimos sectores volados del día, inducen
al piloto a discriminar señales, que en el caso de ir descansado serían tenidas
en cuenta. El cerebro humano busca en el exterior señales que le ayuden a
identificar lo que el quiere identificar.
Además, tras estudios varios, en la mayoría de los casos
existe una diferencia en el tamaño de las pistas. Tanto de largo como de ancho,
y en un porcentaje altísimo se aterriza en la más corta. El piloto tiende a
malinterpretar las señales visuales con la distancia a la que se encuentra la
pista correcta que está viendo. Es decir, si la pista correcta debiera estar a 8
NM y la pista que ve la ve estrecha y más corta, visualmente se engaña a sí
mismo pensando que se encuentra a esa distancia. En ese momento, el cerebro comienza
a comparar cómo se vería una pista que se encuentra a 8 NM en su experiencia
previa almacenada y se “desconecta” de la distancia que le indican los
instrumentos.
Existen aeropuertos que, dados varios casos de confusión previos,
incluyen las fichas de aproximación una nota de aviso para no confundirlo y
permitir identificarlo correctamente. Algo, que por ejemplo no tenían en el
accidente del 707 de Irán, además de una información incorrecta en la ficha de
aproximación al aeropuerto.
Trust your Instruments…
Durante el estudio realizado por la mencionada universidad,
demuestra como dato positivo, que la mejora en la instrumentación de las
aeronaves ha hecho descender los casos. Entre los años 90 y los primeros años
del siglo XXI. En la aviación general, que mayoritariamente vuela VFR, el
disponer de instrumentos con pantallas de cristal que muestra al piloto su
posición en un mapa ha supuesto un avance significativo al respecto.
Diferencias en la representación de intrumentos clásicos y modernos. Boeing 737 cálsico y Boeing 737 MAX 9. (Foto: Boeing).
En los casos de realizar una aproximación a un aeropuerto, el
tipo de aproximación instrumental influye significativamente. En los casos
estudiados, en el 90% de los casos se realizaban aproximaciones visuales o
aproximaciones instrumentales de no precisión tales como aproximaciones VOR o
GPS. En algunos casos, la aproximación esperada es un ILS, que de una manera u
otra no se acaba realizando.
Ejemplo de aproximación de no precisión VOR DME. (Skybrary).
Las aproximaciones de no precisión conllevan a que el último
tramo de final se suele volar estabilizado varias millas a fin de identificar visualmente
la pista. Es natural en este tramo, pensar que se encuentra alto con respecto a
una senda de descenso teórica. Si como comentábamos mas arriba, el piloto cree
ver la pista antes de tiempo, y se encuentra alineada, tiende a eliminar de su
ecuación la lectura de las millas que le quedan para la pista correcta. Si a la
ecuación le añadimos que el piloto pueda pensar que el perfil publicado en la
ficha de aproximación le deje alto, la solución es aterrizar donde no querías
ir…
Esto último le pasó al B747 Dreamlifter. Según la NTSB (National
Transport Safety Board), el piloto tenía la experiencia previa de que al realizar
la aproximación GPS a la pista 19 de McConnel, el perfil le dejaba un poco
alto. Esto más un avistamiento de la pista durante la aproximación, sucedió
exactamente como comentamos en el párrafo anterior.
Cuatro ojos ven más
que dos.
Durante los últimos 30 años de la aviación, el CRM (Crew Resource
Management) ha sido una herramienta clave en el análisis del comportamiento
humano a la hora de corregir errores y mejorar la comunicación entre los
miembros de una tripulación.
A pesar de que el error no está exento del ser humano, hemos
de servirnos de nuestro conocimiento para distribuir tareas entre los miembros
de la tripulación para reconocerlos y enmendarlos antes de cometerlos, o evitar
que nos lleven a cometer otros más graves. Así, en aviones multitripulados, las
tareas se determinan para que el piloto vuela (Pilot flying) pueda disponer de
la ayuda del otro tripulante (Pilot Monitoring) y éste a su vez sea lo suficientemente
asertivo como para indicar al otro que algo no va bien.
En los casos más sonrojantes sobre estos sucesos, eran
aviones multitripulados, lo que nos lleva a preguntarnos lo siguiente: ¿Verían
todos lo mismo y estaban convencidos de que era la pista correcta? ¿Vería algo
diferente y no se lo comunicó al PF?
En los casos estudiados en Estados Unidos, el 75% de los
pilotos eran inexpertos (menores de 3200 horas de vuelo). Sin embargo, en tanto
la experiencia aumentaba hasta las 5000 horas los casos disminuían. Por tanto,
no existe correlación con los últimos sucesos al respecto: Southwest B737,
Delta, B747 Dreamlift o el B707 accidentado.
Sí se ha podido constatar, según los informes de la NTSB,
que en el momento que el PF decidía realizar la aproximación de manera visual,
ambos pilotos pasaban a mirar fuera y se desprendían de la información o que
los instrumentos les iban presentando. La NTSB ha recomendado que el PM ejerza
una vigilancia de los instrumentos de navegación durante la aproximación y
enfatice su función en esta fase.
Por otra parte, los controladores, aunque no siempre,
disponen de información radar que en momentos cuando no existe demasiada carga
de trabajo, pueden y deben, fijarse en las aeronaves a las que dan servicio.
Tengo en mi experiencia aeronáutica previa varios casos de diversa consideración
en la que su ayuda hubiera sido o fue elemental. Aunque sus ojos no estén en el
cockpit, tenemos su voz.
¿Pista o rodadura?
Existen numerosos casos, algunos muy conocidos por los pilotos
en los que, si bien es el aeropuerto correcto, lleva a una situación tan grotesca
como aterrizar en la rodadura paralela a la pista. Me vienen a la mente dos
concretamente: El aeropuerto del el Prat en Barcelona y el de San Francisco.
En Barcelona se hizo famoso un Tupolev 154 que, tras un
intento, aterrizó sin consecuencias en la rodadura paralela a la pista 25R en
marzo de 2.005. Aquel día, la pista 25R no disponía de ILS y el PAPI (Indicación
visual de senda) estaba también fuera de servicio. Por otra parte, las luces de
aproximación se encontraban encendidas correctamente. Además, el tipo de aproximación
era una de no precisión basada en el VOR del aeropuerto, que volada con un
Tupolev de instrumentación clásica complicaba su precisión. En cuanto a las
actuaciones de la tripulación, no se desenvolvían en el ámbito de PF y PM por
lo que se alejaban de lo expuesto anteriormente del modelo CRM de aquel momento.
Secuencia de aterrizaje sobre la rodadura T del Tu-154 de Aeroflot en el aeropuerto de Barcelona. (Fotos: CIAIAC)
El piloto confundió la rodadura con la pista y convencido de
ello, aterrizó. Es curioso como factores expuestos anteriormente se alinean y
dan lugar a situaciones parecidas.
Otro caso similar es el de San Francisco que, debido a su disposición
de pistas, llevó a un avión de Air Canada a iniciar un motor y al aire sobre la
rodadura paralela a la pista de aterrizaje. En este caso recientemente, de
noche y con un Airbus de nueva generación.
Conclusión.
En este artículo se ha intentado explicar las posibles
causas que pueden llevar a una tripulación a cometer el error de aterrizar en
el aeropuerto equivocado.
Cómo suceden en la inmensa mayoría de los incidentes y
accidentes de la aviación civil, es un conjunto de causas o eventos y no una sola
que de manera aislada la que los provoca.
Evitar aterrizar en un aeropuerto equivocado nos lleva a enfatizar
el uso de nuestros instrumentos de navegación, incluso cuando nos pueda parecer
evidente que la pista que está delante es la correcta.
El uso de todas las herramientas necesarias, como una buena
función del piloto que no vuela, especialmente en días en lo que el cansancio
es más notorio, es vital a la hora de interpretar bien lo que vemos y no
centrarnos sólo en lo que queremos ver.
La importancia de un buen briefing de aproximación e Interpretar
bien las cartas de navegación son de gran ayuda. En algunas compañías, no se
realizan aproximaciones visuales si no se han comentado antes en el briefing.
No obstante, ante la duda, un motor y al aire a tiempo siempre
es la mejor solución.
Después de la Gran Guerra, a primeros del siglo XX., en
Estados Unidos la aviación estaba considerada como un deporte de gente rica y
un peligroso entretenimiento (Barnstorming o flying circus) realizado por
veteranos pilotos de guerra que volvían a casa y querían seguir haciendo de la
aviación su modo de vida. Sin embargo, la guerra trajo consigo mejoras en los
aviones y le fue encomendada una tarea que marcó un hito en el transporte aéreo
y que ya antes de la guerra había logrado dar sus primeros pasos: El transporte
de correo por vía aérea.
El transporte de
correo en la preguerra y la postguerra.
Desde el momento mismo en que las máquinas voladoras hicieron
su aparición, las hazañas consistían en hacerlas volar, desde unos pocos
kilómetros hasta cientos de ellos; Hacer funcionar sus motores sin que fallaran
al mantenerlos constantemente funcionando no era aún fácil. Además, el medio en
que se desarrollaba, el aire, era algo bastante desconocido.
Cuando mantenerse en el aire pudo desarrollarse un poco más,
comenzaron las ideas de cómo utilizar las aeronaves: La guerra y el comercio.
El transporte de correo se adelantó a la Gran Guerra que estallaría en 1.914.
Sin embargo, debido al aún bajo desarrollo tecnológico y el desconocimiento
seguía generando reticencias. No hay que olvidar que ambos propósitos
necesitaban de la fiabilidad necesaria y aún estaba por demostrar.
Durante la preguerra, existían numerosos intentos de crear rutas aéreas de correo. En Inglaterra, en 1.910, Claude Graham – White, hizo uno de los primeros vuelos. En Estados Unidos ya se habían realizado intentos en febrero de 1.911 con resultados dispares. También en septiembre de 1.911, Francia utilizó un Breguet biplano para llevar correo entre sus colonias Casablanca y Fez. También en septiembre de ese mismo año, en Italia, el piloto Achille Dal Mistro realizó el intento de llevar correo entre Bolonia y Venecia con un monoplano Deperdussin. Se estrelló en la playa de Lido. Afortunadamente salió ileso. Posteriormente en Alemania, en 1.912 se completó el vuelo entre Darmstad a Munich.
Achille Dal Mistro.
En España hasta 1.920 no aparece el primer “correo
aéreo”. Y en Sudamérica, la aviación
como transporte de correo no aparece hasta finales de los años 20. Aeroposta
Argentina en septiembre de 1.927 es un buen ejemplo de ello, fruto también de Pierre-Georges
Latécoère.
Desde los primeros vuelos realizados por los hermanos
Wright, Santos Dumont y otros, llamémosles ingenieros, hasta la terminación de
la Primera Guerra Mundial, la aviación había sufrido una mejora tecnológica en
los aviones, motores y técnicas de vuelo. Curiosamente, los avances
tecnológicos en aviación provenían de Europa.
Durante la postguerra, el desarrollo del transporte aéreo,
los servicios postales dieron cuenta de esas mejoras tecnológicas y realizaron
inversiones en ampliar y mejorar sus servicios postales. En Estados Unidos, el
Congreso aprobó $100.000 para el desarrollo de esta red de la denominada U.S.
Air Mail Service. El objetivo era transportar correo de costa a costa batiendo
al ferrocarril. Sin embargo, llegar hasta ahí no fue fácil. Inicialmente no
tenían ni respaldo político ni económico.
Ruta transcontinental de correo aéreo U.S. Postal Air Service (1.924).
Hay que tener en cuenta que, en esos tiempos, el tren
tardaba cerca de 90 horas en recorrer el país. Gracias al servicio aéreo de
transporte el tiempo se redujo a 30 horas.
En Europa, el transporte de correo se desarrolla de manera
diferente que en Estados Unidos. Europa, a primeros del Siglo XX. tiene una
situación geopolítica en la que sus países tienen colonias a grandes
distancias. Estados Unidos, por el contrario, no. Aunque es un país muy
extenso, es homogéneo políticamente y volcó su esfuerzo en desarrollar tecnológica
y estructuralmente para lograr una eficiencia en sus rutas de correo aéreo
mucho mayor que el europeo.
Europa tiene gran éxito en el desarrollo de sus líneas ya
que durante la guerra habían quedado destruidas numerosas vías de ferrocarril y
carreteras que tardarían en reconstruirse, facilitando al aéreo como método de
transporte. De hecho, como dato curioso, mientras que en Estados Unidos se
habían creado dos aerolíneas con hidroaviones (Saint Petersbourg – Tampa Airline en 1.913; Chalk´s Ocean Airlines en 1.917), para la misma época en Europa ya
había mas de una decena de ellas con aviones terrestres. Algunas de las cuales
siguen operando hoy en día.
Los aviones.
Cuando comenzaron a construirse las primeras aeronaves, carecían
de instrumentación necesaria para navegar. Apenas algún instrumento de motor y
una brújula en el mejor de los casos. De hecho, Lindberg cuando se dispuso a cruzar
el Atlántico en su vuelo en solitario introdujo como novedad instrumentación
para poder volar de noche: Los giróscopos.
Los aviones utilizados en el periodo de preguerra eran aviones
muy endebles, bajas características de vuelo y motores de poca potencia. Los
intentos de llevar correo se limitaban a una saca con un número de cartas muy
limitado. Era más un acto simbólico que un verdadero servicio de transporte. Los
aviones tenían además grandes limitaciones de peso y espacio en las que apenas
cabía el piloto con su traje de vuelo y una pequeña bolsa.
Fue durante la guerra cuando los fabricantes comenzaron a
desarrollar nuevos y mejores aparatos. De hecho, ya finalizando la IGM, para la
creación del correo en Estados Unidos convirtieron aviones Curtiss JN-4H, más
conocidos como “Jenny”, en aviones de transporte de correo. Los “Jenny” se
hicieron muy populares en la época al participar en los circos volantes,
entrenadores del ejército y posteriormente en los primeros aviones de correo. La
primera ruta elegida fue la que unía Washington y Nueva York.
DH4 en la versión de correo aéreo.
Durante este tiempo, surgió la idea de promover los vuelos
transcontinentales. Sin embargo, había que disponer de un avión que reuniese
mejor los requisitos para realizar este tipo de vuelos. El ejército probó
varios modelos en sus líneas de correo. Necesitaban que fueran capaces de
vencer el terreno que separaba la costa este de la costa oeste, tener la
capacidad de carga suficiente para las sacas de correo y tener una fiabilidad
mayor para volar varias horas seguidas. El modelo elegido fue el DH4, avión del
fabricante inglés De Havilland especialmente diseñado para tal propósito.
El DH4 se convirtió en los años 20 como el caballo de
batalla de las líneas de correo demostrando su valía cruzando las montañas
rocosas lo que posibilitó los vuelos transcontinentales en Estados Unidos. De
esta manera, y dada la oposición del Congreso de los Estados Unidos a la
utilización del avión como medio de transporte, demostró que podía hacerlo con unos
niveles de seguridad aceptables para la época de la que se trata.
En Europa, para esos años, ya se habían establecido líneas aéreas en las que se combinaban el transporte de correo y pasajeros. Especial mención cabe mencionar a Líneas aéreas Latécoère, fundada por Pierre-Georges Latécoère. Pierre era un constructor de aeronaves que decidió unir Francia, a través de la costa levantina española, con sus colonias en el norte de África, y de allí a Sudamérica.
Los aviones más destacados utilizados por Latécoère eran los modelos Latécoère 26 y 28 principalmente. El modelo 26 se construyó como modelo de avión de correo. Y en cuanto al modelo 28, supuso un avance sensiblemente mayor. Aunque el primer modelo iba equipado con motor Renault, todas las demás versiones iban equipadas con los fiables motores Hispano-Suiza. El avión tenía una capacidad de llevar 928 kg o hasta 8 pasajeros, comparado con la versión 26 que tan solo llevaban dos pilotos en tándem y un pequeño compartimento para carga.
Hasta ese momento, los estudios de fatiga eran casi
inexistentes y el mantenimiento era aún muy básico. Hasta tal punto este hecho
tuvo tal importancia, que debido a problemas técnicos en sus aviones, tras largas
horas de vuelo hacia Sudamérica, Pierre-Georges se vio obligado a vender casi
la totalidad de su empresa. Con el tiempo, acabaría convirtiéndose en Air France.
Los pilotos.
Varios pilotos se convierten en esta época, en personajes de
sobra conocidos más allá de la aviación: Charles Lindberg y St. Exupery son los
más famosos. El público todavía ve a la aviación como una aventura desconocida.
La publicidad ante un medio puesto en cuestión es vital en los primeros años.
Los primeros pilotos, tanto en Estados Unidos como en Europa
aprendían a volar en los mismos sitios. En los primeros años de la aviación,
los fabricantes de aeronaves eran los primeros interesados en que la aviación
se desarrollase. Los propios fabricantes eran al mismo tiempo fabricantes,
escuelas de vuelo y cuando aparecieron las primeras compañías de aviación, los
dueños de éstas. Además de los aeródromos como se menciona más adelante.
Con el tiempo, ya en la postguerra, algunos pilotos que
participaban en circos aéreos, donde ofrecían vuelos de bautismo a los
interesados, y ellos mismos se convertían en instructores. Las hazañas de
algunos pilotos daban la publicidad suficiente para que la gente de a pie
pudiese conocer y, ya de paso, ¿por qué no convertirse en piloto?
«Suicide Club» de pilotos veternaos de la WWI.
La otra rama de formación era el ejército. Entonces todavía perteneciente
a la rama del ejército de tierra, formaba sus pilotos. Los primeros vuelos de
correo en Estados Unidos con los “Jenny” permitió que fueran volados por
pilotos noveles para adquirir experiencia de vuelo antes de ir a la guerra. Los
vuelos de la USPOD (US Postal Department) fueron desarrollados exclusivamente
por pilotos militares hasta agosto de 1.918, fecha en la que los primeros
pilotos civiles fueron contratados.
Las infraestructuras:
Los aeródromos.
A parte de los aviones, otro de los elementos básicos y
necesarios para poder volar, son los aeródromos. Cuando a primeros de siglo
aparecieron las primeras aeronaves los aeródromos no existían. De hecho, el
primer aeródromo data de 1.909 en College Park, Maryland, en Estados Unidos. Antes
incluso que los primeros vuelos comerciales pudieran tener lugar.
Durante la segunda década del siglo XX. se produjo un crecimiento
en el número de aeródromos. Sin embargo, al contrario que hoy, los aeródromos no
los construían las autoridades, las ciudades o los estados. Durante los
primeros vuelos comerciales, los visionarios se dieron cuenta que para poder
abrir sus rutas de correo o pasaje debían establecer aeródromos adecuados donde
no sólo utilizar un terreno para aterrizar y despegar, sino construir un hangar,
disponer de combustible y otras instalaciones necesarias como torres de señales
y oficina de ventas. Eran las empresas las que compraban los terrenos y los
explotaban para sí mismos. Véase Pan American.
Aeródromo de la Volatería. Futuro aeropuerto de el Prat, Barcelona, España. Anteriormente, los vuelos se desarrollaban en el hipódromo de Can Tui hasta 1.916. Con la llegada de Latécoère se desarrolló el aeródromo que hasta encontes contaba con una escela de vuelo y algún taller y hangar para dirigibles.
En otro caso muy significativo eran las líneas del correo en
Estados Unidos. Al establecer las rutas de correo entre la costa este y la
costa oeste, se tuvieron que edificar aeródromos. Algunos de ellos de
emergencia o alternativos si se encontraban con meteorología adversa o
problemas mecánicos. Estos contaban con médico, avituallamiento, mecánico y
combustible entre otras cosas en horario de 24/7. Además, los techos de los
edificios de los aeródromos tenían un número que era bien visible desde el
cielo para indicar al piloto en qué aeródromo de la ruta se encontraba. Dichos
números indicaban a su vez en que punto en millas de la ruta se encontraban.
Inicialmente, los aeródromos no eran superficies rectangulares
alargadas. Y mucho menos asfaltadas. Eran tan solo superficies en las que
podían despegar y aterrizar en cualquier dirección sin importar el viento que hubiera.
Con el tiempo, pero ya en los años veinte, comenzaron a aparecer las primeras
superficies rectangulares. Esto se debió principalmente a que requerían menor espacio
de terreno que uno circular.
La navegación.
En los primeros años de operación comercial, las aeronaves carecían
de la instrumentación necesaria para la navegación. De hecho, antes incluso de
poner en marcha iniciativas comerciales, los aviones se trasladaban por tierra
a los aeródromos y volaban por la zona. Estaba considerado un reto cuando
comenzaron a realizar rutas a otros destinos. La fragilidad de los aparatos y
la falta de conocimientos de navegación llevaba consigo riesgos muy altos de
accidente debido a desorientaciones y problemas técnicos que hacía a los
aviones estrellarse, con resultados fatales en muchos casos.
Cuando comenzaron las primeras rutas de correo en los
Estados Unidos, los pilotos utilizaban la brújula más grande que había en aquel
momento: Seguir las vías del ferrocarril. Con el tiempo se desarrollaron nuevos
métodos de navegación que les permitiría realizar vuelos a distancia. Como
curiosidad, todavía en Estados Unidos existen restos de unas flechas de hormigón
de gran tamaño que indicaban la dirección del siguiente punto de la ruta.
Flecha de hormigón de las muchas que aún quedan.
Principios del vuelo nocturno.
A primeros del año 1.921, el Congreso de los Estados Unidos
amenazaba con retirar los fondos al proyecto del correo aéreo defendiendo al
tren como mucho más eficiente que el avión. Así, para poder ser aún más
rentables, se decidió intentar realizar vuelos nocturnos.
En una heroica acción, dos pilotos se atrevieron a realizar un vuelo nocturno, Frank Yeager fue el primer candidato , y Jack “Skinny” Knight el siguiente. No obstante, para solucionar el problema de la oscuridad, se solicitó a los granjeros y otras personas que vivían en las inmediaciones de la ruta que utilizasen las luces de sus vehículos para poder guiar a los pilotos. Estos, enfocaban con sus luces en la dirección del siguiente punto de la ruta. Este primer vuelo fue un éxito.
Jack «Skinny» Knight en 1.921 tras el vuelo nocturno en su llegada a Chicago.
Poco tiempo después, viendo el riesgo que suponía y el número
de accidentes se decidió suspender los vuelos nocturnos. Esto sucedió así hasta
1.923, año en que miembros del U.S. Air Mail Service se pusieron en contacto
con tres empresas: Sperry, Westinghouse y American Gas Accumulator. En conjunto
habían diseñado un faro que situarían en una torre de señales cada punto de la
ruta. Aproximadamente cada 40 NM, lo que permitiría el guiado nocturno de los
aviones. Así, la ruta entre Cheyenne y Chicago se convirtió en la primera ruta
iluminada de la historia.
Estructura de aeródromo de emergencia de las rutas transcontinentales del US Postal Air Mail Service con el faro en su torre. Obsérverse el número sobre el tejado y las letras con el nombre del lugar geográfico.
Ya a finales de los años 20, se comenzaron a instalar los
primeros radiofaros. Mediante un instrumento a bordo del avión, era capaz de
recibir la señal de un radio faro situado en tierra y que emitía mediante ondas
de radio. El instrumento tenía una rosa de rumbos que le indicaba la
procedencia de la señal. De este modo eran capaces de navegar sin referencia visual
con el terreno. Había nacido el vuelo por instrumentos.
A finales de los años veinte, el transporte aéreo dio un
vuelco y comenzaron a extenderse las compañías de aviación privadas. La
tecnología había permitido el diseño de aviones terrestres e hidroaviones de
mayor tamaño y comenzaban a expandir sus servicios de transporte aéreo conjunto
de pasajeros y correo como ya ocurría en Europa.
Dada la expansión del transporte aéreo, nacerían las
primeras administraciones de aviación civil, comenzarían a trazar rutas aéreas,
normas de seguridad, y con el tiempo, Convenios Internacionales, como el de
Varsovia en el año 1.929, verían nacer, ya en 1.944, el Convenio de Chicago y
que daría lugar a OACI (Organización de Aviación Civil Internacional). Pero
entre tanto, el transporte aéreo había comenzado una andadura que iría desarrollándose
durante los años 30 y que había tenido el origen en los vuelos de correo de las
segunda y tercera década del siglo XX.
El pasado 6 de diciembre, un B737-700 de Southwest tuvo un runway excursion en el aeropuerto de Hollywood Burbank, California. La aeronave se detuvo al final de la pista gracias a un sistema de frenada conocido como EMAS. ¿Qué sabemos de esta superficie?
También conocidos como “arresting beds”, son unas superficies localizadas al final de las pistas de unmaterial especial, frangible, y con la capacidad de absorber altas cantidades deenergía, evitando a las aeronaves en peligro de salirse de pista que puedanhacerlo, y con ello salvar vidas y daños irreparables a las aeronaves.
Principios.
Dicha tecnología se desarrolló en los años 90 por Zodiac Arresting Systems, hoy parte de SAFRAN, como colaboración con la FAA norteamericana.
Las estadísticas de salidas de pista entre 1.975 y 1.987 decía que el 90% de los aviones se salían a velocidades de 70 kt o inferiores y recorrían una distancia de hasta 300 m. hasta llegar a detenerse por completo.
Además, existían riesgos en aeropuertos donde por geografía u otros motivos, el área de seguridad (RESA) alrededor de la pista planteaba problemas para cumplir con una normativa de seguridad posterior a su construcción. Obsérvese que los requisitos para la RESA OACI difieren de la FAA.
Diferencias entre OACI y la normativa FAA.
Así, para minimizar riesgos en las salidas de pista de los aviones que pudiera poner en peligro a sus ocupantes y a la aeronave, se propuso el diseño de un sistema que permitiría detener a las aeronaves: Engineered Materials Arresting Systems ó EMAS.
¿Cómo funciona?
El EMAS, utiliza los mismos principios que las zonas de frenada de grava en las carreteras de montaña.
Es una superficie formada por entre 2.000 y 4.000 cubos colapsables pegados entre sí y prácticamente al mismo nivel que la pista, de su mismo ancho y de una longitud normalmente cercana a los 200 m. Los cubos están fabricados a base de agregar un relleno de material espumoso al cemento, creando burbujas en su interior. Estas burbujas disminuyen su densidad y provoca que se colapsen para absorber la energía de frenado.
Composición de los cubos.
Cuando un avión entra en el EMAS, los cubos de casi un metro de lado se rompen y la fricción entre ellos hacen absorber la energía del avión hasta detenerlo. Como requisito añadido, es resistente al jetblast, por lo que cuando un avión despegue dejando atrás esta superficie, no se verá afectada.
La seguridad es cara, pero ¿merece la pena?
En términos de seguridad, siempre que se mejore merece la pena. Sin embargo, la instalación de este sistema es muy caro. Además, sólo se puede usar una vez.
En 2.008 un B747 de Kalitta se salió de pista en el aeropuerto de Bruselas, provocandoque el avión partiera el fuselaje en dos. Afortunadamente en este caso no huboque lamentar heridos. Tras un posterior análisis, la existencia de un EMAS hubiera evitado la pérdida del avión.
Ejemplo de planificación de EMAS con un B747. En este caso, a 70kt necesitaría una distancia de casi 600ft. (FAA Advisory Circular 150/5220-22B).
A día de hoy, un total de 13 aeronaves han sido detenidas
utilizando el EMAS. Desde un Cessna Citation hasta un Boeing 747, evitando heridas
a 288 personas y la pérdida o daños a las aeronaves.
Desde el punto de vista económico, si tenemos en cuenta que la instalación de un EMAS ronda en torno a los €4 millones (740€/m2), que su mantenimiento ronda los 0,4 €/m2 en 3 años, y que una reparación depende del número de cubos que hayan absorbido energía, no hay que echar muchos cálculos para saber que merece la pena la inversión en muchos aeropuertos donde la RESA esté comprometida.
A todos nos viene a la cabeza el accidente de un A340 de AirFrance en Toronto o el B767 de Delta en Madrid.
Utilizar el EMAS. ¿Cómo sabemos si está disponible?
El EMAS, está certificado su uso para pistas secas. Siendo conservativos, la frenada en condiciones de pista mojada o contaminada puede considerarse desconocida o peor que en pistas secas. Sin embargo, en estudios y pruebas se han realizado frenadas en pistas contaminadas y mojadas y se han conseguido la frenada dentro del EMAS en todas ellas, ya que, aunque la pista esté contaminada, el efecto del EMAS no se ve afectado.
Como conclusión, aunque las condiciones de pista se vean afectadas por contaminante, estará mejor que la RESA, y por lo tanto la consideración en todo caso de una pista con EMAS es siempre un punto a favor de la seguridad.
Si bien es cierto, que en algunos aeropuertos el EMAS está localizado en pistas más cortas (Véase JFK RWY 22L/04R), en un eventual aterrizaje de emergencia la existencia o no, de un sistema de frenada como el EMAS debe ser un factor a tener en cuenta en la elección de la pista.
Representación en Lido y sus marcas sobre la superficie (RWY 32L LEMD).
En la cartografía Lido, viene representada como en la imagen superior. Un rectángulo añadido al final de la pista con una especie de rayo oblicuo. Y las marcas que veremos serán unas líneas angulares amarillas en forma de “v” con el vértice más cercano a nosotros si nos aproximamos hacia el final de pista.
Este sitio web utiliza cookies para que usted tenga la mejor experiencia de usuario. Si continúa navegando está dando su consentimiento para la aceptación de las mencionadas cookies y la aceptación de nuestra política de cookies, pinche el enlace para mayor información.plugin cookies