Archivo de la etiqueta: destacado

CÓMO AFECTA LA TEMPERATURA Y LA ELEVACIÓN A LOS AVIONES. «HOT & HIGH».

hot and high
Foto A340-600 crédito a Iberia.

Recientemente, en uno de mis tweet, mencionaba el tema de los aeropuertos “hot & high” y, algunos curiosos, con buen criterio, me lanzaron algunas preguntas que paso a tratar de responder a la vez con este artículo. El término es desconocido para muchas personas que viajan habitualmente en avión, e incluso para muchos pilotos deportivos o de ultraligero que no son conscientes de las limitaciones que suponen las altas temperaturas veraniegas en el hemisferio norte, o australes en el caso hemisferio sur.

Altitud de Densidad (DA).

Llevemos un orden. Para poder entender bien lo de “Hot & High”, hay que explicar bien qué es la altitud de densidad como pilar del artículo. Debemos dar cuenta de este factor que, de manera invisible y con gran impacto, afecta a las actuaciones del avión. Quizá el factor más importante de todos los que afectan cuando llegan las altas temperaturas.

El avión utiliza medios aerodinámicos para generar sustentación como el ala o sus estabilizadores, tanto verticales como horizontales y, el medio en el que tiene lugar es el aire. Además, los motores utilizan el aire para realizar la combustión, o tracción si hablamos de hélices.

El aire, se considera un fluido que, cuando aumenta su temperatura las moléculas que lo componen se dispersan (disminuye la densidad del aire). Si, por el contrario, su temperatura disminuyera, las moléculas ocuparían menor espacio entre sí, reduciéndose el volumen que ocupa (la densidad del aire aumenta). Esto es conocido como densidad del aire.

Relación entre la temperatura y densidad del aire con la Density Altitude (DA). Relación entre la variación con la altura (h), la temperatura (T) y la Presión (P) con la Density Altitude (DA).

Según la International Standard Atmosphere (ISA), la temperatura a nivel del mar está establecida en 15º C y, según ascendemos en la atmósfera 300 metros, ésta ha de descender 2º C. Por lo tanto, con el razonamiento anterior, podríamos decir que al ascender 300 m. desde el nivel del mar, si la temperatura es de 20º C, nos encontraríamos con que la densidad del aire es menor que la que deberíamos tener. Es decir, la temperatura es 7º C superior a la ISA (ISA+7).

Si tomamos en la atmósfera los dos parámetros de temperatura y densidad del aire al mismo tiempo, la densidad del aire disminuye a pesar del decremento de temperatura según ascendemos. Esto es debido a que la presión del aire disminuye en mayor proporción de lo que lo hace la temperatura.

Dicho esto, ¿qué es la altitud de densidad? Pues es la altitud, cuya densidad del aire sería la correspondiente a la densidad establecida en la atmósfera ISA. Es decir, si nos encontramos en Madrid, cuya elevación es de 2.000 pies. (600 m.), si su temperatura fuera de 11º C, diríamos que su altitud de densidad, de ahora en adelante DA, es de 2.000 pies. Si, por el contrario, la temperatura fuera de 17º C, al encontrarnos a ISA+6, la densidad del aire se correspondería como si estuviéramos, no a 2.000 pies, sino a 3.000 pies. Es decir que, a 2.000 pies de elevación, la DA sería de 3.000 pies. ¿Qué efectos tiene esto sobre nuestra aeronave?

Tabla para conocer la Density Altitude.

Efectos de la Altitud de Densidad.

Como hemos visto, la densidad del aire disminuye según ascendemos en la atmósfera. Una densidad de aire pequeña tiene consecuencias directas en la sustentación. Si un ala tiene una superficie determinada para generar sustentación, un aumento en su altitud de densidad (DA) supondría que la sustentación generada equivaldría a un ala de una superficie más pequeña. Es decir, que al avión le costaría mucho más generar sustentación.

Esto último, tiene un efecto muy importante. A la hora de aumentar la sustentación, el piloto ha de elevar el morro del avión, esto es el ángulo de ataque. Al elevarlo, el ángulo de ataque se aproximaría aún más al máximo: la velocidad de pérdida. Además, al disminuir al disminuir la densidad del aire, el ángulo de ataque a partir del cual entraría en pérdida se reduciría, por lo que el margen sobre esta queda sensiblemente afectado.

La actuación sobre los mandos de vuelo se ve afectada. La respuesta del avión es menor y, requiere al piloto mayor deflexión de mandos para lograr el efecto deseado. Además, requiere mayor anticipación debida a la tardía respuesta de los mandos, sobretodo en el momento del aterrizaje, lo que en algunos casos desemboca en que, en algunas ocasiones, se “sobremande” innecesariamente. Aunque este efecto es poco significativo en aviones pequeños, sí lo es en aviones de mucho tamaño.

En otro orden de cosas, si nos encontramos en un avión de hélice, ésta generaría menos tracción al tener el aire menor densidad. Si el motor no compensa la pérdida de en su densidad de aire, la potencia que de será inferior a la que daría en una atmósfera con aire más densa. Además, con elevadas temperaturas ambientales, para que el motor pueda desarrollar la potencia necesaria, trabajan a temperaturas muy cercanas a las máximas por lo que su degradación aumenta.

Como resultado de dichos aumentos en la altitud de densidad, nos encontraríamos con que nuestra aeronave necesitaría mayores longitudes de pista para despegar y ascensos de menor pendiente, con las implicaciones que tiene a la hora de salvar obstáculos en la senda de despegue. Podríamos realizar la equivalencia de que, para una pista dada, ante un aumento de la altitud de densidad, es como si acortásemos nuestra pista, o acercáramos de manera hipotética del obstáculo a librar tras el despegue.

Distancia de despegue de un avión ligero con dos DA diferentes.

En crucero, los aviones comerciales son operados a niveles altos, por encima de los 35.000 pies de altitud. Dichos niveles son los óptimos en garantías de poder reducir el consumo de combustible para aumentar su alcance, ofrecer velocidades más altas y mayor confort al pasajero. Sin embargo, volar a esos niveles implica que, como hemos visto antes, los aviones se encuentren volando con márgenes sobre la pérdida pequeños. Un aumento de temperatura sobre la ISA puede reducir ese margen, por lo que exige al piloto prestar atención a su evolución durante el vuelo, especialmente en el paso sobre la zona ecuatorial, donde las temperaturas suelen ser de media superiores a la ISA en 10ºC, obligando en ocasiones a descender para mantener el nivel de seguridad con sus márgenes adecuados.

Las tablas… La mejor herramienta del piloto.

Los pilotos realizamos antes de cada vuelo estudios sobre las actuaciones de nuestro avión para comprobar que, con las condiciones atmosféricas actuales y las esperadas en el momento del despegue, crucero y aterrizaje, se encuentren dentro los márgenes de seguridad correspondientes. En la jerga habitual a las actuaciones del avión las denominamos performance. Y para ello utilizamos las conocidas tablas de performance. Hoy en día, la mayor parte de ellas electrónicas.

En ellas, introducimos los datos atmosféricos: temperatura, presión atmosférica y viento. Además, comprobamos la longitud de pista disponible y su estado. No es lo mismo una pista seca que encharcada, de tierra, o con nieve. Además, el uso de sistemas que nos puedan afectar a la reducción de empuje de los motores, como el uso de sistemas anti-hielo o aire acondicionado, han de ser debidamente en cuenta y, qué potencia hemos de utilizar para despegar. Todo ello nos permite conocer nuestro grado de ascenso en las condiciones más conservadoras posibles, teniendo en cuenta un fallo de alguno de los motores o cuanta pista nos quedaría para frenar si tuviéramos que realizar un aborto de despegue. Además, nos permite conocer, bajo esas condiciones que configuración de flap debemos seleccionar para franquear los obstáculos que existan durante nuestro ascenso inicial.

Un factor muy importante, no mencionado en el anterior párrafo es el del peso. Es esencial conocer cuanto es el peso máximo que podemos tener al despegue. Un empeoramiento de las condiciones atmosféricas o en el estado de la pista, puede hacer que tengamos que reducir el peso máximo con el que podemos despegar. Esto significa que habría que dejar carga en tierra.

En mis recomendaciones para la aviación general ligera, y después de muchos años practicándola, es muy importante tener bien claro que no siempre se ha de poder despegar dos pilotos, algo de equipaje y los depósitos de gasolina llenos hasta arriba. En muchos casos, si el combustible es necesario para realizar una determinada etapa del vuelo, pensar en buscar un aeródromo en el que realizar una parada para repostar en el camino, tratar de despegar a horas tempranas donde la temperatura aún es suficientemente baja, o la más segura de todas: No despegar. En ocasiones, conviene comprobar en las tablas de performance si es posible despegar con algo de viento en cola en dirección a una zona carente de obstáculos, que despegar hacia un obstáculo que no sabes si serás capaz de librar con seguridad, aunque tengas el viento en cara en el despegue. No cerrarse ante una sola posibilidad es conveniente en aras a mantener la seguridad. Las pistas, habitualmente no son de un único sentido.

Aeropuertos Hot & High.

Después de haber explicado cómo influye la altitud de densidad en las operaciones aéreas, vamos a tratar de centrarnos en los aeropuertos que denominamos “hot and high”.

¿Hay algo peor para la altitud de densidad que tener mucha temperatura ambiente? Efectivamente, que además de mucha temperatura tenga una alta elevación… Esto es básicamente lo que sucede en numerosos aeropuertos de Centroamérica y Sudamérica. Quito, México, Bogotá, Medellín son típicos ejemplos con elevaciones que rondan los 5.000, 7.000 u 8.000 pies de elevación que, junto con temperaturas de alrededor de 25 a 30º C, alcancen con facilidad los 10.000 pies de altitud de densidad.

Sin embargo, si analizamos las tablas de altitud de densidad, también Madrid (España) cuya elevación son 2.000 pies con temperaturas cercanas a los 40º C en verano pueden hacer que la altitud de densidad alcance los 5.500 o 6.000 pies de DA.

Un incremento de temperatura significativo más una cierta elevación del aeropuerto, puede convertir la operación de un aeropuerto en algo delicado y que requiere una cierta atención en los cálculos de performance.

Además de los efectos antes mencionados, vamos a añadir alguno más que en estos aeropuertos son especialmente significativos.

Los pilotos tienen en la cabina indicaciones de velocidad aerodinámica respecto al aire, que son las que utiliza el piloto para volar la aeronave. Sin embargo, no son las que realmente lleva el avión respecto del suelo. Ésta última velocidad, aumenta con la altura. Es decir, para una misma velocidad indicada en el instrumento del piloto, la velocidad respecto del suelo será mayor para un aeropuerto de alta elevación que para un aeropuerto a nivel del mar, lugar en el que coincidiría la indicada con la del suelo.

Esto trae consigo, como en ausencia de viento, la velocidad respecto del suelo puede ser de unos 20 kt. superior a la indicada. Si echamos cuentas, podemos realizar un aterrizaje en el aeropuerto de México a unos 175 kt de velocidad respecto del suelo con una indicada de 155 kt…. ¡muy rápido! ¿Consecuencias? La primera es fácilmente deducible. Parar una masa de unas 160 toneladas a 175 kt no es lo mismo que pararla desde 155 kt. Necesitamos una pista más larga y una ejecución de la frenada adecuada.

Los frenos de un avión, a pesar de disponer de frenada automática, son muy delicados. Debemos calcular qué tipo de frenada vamos a utilizar para evitar un sobrecalentamiento de frenos excesivo. La técnica, tanto manual o automática ha de ser cuidadosa. Es normal superar los 400 o 500º C en un aterrizaje de semejantes características. Es habitual disponer de servicio de ventiladores para disipar el calor de los discos de freno.

Indicación de la temperatura de frenos tras un aterrizaje en el Aeropuerto Internacional de México D.F: (A340-600).

Para el despegue, donde las velocidades suelen ser mayores que las de aterrizaje debido al peso sensiblemente mayor, la velocidad de rotación (velocidad a la que el piloto actúa los mandos con el propósito de irse al aire) es muy alta. Tan alta, que muchas veces está limitada por la velocidad máxima a la que las ruedas pueden girar antes de deshacerse. En torno a 204 kt. en el mejor de los casos. En este tipo de aeropuertos de gran elevación, existe gran diferencia, bien apreciable, entre el momento en que el piloto inicia la rotación, el avión comienza a levantar el morro de la pista, y el momento en el que finalmente despega el tren principal del suelo (Lift-off). En ese transcurso de tiempo entre la rotación y el lift-off, las ruedas siguen girando sobre tierra, alcanzando fácilmente los 190 kt. Retrasar una rotación puede acarrear el riesgo de romper alguna rueda por exceso de velocidad… De nuevo el piloto ha de ejecutar una rotación a la velocidad y tiempo adecuada.

Otro problema añadido en este tipo de aeropuertos son los obstáculos. Además de todo lo comentando hasta ahora, es que la mayoría de estos aeropuertos no están situados en unas amplias planicies. Por lo que las aproximaciones han de ser bien planificadas a velocidades no demasiado altas, por lo que debemos hacer uso de los flaps desde mucha altura para llevar el avión “cogido con riendas” y evitar que se nos desboque… Existe una limitación de altitud a partir de la cual podemos comenzar a utilizar los flaps, normalmente entre 19.000 y 20.000 pies, dependiendo del modelo de avión. A la hora de aterrizar en un aeropuerto con las mencionadas complicaciones es habitual utilizar el primer punto de flap/slat cercanos a los 17.000 pies en algunos casos para poder cumplir con las restricciones de velocidad para un avión tipo A340, B777 o B747. Otra vez, cerca de su limitación.

Realizar una aproximación a un aeropuerto de gran elevación trae consigo otra complicación más. Por si faltaba alguna… Dadas las velocidades tan altas respecto al suelo, al tratar de mantener una senda constante de descenso de 3º aproximadamente, lo que es una senda habitual, nos hace resolver un problema trigonométrico sencillo: ¿Cuál es el régimen de descenso que llevaremos antes del aterrizaje? Cuando normalmente para una aproximación de 3º el régimen de descenso suele ser alrededor de 750 – 800 pies por minuto, en este tipo de aproximaciones es muy próximo a los 1.000 – 1.100 pies por minuto. Quizá estos datos no te digan nada. Pero ¿y si te digo que el régimen de descenso máximo antes de tener que realizar un motor y al aire son 1.200 pies por minuto? Es decir, el margen es de apenas 100 pies por minuto. Una vez más las correcciones que se le exigen al piloto durante la aproximación final han de realizarse muy suaves y con gran anticipación, y más aún durante el momento del aterrizaje como ya mencionamos anteriormente.

Cómo veis esto de la aviación tiene muchas peculiaridades que a través de mi carrera voy descubriendo y, que de una manera u otra trato de contároslo lo mejor que puedo. Mientras tanto, en mi cuenta de Twitter @Daniel_Jambrina voy poniendo fotos y comentarios.

Publicidad

EL GPS Y SUS APLICACIONES (II).

Sistemas de aumentación de la señal gps.

En el capítulo I sobre el GPS y sus aplicaciones acabamos hablando sobre el DGPS, o GPS diferencial. Se convertía en el primer sistema de aumentación de la señal GPS que daría lugar a varios tipos de sistemas. Desde ahí comenzamos esta segunda parte.

Los sistemas de aumentación de la señal GPS han abierto la puerta a otros tipos de aproximaciones instrumentales sin necesidad de apoyarse en ayudas radioeléctricas como el VOR, NDB o incluso el ILS, dando la capacidad realizar aproximaciones de CAT II/III o en curva donde antes la orografía no permitía una aproximación ILS.

Errores en la señal GPS.

En este punto, tenemos claro que la precisión en la posición de los receptores proviene directamente de la señal emitida por los satélites. En la primera parte y a modo repaso, comentamos el efecto del Selective Availability (SA) y que había sido eliminado en el año 2.000. Además, gracias al DGPS este efecto se contrarrestaba aumentando la precisión. Sin embargo, hay otros efectos intrínsecos que también son necesarios corregir: Error del reloj, error de efemérides, el error ionosférico y el error multitrayecto.

 Vimos como alterando en la señal el tiempo al que se envía la señal, la posición se alteraba (SA). En este caso, el error del tiempo era intencionado. Sin embargo, el reloj del GPS, a pesar de ser atómico, tiene un pequeño error que es necesario corregir.

El error de efemérides, suele rondar los 2,5 m. Los satélites siguen órbitas determinadas alrededor del planeta Tierra. Sin embargo, el planeta no es un globo perfecto y las fuerzas gravitacionales que actúan sobre los satélites no son constantes, lo que implica que las órbitas satelitales necesitan corregirse constantemente. Esto afecta a la posición del satélite para un instante determinado.

El error ionosférico es el más significativo. Según varias fuentes oscila entre los 3 y los 5 metros. Este error es debido a que la señal GPS tiene que atravesar la capa atmosférica y, al hacerlo, la señal cambia su velocidad y se refracta, provocando un retraso en la señal.

Por último, el error de multitrayecto, es un error más pequeño que los anteriores. Está relacionado con el reflejo de la señal del GPS con la superficie. Provoca que el receptor reciba la misma señal en diferentes rangos debidos al rebote. La orografía es un claro ejemplo. 

Sistemas de aumentación de la señal GNSS.

El GPS por sí mismo no podía dar un servicio de navegación aérea apropiado ya que, debido a todos los errores mencionados en el apartado anterior, no cumplía con los requisitos del anexo de 10 de OACI: Precisión, Disponibilidad e Integridad. Con la aparición del DGPS, la FAA se dio cuenta de que podría adaptarlo a la aviación no sólo para la navegación de enruta, sino para dar servicio de aproximación por instrumentos sin depender de las actuales radioayudas eliminándolas en un futuro cercano. (Australia ya comenzó a desmantelar todos los VOR y NDB).

GBAS.

Surgió entonces el LAAS (Local Area Augmentation System). No era otro que un sistema basado en los mismos principios que el DGPS pero con alguna mejora. El sistema permitiría obtener aproximaciones instrumentales del tipo ILS sin necesidad de utilizar señales radioeléctricas. Con el tiempo, pasaría a denominarse GBAS (Ground Based Augmentation System), término utilizado en OACI. Aunque todavía quedan referencias con la terminología anterior LAAS, no existen diferencias prácticas.

¿Cómo funciona el GBAS? En un área determinada se instalan 3 o más antenas receptoras de GPS que funcionan como referencia. Dichas antenas miden el tiempo de la señal entre el satélite y la antena, y calculan la posición. Dicha posición es enviada al GBAS Ground Facility y determina el error y el error medio de la señal GPS. Dicho error es transmitido al equipo de aviónica del avión mediante una antena emisora que opera mediante VHF Datalink (VDB). Como función añadida, el GBAS monitoriza la funcionalidad de los satélites, eliminándolo de la ecuación si fuera necesario.

Esquema de antenas del GBAS (imagen FAA).

El GBAS da cobertura en un área de unas 23 NM y permite ofrecer hasta 48 tipos de aproximación diferentes. Hasta hace dos años, tenía la capacidad de ofrecer CAT I, pero hoy en día tiene capacidad CAT II/III. A este tipo de aproximaciones se les conoce como GLS (GBAS Landing System). Podemos encontrarlas en numerosos aeropuertos de Estados Unidos, Asia y en otros como Rio de Janeiro, Bremen, Frankfurt, Zurich y Málaga.

SBAS.

Dado el éxito del GBAS, se propuso la idea de mejorar la señal del GPS en un entorno mayor al de las 23 NM. Así, la FAA implementó el WAAS (Wide Area Augmentation System). Para el sistema WAAS, se crearon Estaciones de Referencia WRS (Wide-area Reference Stations) distribuidas por el territorio norteamericano y Hawaii, en concreto 38. Estas estaciones hacen la labor de recibir las señales del GPS y compararlas con su propia localización exacta por lo que son capaces de detectar los errores. Esta información recolectada por los WRS (existen 3) es enviada a las WAAS Master Stations (WMS) que generan un mensaje cada segundo. Dicho mensaje contiene información que permite a los receptores de GPS/WAAS corregir el error de posición mejorando su precisión y su integridad. ¿Pero como se consigue enviar el mensaje a los receptores GPS?

Arquitectura WAAS (imagen FAA). Similar al sistema EGNOS europeo.

Para el envío de dichos mensajes, se lanzaron un total de 3 satélites de comunicaciones geoestacionarios que recibían de 6 estaciones o antenas (GEO Uplink System), los paquetes de información y la difundían utilizando el mismo método de envío de las señales GPS. De esta manera, el propio receptor GPS podría recalcular su posición corrigiendo la señal de los GPS con la del mensaje corrector enviada por los satélites geoestacionarios. Al mismo tiempo el propio sistema monitoriza y avisa cualquier dato erróneo que pudiera existir, permitiendo al receptor contar con la fiabilidad adecuada.

Dado el uso de satélites geoestacionarios para el envío de la señal correctora, OACI lo denominó SBAS (Satellite Based Augmentation System). Dado que el WAAS es un sistema SBAS sólo válido para el territorio de Estados Unidos y Hawaii, otras naciones decidieron poner en órbita su propia constelación geoestacionaria. En el caso de Europa, su sistema es el EGNOS. Rusia, India, Japón y China también disponen del suyo.

Sistemas SBAS.

Los sistemas SBAS mencionados anteriormente son interoperables. Es decir, permiten al mismo receptor utilizar las señales en todas las zonas de cobertura GPS.

El sistema SBAS, nos permite realizar aproximaciones SLS (SBAS Landing System) hasta mínimos LPV. Es decir, “Localizer Performace and Vertical guidance”. Lo que podemos traducir a ser capaces de realizar una aproximación como si fuera un ILS, hasta unos mínimos verticales geométricos y no barométricos (utilizando el altímetro).

¿Hay alguna diferencia entre los receptores comunes de GPS y los que utilizan SBAS? Sí. En modelos de avión de líneas aéreas es menos visible dado que, en el caso de Airbus, se integra en los MMR del avión. Hablaremos de esto en la siguiente parte. En el caso de aviones ligeros, el equipo utilizado es diferente y si se desea acceder a este tipo de capacidad de navegación es necesario utilizar un GPS con función SBAS. En algunos GPS, la denominación del aparato GPS cambia a “W”. Por ejemplo, GARMIN en el modelo G430, el que tiene la capacidad de realizar estas aproximaciones es G430W.

ABAS.

Una mención aparte merece el ABAS (Aircraft-Based Augmentation system). Como su propio nombre indica, será la aeronave mediante sus equipos de aviónica que mejoran su precisión de navegación. Sin embargo, aunque lo hay, esto no significa que utilice la señal GPS como en los casos anteriores del SBAS y GBAS.

Los equipos de aviónica realizan cálculos mediante algoritmos utilizando otros sensores para corregir su posición. Los más utilizados son los sistemas inerciales de navegación (INS), el DME/DME, o la mezcla de ambos. De hecho, es muy común encontrarse con requerimientos de navegación DME/DME para realizar aproximaciones RNAV-1, por ejemplo. Sin necesidad de requerir GPS.

Otro sistema ABAS muy extendido es el RAIM (Receiver Autonomous Integrity Monitoring que utiliza señales redundantes del GPS para detectar fallos.

Tanto del RAIM como de los distintos tipos de aproximaciones, hablaremos en el siguiente capítulo.

EL GPS Y SUS APLICACIONES (I)

El GPS es un dispositivo bien conocido en nuestros días. Desde su nacimiento en el año 1.973 ha sufrido muchísimas mejoras. Sin embargo, prácticamente sin darnos cuenta estas modificaciones han traído consigo mejoras sin saber qué beneficios nos aportan. Con muchas siglas, eso sí.  

Nacimiento y desarrollo.

No podemos explicar algunas de sus mejoras sin recordar ligeramente sus orígenes, aunque sea de manera breve.

Algunos de los lectores podrán recordar algunos de los sistemas de navegación predecesores al GPS. El LORAN, OMEGA o DECCA comenzaron a desarrollarse con el fin de obtener y de mejorar la precisión de sus sistemas de orientación de armas en las diversas fuerzas armadas de los Estados Unidos. Coincidente con la Guerra Fría en la que sus misiles balísticos necesitaban mejorar la precisión de sus sistemas de navegación, además de conocer la posición de sus submarinos y bombarderos estratégicos.

Cuando los soviéticos comenzaron a lanzar satélites a mediados de los años 50, se dieron cuenta que, aplicando el Efecto Doppler a las señales electromagnéticas enviadas, podían conocer la posición de los satélites en órbita alrededor de la tierra. Poco después intentarían resolver la ecuación al revés. Es decir, un usuario en tierra, mediante la posición conocida de los satélites, podía determinar su posición. El GPS, de hecho, utiliza el mismo método, pero en sentido contrario, para ello es necesario que el GPS lleve un reloj a bordo con la precisión requerida. Con toda esta tecnología y sus posteriores estudios se pudo desarrollar una tecnología que mejoraría la precisión de navegación de miles de metros a cientos de metros.

En 1.973, fue creado el NAVSTAR – GPS, y más tarde se le acabaría llamando Global Positioning System, más conocido con sus siglas como GPS. Entre 1.973 y 1.985 se pusieron en órbita los 10 satélites necesarios para formar la constelación. No sería hasta 1.993 que la constelación la formarían 24 unidades. Aunque en realidad hoy en día son unos 30, de los cuales 24 se encuentran activos.

¿Pero cómo funciona?

Como se ha explicado anteriormente, existe una constelación de satélites describiendo 6 órbitas diferentes dando una vuelta a la tierra cada 12 horas a una altura de más de 20.000 km. Para determinar la posición, los satélites envían una señal desde una posición y hora conocida. La señal electromagnética llegará a un receptor en tierra que sabrá a qué hora exacta llegó la señal. Sabiendo la velocidad de propagación de la onda, el receptor podrá determinar la distancia desde el satélite. Sin embargo, esta distancia sería el radio de una esfera alrededor del propio satélite. Al calcular las distancias con cuatro satélites, el receptor podrá determinar su posición en el punto de cruce de esas cuatro esferas. Dicho cruce no sólo da una posición geográfica sobre un plano horizontal, sino también su altura sobre el terreno.

Dichos satélites emiten varios tipos de ondas en la banda “L”. L1 (1575,42 MHz) transmite en una frecuencia determinada para uso civil y L2 (1227,6 MHz), para uso militar y de manera codificada.

SA (Selective Availability).

En el año 1.983 un B747 de Korean Airlines fue derribado al entrar en espacio aéreo prohibido de la Unión Soviética debido a errores en la navegación. El presidente de Estados Unidos entonces, Ronald Reagan, prometió en ese momento que el GPS estuviera disponible para uso civil de manera gratuita.

La señal del GPS tiene una precisión de unos 30 metros. Cuando el GPS fue creado, el ejército norteamericano, por motivos de seguridad, se reservó que dicha precisión no fuera utilizada por sus enemigos. Así, la señal L1 de uso civil estaba degradada, alterando el reloj de manera aleatoria. Así, la precisión caía hasta niveles de algo más de 100 metros.

A mediados de los años 80, algunas organizaciones como la FAA, United States Department of Transport (DOT) y United States Coast Guard (USCG) ejercieron presión, sin resultado para desconectar el SA.

DGPS (GPS Diferencial).

Como respuesta, la USCG experimentó y desarrolló un sistema que le permitía mejorar la precisión a pesar del Selective Availability. Dicho sistema consistía en colocar una estación en un punto, cuyas coordenadas geográficas eran conocidas. La estación estaba equipada con un receptor de señal GPS y podía cotejar la señal del GPS con su posición real. La estación contaba con un emisor que difundía en frecuencias VHF el error de la señal GPS a otros receptores GPS en la zona de cobertura VHF de la estación para corregir en sus sistemas de posicionamiento el error en la señal del GPS, mejorando la precisión incluso con el SA activado. Este sistema se denominó DGPS o Differential GPS (GPS diferencial).

Esquema de funcionamiento del DGPS.

A finales de los años 90, y dado el éxito del DGPS, la necesidad de mantener el SA desaparecía. Bill Clinton eliminó de manera definitiva el SA en los GPS civiles en el año 2.000. Por otra parte, el ejército norteamericano también había podido desarrollar otra vía para alterar la posición de los GPS en determinadas zonas geográficas por lo que ya no podían alegar seguridad para seguir utilizando el Selective Availability.

Hay que añadir, que el desarrollo del DGPS mejoró la precisión del GPS incluso por encima de la propia señal GPS sin el SA activado, dando posiciones con márgenes de entre 5 y 10 metros.

Cortesía de GARMIN.

La FAA comenzó a utilizar el sistema DGPS para desarrollar sistemas que le permitieran, entre otras cosas, reducir el uso de radioayudas a la navegación, que costaban millones de dólares mantener y cuya precisión quedaba, en algunos casos, muy por debajo del GPS. Comenzaron a estudiar los sistemas de aumentación de la señal GPS, conocido como WAAS (Wide Area Augmentation System). De esto hablaremos en la siguiente parte.  

LAS CINCO CURIOSIDADES DE LA SEMANA.


Descrubre las cinco preguntas sobre curiosidades aeronáuticas.

Hola de nuevo curiosos de la aviación.

En la anterior edición hablábamos del Boeing 737MAX que llevó a paralizar la flota de todos los 737MAX del mundo. Es la primera vez que ocurre. Ni si quiera el modelo de DC-10 que tuvo varios accidentes debido a su diseño de la bodega de carga, ni el propio 737 en su versión clásica, con un problema de diseño en el pistón del timón de dirección, dejaron de volar entonces hasta su solución.

Significa esto que la aviación ha mejorado sus barreras de seguridad y se pueden implementar de manera global en un relativo espacio de tiempo.

En la anterior edición hablábamos de un trimotor… y hemos querido añadir un poquito más al respecto. Esperamos que las encontréis interesantes.

Aquí van las primeras cinco de esta semana:

1.            ¿Sabría decir cuál fue el primer trirreactor comercial en entrar en servicio?

2.            ¿Podría nombrarnos al menos 10 trimotores que se hayan comercializado a lo largo de la historia?

3.            ¿Por qué los pilotos de combate durante la Primera o Segunda Guerra mundial solían llevar bufandas de seda alrededor del cuello?

4.            Para los amantes de la aviación deportiva, especialmente del vuelo sin motor… ¿Sabría decirnos la diferencia fundamental entre un “Planeador” y un “Velero”?

5.            ¿Conocéis la expresión “Elephant walk”?

Respuestas:

  • Fue el famoso Boeing 727 de fabricación americana… diseñado a finales de los años 50 debido a una necesidad comercial de varias compañías americanas de aquella época dorada, -United-Eastern-American-, que necesitaban un avión polivalente capaz de mantener unos costes relativamente bajos en sus vuelos internos dentro de Norteamérica, así como reducir significativamente los costes para vuelos más largos y de baja densidad en los que se empleaban habitualmente cuatrimotores como el 707 o el DC8. Contrariamente a lo que algunos creen, que fue el Hawker Trident, y que, aunque fue el primer trirreactor en surcar los cielos -el vuelo de prueba lo hizo un año antes que el 727-, la primera entrega y el primer vuelo oficial realizado por un cliente fueron ambos en el mismo año (1964) pero le ganó el podio el 727 entrando en servicio con casi dos meses de antelación.

El 727 fue un avión de fuselaje estrecho ya que fue diseñado a partir de los modelos Boeing 707 y 720, lo cual marcó un precedente en aquella época, pues supuso un tremendo ahorro en costes tanto de fabricación en la cadena de producción como en los gastos de mantenimiento en línea de las aerolíneas.

También es reseñable destacar que fue el reactor comercial más vendido hasta principios de los 80, desbancado posteriormente por el, tristemente de actualidad, Boeing 737. Se fabricaron desde su inicio a principios de los años 60 cerca de 1.900 unidades, de las cuales casi 100 siguen a día de hoy en servicio en distintas aerolíneas, compañías cargueras y diferentes fuerzas aéreas en todo el mundo.

  • Aquí van algunos de los más significativos. Seguro que alguno más encontráis para añadir a la lista. Aparte del nombrado 727, claro…
  1. Falcon 50 y sus versiones modernas del 900, 2000 y 7000.
  2. Junkers JU-52;
  3. Lockheed L-1011 TriStar;
  4. Fokker VII;
  5. Tupolev TU-154;
  6. Ford “Tin Goose”;
  7. DC-10 y posteriormente MD-11;
  8. SM.81 Marchetti “Murcielago”;
  9. Stout Bushmaster 2000;
  10. BAC-111;
  11. Yak 40 y 42;
  12. Hawker Trident.
JU-52.
  • La respuesta tiene una sencilla explicación. No era cuestión de “frío” como se puede suponer en primera instancia, puesto que los aviones disponían algunos de calefacción. Su uso se extendió para evitar el enrojecimiento y las posteriores heridas por rozaduras que sufrían los pilotos durante sus misiones y que eran producidas por sus toscas uniformidades de rígidos cuellos y gruesas cazadoras, especialmente en momentos de máxima tensión en combate, cuando hacían girar bruscamente sus cabezas continuamente durante la batalla con la intención de avistar y dar caza al enemigo.
  • Según la FAI (Federación Aeronáutica Internacional) – que es la encargada de regular todos los requisitos de las distintas clases de competiciones – y aunque a nivel de licencias no se establece ninguna diferencia, existe distinción debido a que comúnmente los Veleros poseen mejores prestaciones o “performances” en cuanto al planeo que los planeadores convencionales. En algunos lugares se encuentra escrito que hasta 1:15 de coeficiente de planeo es un planeador, y mayor a 1:15 es un velero.

Puestos a hablar de coeficientes de planeo, ¿Qué es esto? El coeficiente de planeo establece la capacidad de descenso mínima relacionada con su avance en su misma unidad de medida longitudinal. Normalmente se representa con dos números separados con dos puntos. Uno para indicar la capacidad de avance y el otro, con el número “1” para indicar la unidad de pérdida de altura. Lo podéis encontrar escrito como 1:15 o al revés, 27:1. Es decir, un velero que tenga un coeficiente de planeo de 1:37. Así, por cada 1.000 metros que descienda el avión, avanzará 37 Km.

Si profundizamos un poco más en el tema, podemos añadir, que el coeficiente de planeo tiene que ver con la relación L/D, es decir, la relación que existe entre la sustentación y su resistencia aerodinámica, más conocida como “máxima fineza”. Dicha relación se consigue con un ángulo de ataque determinado, es decir, una velocidad concreta para un peso concreto. Los pilotos de vuelo sin motor conocen bien esta velocidad, pues es la que han de utilizar en caso de no encontrar una térmica o ascendencia que les haga ascender y necesiten maximizar su tiempo en el aire.

  • La “senda de los elefantes”, o más conocida por su terminología anglosajona “Elephant walk”, surgió en la Segunda Guerra Mundial cuando durante la salida de los bombarderos hacia sus misiones de bombardeo sobre sus objetivos alemanes despegaban de manera masiva en números cercanos a los mil aparatos. Se desarrolló un sistema para que hicieran despegar el mayor número de fuerzas en el menor tiempo posible, lo que generaba un desfile en tierra al que comenzaron a llamar “elephant walk”.
«Elephant walk» de F-16 Surcoreanos y Norteamericanos en la base aérea de Kunsan (Foto: Wikpedia)

Hoy en día se utiliza el término para un ejercicio que simboliza el lanzamiento del mayor número de fuerzas de manera masiva y de una sola vez. Dadas las implicaciones que supone lanzar de golpe todos sus aviones al aire, se realiza en entrenamiento sin despegar dando lugar a fotos realmente impresionantes en la que aparecen todos los aviones sobre la pista rodando en formación.

Esperemos que os hayan gustado.

OZONO EN LOS AVIONES. UN ENEMIGO INVISIBLE.

Para conseguir ahorros de combustible mayores, los aviones de última generación vuelan a altitudes mayores que sus antecesores. A esas altitudes la concentración de ozono es mayor. Para evitar las molestias físicas desprendidas de respirar aire con ozono, los aviones cuentan con una defensa en sus sistemas de aire acondicionado.

Hasta la aparición de los reactores, la aviación se limitaba a volar en un espacio aéreo que existe “cercano” al suelo, es decir, la troposfera. Dicha capa de la atmósfera nos lleva desde la superficie terrestre hasta una altitud entre 8 y 11 kilómetros, dependiendo si nos encontramos en los polos o en el ecuador. En esta capa se desarrollan el mayor número de fenómenos atmosféricos como las precipitaciones de diferente tipo y las nubes.

Sin embargo, con la aparición del reactor, los aviones eran capaces de volar aún más alto y más rápido. Para realizar los vuelos de manera más eficiente y de mayor alcance, éstos debían volar en la capa inmediatamente por encima, la estratosfera. Ante la carencia de humedad y que la temperatura se mantiene prácticamente constante alrededor de los -56ºC, no existe nubosidad. No obstante, existen otros fenómenos que combatir, como los efectos del ozono o la radiación. Hablemos del primero.

Amigo – enemigo. El ozono.

El Ozono (O3) es una molécula de gas incolora y con ligero olor acre. En grandes concentraciones tiene ligero color azulado. Se forma al disociarse las moléculas de oxígeno por acción de los rayos ultravioleta. Las moléculas de oxígeno se unen a estos átomos disociados y dan como resultado la molécula de ozono (O2 + O = O3). Algunas veces, cuando hay tormentas con alto aparato eléctrico, los rayos descomponen el oxígeno y podemos encontrar ozono cerca del suelo.

El ozono existe en muy bajas concentraciones en la atmósfera terrestre (0,004 pmmv) según datos de la NASA, pero en la parte baja de la estratosfera, es donde mayores concentraciones del gas existe. En numerosas lecturas se hace referencia a la “Capa de Ozono”. La capa de ozono de la estratosfera reduce la cantidad de los rayos ultravioleta procedente del sol que alcanza la superficie terrestre.

Gráfico de concentración de ozono en la atmósfera. (imagen de la NASA).

El ozono es un oxidante muy potente que puede irritar las vías respiratorias. Puede provocar tos, irritación de garganta, dolor de cabeza y empeorar la bronquitis o el asma. Dados sus efectos, las aeronaves han de contar con un sistema que rebaje los niveles del ozono del aire utilizado para el aire acondicionado.

En 1.968, la American Conference of Government Industrial Hygienists (A.C.G.I.H.) adoptó el límite del valor máximo T.L.V. (Threshold Limit Value) de 0,1 partes por millón de volumen (pmmv). Este es el valor máximo para una persona trabajando 8 horas al día, 40 horas a la semana.

El descubrimiento del ozono en las cabinas.

Los aviones utilizan el aire de la atmósfera para su acondicionamiento y que tanto los tripulantes como los pasajeros puedan respirar el aire en condiciones ambientales adecuadas de temperatura, presión y humedad. Hasta la aparición de los reactores, las altitudes a las que los aviones volaban no superaban los 25.000 ft. Incluso, cuando los reactores irrumpieron en el transporte aéreo, los cruceros se realizaban entre 25.000 y 35.000 pies. Sobre todo, con la crisis del petróleo, en la que los niveles de crucero comenzaron a tener su importancia para reducir el consumo de combustible.

En el año 1.976 la FAA comenzó a recibir un incremento en el número de reportes sobre molestias físicas del personal de vuelo y pasajeros en los aviones de fuselaje ancho empleados en vuelos de largo recorrido. Tras varias investigaciones realizadas a lo largo de 1.977 por miembros de la FAA, de las aerolíneas y de los fabricantes de aeronaves, determinaron que el origen de los reportes era debido a la respiración de aire con altas concentraciones de ozono.

Durante los estudios se detectaron datos que superaban los 0,1 pmmv con creces. Los valores variaban en función de la época del año y de la zona geográfica.  

Llegados a este punto, era necesario una normativa que regulase el valor máximo de ozono en cabina. Boeing y Pan Am en este momento habían instalado un filtro para reducir la cantidad de ozono en sus 747 hasta en un 90%. Sin embargo la nueva normativa nació a primeros de los años 80 y requería en muchos de los casos reducirse por encima de ese 90% para cumplir con el valor límite arriba mencionado. Dicha norma se aplicó a todos los aviones que operaran por encima de los 18.000 pies de altura.

El catalizador.

Cuando la FAA decidió regular al respecto del valor máximo de ozono en el aire de cabina, existían dos métodos principales para lograrlo: Un filtro como el que había utilizado Pan Am en sus 747, y un catalizador que descomponía las moléculas de O3 en O2.

El sistema que mejor solución ofrecía era el catalizador, que además de su sencillez, carecía de los problemas que surgían con los otros sistemas estudiados.

Catalizador o conversor de ozono de Reuters.

Los materiales catalíticos son muchos y variados, e incluyen un gran número de metales base y metales óxidos y metales nobles como platino, paladio y plata. Es decir, metales que por sus características poseen una actividad catalítica. El catalizador tiene forma de cámara alargada con una entrada de aire por un lado y una salida en el otro. El aire entra a través de unos tubitos minúsculos o cánulas de acero que, al verlos de frente, parecen una malla. Al penetrar el aire, el ozono hace reacción con un sustrato cerámico de material activo y separa las moléculas de oxígeno.

De esta manera, el conversor de ozono se monta a la entrada del sistema de aire acondicionado y pasa a formar parte del ECS (Environmental Control System). El aire sangrado del compresor del motor entra en el Pack de aire acondicionado a través del conversor de ozono, el cual transforma el aire en oxígeno por efecto catalítico, entonces continua su camino hacia la Flow control Valve que regula el flujo de aire demandada por el sistema de aire acondicionado y de presurización.

A la derecha de la imagen se puede ver el conversor de ozono del sistema de aire acondicionado de un A340.

Representación.

Como se ha mencionado antes, las concentraciones de ozono son variables tanto en niveles de altitud como zonas geográficas, además de variar por épocas del año. Existen algunas aplicaciones que usamos los pilotos para obtener información sobre meteorología en ruta, como el e-WAS de SITA ON AIR, en la que aparece la concentración de ozono. Si bien es meramente informativo, los aviones comerciales, como hemos mencionado antes, tienen la capacidad de reducir el ozono hasta niveles por debajo del valor de 0,1 pmmv por certificación.

Información de un vuelo Madrid a Los Ángeles en la aplicación e-WAS.

AVIONES COMERCIALES QUE FRACASARON.

Airbus comunicaba que en el año 2.021 el A380 dejará de ser fabricado, poniendo fin a 16 años del llamado “Super jumbo”. Boeing, mediante su vicepresidente de maketing Randy Tinseth dijo: “francamente, no veo una demanda para aviones realmente grandes”. El tiempo ha dado la razón a Boeing. ¿Pero que otros proyectos han fracasado a lo largo de la historia de la aviación comercial? Aquí va alguno de ellos.

El fracaso de la era moderna. El A380.

En 2.007 entró en servicio el primer A380 con la aerolínea Singapore Airlines. Posteriormente las aerolíneas de bandera de Asia, Europa y Oriente Medio incorporaban también el A380 a sus flotas y convertiría en su flota más emblemática.

Desde el punto de vista del pasajero, pronto el “super jumbo” se ganaría a los pasajeros más exigentes. El espacio, su silencio y la nueva tecnología aplicada al pasajero tuvo un efecto muy positivo. Sin embargo, y en contrapartida, las compañías con el tiempo comenzaron a recelar del avión. Si bien, responde a rutas muy densificadas, llenarlo se convertía también en un reto financiero para las aerolíneas.

El proyecto con el tiempo tuvo unos sobrecostes en la fabricación que encareció el producto final. Mientras que en 2.005 el precio de catálogo era de entre 315 y 335 millones de dólares, en 2.015 su coste alcanzaba los 430 millones de dólares. El consejero delegado de IAG, siempre ha dicho que es un gran avión, pero el precio ha sido siempre su mayor queja: “Airbus tiene que bajar el precio del A380 para elevar las ventas”.

Airbus que planeaba vender en torno a 700 unidades, lleva entregados 234, y sólo le quedan 14 más por entregar después de que su principal cliente, Emirates, anunciara que reducía su actual pedido de aviones y convertía parte de el en el último modelo del fabricante, el A350.

A380 de Emirates. (Foto: Emirates Airlines)

Boeing, años atrás se mostró muy reticente ante la aparición del A380. Mientras que Boeing desarrollaba el Boeing 787, más pequeño que el 777 y el 747, pensaba que el mercado mundial evolucionaba hacia un desarrollo de rutas aéreas punto a punto, de menor densidad de pasajeros y distancias más largas, y el Boeing 787 se adaptaba mejor a ese modelo. No obstante, ellos ya contaban con el Boeing 747, éxito de ventas desde 1.970 y lo único que habrían de hacer era crear una nueva versión del mismo.

Cuando Boeing se planteó varias veces modernizar el Boeing 747, fue consecuente con su decisión. O se modernizaba a un coste muy bajo, o se cancelaba la producción del mítico “jumbo”. Así, aplicaron tecnología ya existente del 787 en el nuevo 747-8i. No obstante, no obtuvo mucho interés de las aerolíneas como ya predijeron inicialmente. Con todo y con ello, han vendido más de 1.500 unidades de su modelo más emblemático en 50 años de existencia.

El concorde. El fracaso como base del éxito.

En 1.969, realizaba su primer vuelo el Concorde 001. Era el resultado de la “concordia” entre British Aircraft Corporation y Aérospatiale.

A finales de los años 50 del siglo pasado, algunos fabricantes de aviones de la época pensaban desarrollar e introducir en el transporte aéreo aviones supersónicos. La tecnología que se había desarrollado en el ámbito militar todavía requería de una evolución más. En la aviación militar se alcanzaba el vuelo supersónico en determinados momentos, pero la tecnología no era capaz de mantener un vuelo durante varias horas a velocidad supersónica. Los motores, y la estructura del avión debían ser el objeto de dichas mejoras. Si bien los norteamericanos estaban trabajando en ello, los británicos y los franceses ya tenían muy avanzado el proyecto. No obstante, su desarrollo era tan caro, que para desarrollar y vender de manera masiva el avión requería de una inversión conjunta. Capital que llegaría a través de los estados francés e inglés. Nació el proyecto de un avión de largo radio para una capacidad de 100 pasajeros: El Concorde.

En enero de 1.976 entraba en servicio el Concorde, sin embargo, no lo haría de la manera esperada. Durante la fase de presentación del avión, había acumulado el interés y pedidos de varias aerolíneas, entre ellas Pan Am. British Airways y Air France recibieron grandes subvenciones de sus respectivos gobiernos para que compraran el avión. Hasta 1.972, tenía más de 70 pedidos del modelo. Debido a varios factores las aerolíneas comenzaron a cancelar sus pedidos y rebajar sus pretensiones sobre el avión.

Foto archivo BAe systems.

En aquella época, el transporte aéreo era un modelo muy protegido y poco liberalizado. La intervención de los gobiernos ante la competencia era muy proteccionista respecto a sus operadores y fabricantes. En Estados Unidos, el proyecto del avión supersónico Boeing 2701 fue cancelado en 1.971, dando como resultado una hipotética hegemonía europea. Así, la oposición del gobierno norteamericano fue muy elevada.

Entre los problemas de mayor éxito mediático era el medioambiental. El Concorde, como cualquier avión supersónico de la época, al acelerar de velocidad subsónica a velocidad supersónica, se producía en el perfil alar una onda de choque y un estampido sónico que generaba un ruido que era escuchado desde muchos kilómetros de distancia en tierra.

El estampido sónico supuso el origen de las protestas de los vecinos de las zonas donde se producía. No sólo en Estados Unidos, que utilizó de la mejor manera posible para evitar los vuelos del Concorde sobre su territorio, sino también en otras zonas de Inglaterra e Irlanda. El Congreso de los Estados Unidos prohibió el vuelo del Concorde en sus aeropuertos.

Protestas contra la llegada del Concorde 2 a Los Angeles el 23 de octubre de 1.974. (Foto Daily Breeze Archive)

Sólo a partir de 1.977 la Corte Suprema de Estados Unidos permitió el vuelo del Concorde en Estados Unidos, debido a que en aquel momento se demostró que existían muchos modelos de aeronaves subsónicas que tenían un nivel de ruido mucho mayor que el del Concorde. Los vuelos a New York se pudieron inaugurar y mantener hasta el final de la vida del Concorde.

Si bien aquel problema medioambiental se palió mediante la aplicación de nuevos procedimientos operativos y diversas batallas legales, el daño a ese respecto estaba hecho.

Además de otros factores, algunos menos importantes, se encontraba uno de índole económica. Durante el desarrollo del avión, no tuvieron en cuenta el coste del precio del petróleo, para entonces un bien abundante y barato. Sin embargo, la crisis del petróleo de los años 70 provocó que las aerolíneas tuvieran que racionalizar su uso intentando por todos los medios de reducir su coste en los balances. Otro motivo más para no comprar el Concorde.

Un sobrecoste de más de 5 veces mayor del planificado en su diseño y construcción, más de 1.300 millones de libras de la época. La crisis del petróleo, la campaña mediática en contra y la gran preocupación acerca del ruido, supuso la cancelación del proyecto. Sólo 20 unidades fueron fabricadas. Incluyendo los 6 de pruebas.

Como contrapartida al fiasco económico del proyecto, pondría de manifiesto que la industria aeronáutica europea contaba con suficiente tecnología y medios económicos para poder desarrollar una industria aeronáutica que pudiera poner fin al monopolio de los fabricantes norteamericanos. Se constató que la unión de varias empresas aeronáuticas como la inglesa, francesa, española, alemana e italiana principalmente podían trabajar en una misma dirección compartiendo objetivos. Había nacido Airbus.

El avión que no “llegó lejos”. El Mercure.

Cuando en abril de 1.967 Boeing realizaba con éxito el vuelo del Boeing 737-100, el fundador de Dassault Aviation, Marcel Dassault realizó junto a la aviación civil francesa un estudio de mercado de un avión comercial civil de corto radio para poder competir con el 737. Así demostraría que la aviación francesa era capaz de desarrollar un modelo civil basado en todos sus conocimientos en la fabricación de aeronaves militares como el Mystères o el Mirage.

El modelo elegido era muy parecido al 737 físicamente, pero con una capacidad mayor, ya que éste contaría con 140 asientos en lugar de los 100 del B737-100, o 115 del B737-200.

Dassault Mercure 100. 23 de mayo de 1.978 en el aeropuerto de París Orly.

El primer prototipo voló en mayo de 1.971. Equipaba dos motores JT8D – 11 Turbofan de la casa Pratt & Whitney. El avión, certificado en 1.974 contaba con grandes innovaciones como por ejemplo el HUD (Head-Up Display), usado en cazas, pero hasta entonces no en la aviación civil. Contaba con una superficie alar y un perfil muy fino que permitía volar a velocidades mayores que las habituales. Decidieron dar mayor capacidad de carga para dar cabida a los 140 pasajeros y redujeron la capacidad de combustible a su vez, lo que reducía su alcance a tan solo 1.700 km.

En aquella época, el DC-9 y el nuevo modelo Boeing 737 eran los competidores en el segmento del Mecure. Cuando apareció el Mercure 100, pareció no tener cabida. El DC-9 y el 737 eran modelos mucho más eficientes y de mayor alcance (superior 2.400 km), lo que limitaba el mercado del Mercure al regional o doméstico europeo. Tan sólo la francesa Air Inter se interesó y compró 10 modelos del aparato para sus rutas domésticas. Algunos directores de aerolíneas norteamericanos se permitían criticar el avión, y decían del Mercure que era el puro ejemplo del “chovinismo francés”, y que “habían creado un avión que no podía salir de Francia”. Haciendo alusión a su limitado alcance.

El Mercure 100 no tuvo éxito alguno fuera de las fronteras francesas. Tanto es así, que Dassault intentó entrar en el mercado norteamericano mediante acuerdos con McDonnell Douglas o el fabricante de motores General Electric sin resultado. El mercado norteamericano, como hemos visto anteriormente nunca puso fácil a los fabricantes de aeronaves extranjeros entrar en su mercado.

Un futuro desarrollo del Mercure, la serie 200, se quedó en nada debido a la falta de confianza del gobierno francés y, por lo tanto, el proyecto no tuvo el apoyo financiero necesario.  Air France, que había mostrado interés y colaborado en su desarrollo se quedó también sin avión.

El Mercure, como el Concorde fueron diseñados en un contexto económico diferente al de su construcción. Hay que tener en cuenta, que estos diseños fueron elaborados a mediados de la década de los 60, y su construcción, venta y desarrollos posteriores, entraban en la década de los años 70, donde la crisis del petróleo, excesos de capacidad en ciertos mercados, proteccionismos gubernamentales, entre otros factores, llevaron a los fabricantes al borde de la quiebra, perdiendo miles de millones de dólares.

El Mecure nació con un alcance demasiado limitado. El consumo de combustible del JT8D era demasiado alto para la época en que tuvo que desenvolverse y pronto tuvieron que buscar un motor alternativo, el SNECMA. Pero llegó tarde.

Además, en aquella época, los costes variables de las aeronaves eran relativamente bajos, lo que les permitía volar más rápido entre sus destinos. Existía una competición entre Air France y Air Inter por ver quien volaba en menor tiempo, reduciendo los tiempos en tierra y maximizando el número de sectores.  El consumo de combustible era exorbitado y ante la crisis del petróleo supuso un nuevo revés al Mercure.

A pesar de las novedades tecnológicas aplicadas en el avión, tan sólo se construyeron 12 unidades y el proyecto se canceló en 1.975, cuatro años después de su inicio. El último vuelo comercial tuvo lugar en 1.995 con 360.000 horas de vuelo acumuladas y una fiabilidad del 98%.

Límite de mercado para el Tristar.

En los años 60, American Airlines necesitaba un modelo de avión más pequeño que el B747 para sus rutas entre la costa este norteamericana y Londres, y vuelos desde su hub de Dallas a Sudamérica y el resto del país. Para ello contactó con McDonnell y con Lockheed.

Por aquella época, Lockheed no fabricaba aviones civiles desde 1.957, con excepción del Electra L-188, un turbohélice cuatrimotor que luego derivaría en el avión militar P3 Orion. Sin embargo, Lockheed sí que había obtenido varios éxitos en aviones militares como el C-5 Galaxy y el C-130 Hercules. Un éxito que le animó a aceptar el reto de construir un avión civil.

El proyecto inicialmente era un diseño bimotor. Por aquel entonces, para poder volar lejos de la costa más allá de 30 minutos el avión no podía ser un bimotor. Ley que se mantendría hasta los años 80 con la aparición del B767. Por ello, McDonnel y Lockheed diseñaron finalmente un trimotor.

Durante la fase de construcción del Lockheed L-1011 “Tristar”, sufrieron serios retrasos debido al nuevo motor de Rolls – Royce RB211. Problemas en la fábrica y en el diseño del nuevo motor supusieron un duro revés para Lockheed. El nuevo motor se convirtió en un éxito tecnológico de muy alta fiabilidad y silencioso.

Rolls Royce RB211 en el Technik Museum Speyer.

El Tristar, fue un avión en el que se aplicaron nuevas tecnologías. Entre ellas, el diseño de la localización del motor central que estaba diseñado para el RB211, más pequeño que otros del mercado. De esta manera, y como en el 727, contaba con un difusor de entrada en forma de “S” para reducir la resistencia aerodinámica y facilitar el mantenimiento. Al contrario de cómo ocurría con su competidor el DC-10.

A pesar de que el L-1011 era más ligero que su competidor, resultó más pesado de lo planificado para ese motor, y tuvo que desarrollar una nueva versión de motor para sus versiones posteriores. Además, McDonnell utilizó un motor mucho más eficiente, con más potencia y más fácil y rápido de fabricar, lo que, a pesar del mayor peso del DC-10, lo que suponía reducir los tiempos de fabricación.

Entre otras cosas, Lockheed tuvo que diseñar tecnología nueva para su nuevo avión, de gran fiabilidad, lo que, unido a los retrasos con el motor, le supuso una carga financiera elevada. Su competidor directo, McDonnell utilizó la tecnología ya presente en el DC-8 y se ciñó a su presupuesto de fabricación con mayor rectitud.

En 1.984, tras los malos resultados económicos conseguidos, Lockheed entregó su L-1011 número 250, convirtiéndose en el último avión civil fabricado por Lockheed.

DC-10 (izquierda) y L-1011 «Tristar» (derecha). Obsérvese la estructura del motor central.

Hay que decir, que tanto McDonnell y Lockheed sufrieron financieramente compitiendo en un mercado muy limitado en número de clientes potenciales y en tiempo. ¿En tiempo? A finales de los años 70, Boeing ya había comenzado a diseñar el Boeing 767, un ¡bimotor! Que entraba en competencia directa con el DC-10 y el L-1011. Sólo tenían 10 años antes de que el 767 se convirtiera en la sentencia para ambos modelos.

La lucha contracorriente. Sukhoi SSJ 100.

La aviación rusa siempre ha sido muy endogámica. A penas hemos visto aviones rusos volando en compañías occidentales o asiáticas, y tras la caída del régimen soviético, una profunda crisis en el sector de la construcción aeronáutica impidió que pudieran mantenerse en el diseño puntero hasta principios del siglo XXI.

En 2.005 se llevó a cabo una consolidación de constructores rusos llamado UAC (United Aircraft Corporation). Con la creación de este grupo, entre los que podemos encontrar las más conocidas Ilyushin, Beriev, Sukhoi, Mikoyan, Tupolev y Yakovlev, y otras más pequeñas, Rusia pensaba crear programas de aviones civiles que pudieran competir en el mercado con los aviones norteamericanos y europeos, además de introducirse en el mercado chino y conseguir sustituir sus viejos Tupolev aún en servicio.

Entre los proyectos más novedosos son el Irkut MC21, aún en desarrollo y del que se espera su primer vuelo comercial en 2.021; y el Sukhoi SSJ 100. 

El Sukhoi SSJ 100, es un avión regional para 100 pasajeros. Actualmente se ha superado la cifra del centenar de aeronaves. Sin embargo, existen diversos problemas institucionales y técnicos por resolver que ha provocado que varios operadores hayan tenido que parar su flota, Interjet y Cityjet entre ellas.

Cuando el SSJ 100 apareció en el mercado provocó tanto en occidente como en Asia una aceptación relativamente buena y originó el interés de varios operadores regionales. Un avión regional con una tecnología moderna, unos costes de fabricación y operativos bajos lo hacían económicamente interesante.

Sin embargo, durante 2.016 la Agencia Federal de Transporte Aéreo dejó en tierra 6 unidades debido a problemas de fatiga en los metales. Durante 2.017 se consiguió mejorar su fiabilidad hasta alcanzar el 97% tras sufrir varios problemas con los sistemas del avión. Además, Yakutia Airlines tuvo problemas con los motores, teniendo que realizar inspecciones entre las 1.500 y 3000 horas de vuelo, en contra de sus especificaciones de 7.000 horas como decía el fabricante.

Este pasado año, Brussels había alquilado a Cityjet varias unidades de SSJ100, sin embargo, varios problemas en el despacho de las aeronaves provocaron que su disponibilidad quedase por debajo del mínimo aceptable por Brussels, y Cityjet tuvo que parar la flota.

Por otra parte, tras las tensiones sufridas en el ámbito de la política internacional, las sanciones de Estados Unidos hacia Rusia. Por ello, los equipos tecnológicos han de reducirse con el tiempo si quieren exportar su aeronave hacia otros países. Entre ellos Irán. Por el momento, el SSJ utiliza alrededor de un 50% de partes occidentales, y se espera poder sustituir parte de ellas antes de 2.021. El APU, el sistema de navegación inercial y el tren de aterrizaje, entre ellas son de fabricantes norteamericanos o europeos.

SSJ100. (Foto: Sukhoi)

Con todo y con ello, el avión puede quedar relegado a un fracaso si no se solucionan todos estos problemas. Los técnicos, que afectan a fiabilidad del avión, afectan directamente a la viabilidad de las compañías aéreas. Ante un negocio muy volátil, puede suponer un duro revés para las expectativas del SSJ 100, que tiene como objetivo vender mas de 350 unidades en los próximos 10 años.

Conclusión.

Cómo cualquier otra empresa que decide lanzar un producto al mercado, se han de tener en cuenta muchas variables. Sin embargo, incluso cuando el producto no es necesariamente malo, la competencia puede ser voraz.

Por otra parte, existen multitud factores exógenos y no controlables como la subida del petróleo que hagan diferir al cliente de la filosofía del producto. Las inversiones en nueva tecnología que se quiere aplicar antes que la competencia y de la que no se ha tenido demasiado tiempo para probar; o bien, una larga cadena de proveedores con tiempos de producción muy ajustados en los que cualquier retraso puede provocar retrasos y desajustes del programa completo y con penalizaciones económicas por parte del cliente.

Tanque de agua para simular la presurización. Introdujeron el Comet 1 para comprobar la fatiga después de simular varios vuelos. (Foto: De Havilland archive)

Uno de los casos más dramáticos, no comentado por su fama, fue el del De Havilland Comet. El primer reactor comercial. Ser los primeros significaba la implementación de tecnología en la manera comentada en el párrafo anterior. La fatiga del material al presurizar el avión provocó varios accidentes en corto espacio de tiempo, dejando al modelo en tierra hasta conseguir la solución. Esto hizo que, cuando llegase el Comet IV con los problemas solventados, el proyecto Comet fuera insostenible económicamente, y dio tiempo a la competencia a entrar en el mercado con los existosos modelos B707 y DC-8.

En otro ámbito de factores, la situación política afecta sensiblemente al número de pedidos de los aviones. El caso de Irán, o el bloqueo de Rusia es un ejemplo. Sin olvidar el caso del Concorde.

El último factor digno de tener en cuenta tiene que ver con los tiempos de diseño, obtención de financiación para un proyecto y la capacidad de producción. Todo este proceso es lento, lleva varios años y, una vez arrancado, alcanza una inercia tan alta que cualquier modificación genera un efecto dominó que se prolonga bastante en el tiempo. Esto supone que el tiempo desde la toma de una decisión hasta comprobar si su resultado es el esperado o no, es largo y caro, muy caro.

¿Cómo es posible Aterrizar en el aeropuerto equivocado?


El 14 de enero un B707 carguero de la fuerza aérea iraní aterrizaba en el aeropuerto equivocado con una pista sensiblemente más corta. Como resultado, el avión se salió de pista y chocó contra unas viviendas, teniendo que lamentar 15 víctimas mortales y un herido grave, el mecánico de vuelo. Parece un hecho aislado, sin embargo, es un suceso mas habitual de lo que debiera y con consecuencias variadas. Pero ¿cómo puede una tripulación equivocarse de aeropuerto?

Si bien en algunas ocasiones confundir el aeropuerto tiene consecuencias desastrosas, sólo las desastrosas tienen eco en mediático y por lo tanto se hacen conocidas. El 16 de noviembre del año pasado, un MD88 realizó la maniobra de motor al aire cuando confundió el mismo aeropuerto. Sobrevoló el aeropuerto equivocado (Aeropuerto de Fath) y continuó a baja altura hasta llegar al correcto, 10 km más adelante aterrizando en el aeropuerto de Karj con seguridad.

Mapa de la zona con los dos aeropuertos en cuestión.

Cuando era aún un alumno piloto los instructores, previo a nuestros primeros vuelos solos, nos advertían que tuviéramos cuidado en no confundir el aeropuerto de Cuatro Vientos, donde teníamos nuestra base con la cercana base aérea de Getafe donde, un alumno novel aterrizó por error tiempo atrás. No entendíamos como era posible aterrizar en un aeródromo diferente en muchos aspectos… Pero pasó. ¿Cómo es posible que esto ocurra en otras partes del mundo?

Falsas apariencias.

En la historia moderna de la aviación, existen numerosos casos similares y con consecuencias dispares. Algunos muy conocidos sin que provocasen más daños que un sonrojo de los tripulantes afectados. Entre ellos el Boeing Dreamlifter que aterrizó en la pista 18 del aeropuerto de Jabara, 8 NM más al norte de la pista 19 del destino original, McConnell Airbase en Wichita.

                Torre de control: “Giant 4241 Heavy, do you know which airport you’re at?”

Piloto del Dreamlifter: “Well we think we have a pretty good pulse. Let me ask you this,… how many airports do, directly to the south of 1-9,… your 1-9 are there?”

Hace relativamente pocos años, un estudio realizado por la Universidad de Purdue, en Indiana, mostró datos sobre este tipo de equivocaciones. Si bien analiza los casos entre 1.992 y 2.012 da una idea general de ciertos comportamientos sobre este tipo de sucesos en Estados Unidos.

En el momento del diseño y construcción de una pista, entre los parámetros a tener en cuenta, la dirección predominante del viento es el más elemental. Por lo tanto, no resulta extraño encontrar pistas con la misma orientación o similar, si se construyen en la misma zona bajo la misma influencia del viento. En los dos casos planteados sobre el Dreamlifter y el 707 accidentado se da el caso.

Boeing 747 Dreamlifter diseñado para el transporte de piezas para la fabricación del B787. Operado por Atlas Air. (Foto: Scott Wright).

Según el estudio de la Universidad de Pursue, la diferencia en grados entre la pista correcta y la incorrecta es de 10º. Hecho que se dio en el 72% de los casos.

Ya sé lo que están pensando. Si observan la foto de satélite las diferencias entre los dos aeropuertos parecen obvios. Las terminales y las plataformas son diferentes y se encuentran en diferente disposición. En ambos casos, y en la vasta mayoría (casi un 90% en el caso del estudio de Pursue) a los que hemos podido tener acceso, la visibilidad era muy buena, con algunas nubes dispersas o pocas en varios casos, lo que a priori favorece la identificación correcta del aeropuerto.

Imagen de «Flight Instructor Guide».

Sin embargo, estudios referentes a la fatiga y cansancio de las tripulaciones, sobre todo en los últimos sectores volados del día, inducen al piloto a discriminar señales, que en el caso de ir descansado serían tenidas en cuenta. El cerebro humano busca en el exterior señales que le ayuden a identificar lo que el quiere identificar.

Además, tras estudios varios, en la mayoría de los casos existe una diferencia en el tamaño de las pistas. Tanto de largo como de ancho, y en un porcentaje altísimo se aterriza en la más corta. El piloto tiende a malinterpretar las señales visuales con la distancia a la que se encuentra la pista correcta que está viendo. Es decir, si la pista correcta debiera estar a 8 NM y la pista que ve la ve estrecha y más corta, visualmente se engaña a sí mismo pensando que se encuentra a esa distancia. En ese momento, el cerebro comienza a comparar cómo se vería una pista que se encuentra a 8 NM en su experiencia previa almacenada y se “desconecta” de la distancia que le indican los instrumentos.

Existen aeropuertos que, dados varios casos de confusión previos, incluyen las fichas de aproximación una nota de aviso para no confundirlo y permitir identificarlo correctamente. Algo, que por ejemplo no tenían en el accidente del 707 de Irán, además de una información incorrecta en la ficha de aproximación al aeropuerto.

Trust your Instruments…

Durante el estudio realizado por la mencionada universidad, demuestra como dato positivo, que la mejora en la instrumentación de las aeronaves ha hecho descender los casos. Entre los años 90 y los primeros años del siglo XXI. En la aviación general, que mayoritariamente vuela VFR, el disponer de instrumentos con pantallas de cristal que muestra al piloto su posición en un mapa ha supuesto un avance significativo al respecto.

Diferencias en la representación de intrumentos clásicos y modernos. Boeing 737 cálsico y Boeing 737 MAX 9. (Foto: Boeing).

En los casos de realizar una aproximación a un aeropuerto, el tipo de aproximación instrumental influye significativamente. En los casos estudiados, en el 90% de los casos se realizaban aproximaciones visuales o aproximaciones instrumentales de no precisión tales como aproximaciones VOR o GPS. En algunos casos, la aproximación esperada es un ILS, que de una manera u otra no se acaba realizando.

Ejemplo de aproximación de no precisión VOR DME. (Skybrary).

Las aproximaciones de no precisión conllevan a que el último tramo de final se suele volar estabilizado varias millas a fin de identificar visualmente la pista. Es natural en este tramo, pensar que se encuentra alto con respecto a una senda de descenso teórica. Si como comentábamos mas arriba, el piloto cree ver la pista antes de tiempo, y se encuentra alineada, tiende a eliminar de su ecuación la lectura de las millas que le quedan para la pista correcta. Si a la ecuación le añadimos que el piloto pueda pensar que el perfil publicado en la ficha de aproximación le deje alto, la solución es aterrizar donde no querías ir…

Esto último le pasó al B747 Dreamlifter. Según la NTSB (National Transport Safety Board), el piloto tenía la experiencia previa de que al realizar la aproximación GPS a la pista 19 de McConnel, el perfil le dejaba un poco alto. Esto más un avistamiento de la pista durante la aproximación, sucedió exactamente como comentamos en el párrafo anterior.

Cuatro ojos ven más que dos.

Durante los últimos 30 años de la aviación, el CRM (Crew Resource Management) ha sido una herramienta clave en el análisis del comportamiento humano a la hora de corregir errores y mejorar la comunicación entre los miembros de una tripulación.

A pesar de que el error no está exento del ser humano, hemos de servirnos de nuestro conocimiento para distribuir tareas entre los miembros de la tripulación para reconocerlos y enmendarlos antes de cometerlos, o evitar que nos lleven a cometer otros más graves. Así, en aviones multitripulados, las tareas se determinan para que el piloto vuela (Pilot flying) pueda disponer de la ayuda del otro tripulante (Pilot Monitoring) y éste a su vez sea lo suficientemente asertivo como para indicar al otro que algo no va bien.

En los casos más sonrojantes sobre estos sucesos, eran aviones multitripulados, lo que nos lleva a preguntarnos lo siguiente: ¿Verían todos lo mismo y estaban convencidos de que era la pista correcta? ¿Vería algo diferente y no se lo comunicó al PF?

En los casos estudiados en Estados Unidos, el 75% de los pilotos eran inexpertos (menores de 3200 horas de vuelo). Sin embargo, en tanto la experiencia aumentaba hasta las 5000 horas los casos disminuían. Por tanto, no existe correlación con los últimos sucesos al respecto: Southwest B737, Delta, B747 Dreamlift o el B707 accidentado.

Sí se ha podido constatar, según los informes de la NTSB, que en el momento que el PF decidía realizar la aproximación de manera visual, ambos pilotos pasaban a mirar fuera y se desprendían de la información o que los instrumentos les iban presentando. La NTSB ha recomendado que el PM ejerza una vigilancia de los instrumentos de navegación durante la aproximación y enfatice su función en esta fase.

Por otra parte, los controladores, aunque no siempre, disponen de información radar que en momentos cuando no existe demasiada carga de trabajo, pueden y deben, fijarse en las aeronaves a las que dan servicio. Tengo en mi experiencia aeronáutica previa varios casos de diversa consideración en la que su ayuda hubiera sido o fue elemental. Aunque sus ojos no estén en el cockpit, tenemos su voz.

¿Pista o rodadura?

Existen numerosos casos, algunos muy conocidos por los pilotos en los que, si bien es el aeropuerto correcto, lleva a una situación tan grotesca como aterrizar en la rodadura paralela a la pista. Me vienen a la mente dos concretamente: El aeropuerto del el Prat en Barcelona y el de San Francisco.

En Barcelona se hizo famoso un Tupolev 154 que, tras un intento, aterrizó sin consecuencias en la rodadura paralela a la pista 25R en marzo de 2.005. Aquel día, la pista 25R no disponía de ILS y el PAPI (Indicación visual de senda) estaba también fuera de servicio. Por otra parte, las luces de aproximación se encontraban encendidas correctamente. Además, el tipo de aproximación era una de no precisión basada en el VOR del aeropuerto, que volada con un Tupolev de instrumentación clásica complicaba su precisión. En cuanto a las actuaciones de la tripulación, no se desenvolvían en el ámbito de PF y PM por lo que se alejaban de lo expuesto anteriormente del modelo CRM de aquel momento.

Secuencia de aterrizaje sobre la rodadura T del Tu-154 de Aeroflot en el aeropuerto de Barcelona. (Fotos: CIAIAC)

El piloto confundió la rodadura con la pista y convencido de ello, aterrizó. Es curioso como factores expuestos anteriormente se alinean y dan lugar a situaciones parecidas.

Otro caso similar es el de San Francisco que, debido a su disposición de pistas, llevó a un avión de Air Canada a iniciar un motor y al aire sobre la rodadura paralela a la pista de aterrizaje. En este caso recientemente, de noche y con un Airbus de nueva generación.

Conclusión.

En este artículo se ha intentado explicar las posibles causas que pueden llevar a una tripulación a cometer el error de aterrizar en el aeropuerto equivocado.

Cómo suceden en la inmensa mayoría de los incidentes y accidentes de la aviación civil, es un conjunto de causas o eventos y no una sola que de manera aislada la que los provoca.

Evitar aterrizar en un aeropuerto equivocado nos lleva a enfatizar el uso de nuestros instrumentos de navegación, incluso cuando nos pueda parecer evidente que la pista que está delante es la correcta.

El uso de todas las herramientas necesarias, como una buena función del piloto que no vuela, especialmente en días en lo que el cansancio es más notorio, es vital a la hora de interpretar bien lo que vemos y no centrarnos sólo en lo que queremos ver.

La importancia de un buen briefing de aproximación e Interpretar bien las cartas de navegación son de gran ayuda. En algunas compañías, no se realizan aproximaciones visuales si no se han comentado antes en el briefing.  

No obstante, ante la duda, un motor y al aire a tiempo siempre es la mejor solución.

Los pioneros del transporte aéreo y sus dificultades.

Después de la Gran Guerra, a primeros del siglo XX., en Estados Unidos la aviación estaba considerada como un deporte de gente rica y un peligroso entretenimiento (Barnstorming o flying circus) realizado por veteranos pilotos de guerra que volvían a casa y querían seguir haciendo de la aviación su modo de vida. Sin embargo, la guerra trajo consigo mejoras en los aviones y le fue encomendada una tarea que marcó un hito en el transporte aéreo y que ya antes de la guerra había logrado dar sus primeros pasos: El transporte de correo por vía aérea.

El transporte de correo en la preguerra y la postguerra.

Desde el momento mismo en que las máquinas voladoras hicieron su aparición, las hazañas consistían en hacerlas volar, desde unos pocos kilómetros hasta cientos de ellos; Hacer funcionar sus motores sin que fallaran al mantenerlos constantemente funcionando no era aún fácil. Además, el medio en que se desarrollaba, el aire, era algo bastante desconocido.

Cuando mantenerse en el aire pudo desarrollarse un poco más, comenzaron las ideas de cómo utilizar las aeronaves: La guerra y el comercio. El transporte de correo se adelantó a la Gran Guerra que estallaría en 1.914. Sin embargo, debido al aún bajo desarrollo tecnológico y el desconocimiento seguía generando reticencias. No hay que olvidar que ambos propósitos necesitaban de la fiabilidad necesaria y aún estaba por demostrar.

Durante la preguerra, existían numerosos intentos de crear rutas aéreas de correo. En Inglaterra, en 1.910, Claude Graham – White, hizo uno de los primeros vuelos. En Estados Unidos ya se habían realizado intentos en febrero de 1.911 con resultados dispares. También en septiembre de 1.911, Francia utilizó un Breguet biplano para llevar correo entre sus colonias Casablanca y Fez. También en septiembre de ese mismo año, en Italia, el piloto Achille Dal Mistro realizó el intento de llevar correo entre Bolonia y Venecia con un monoplano Deperdussin. Se estrelló en la playa de Lido. Afortunadamente salió ileso. Posteriormente en Alemania, en 1.912 se completó el vuelo entre Darmstad a Munich.

Achille Dal Mistro.

En España hasta 1.920 no aparece el primer “correo aéreo”.  Y en Sudamérica, la aviación como transporte de correo no aparece hasta finales de los años 20. Aeroposta Argentina en septiembre de 1.927 es un buen ejemplo de ello, fruto también de Pierre-Georges Latécoère.

Desde los primeros vuelos realizados por los hermanos Wright, Santos Dumont y otros, llamémosles ingenieros, hasta la terminación de la Primera Guerra Mundial, la aviación había sufrido una mejora tecnológica en los aviones, motores y técnicas de vuelo. Curiosamente, los avances tecnológicos en aviación provenían de Europa.

Durante la postguerra, el desarrollo del transporte aéreo, los servicios postales dieron cuenta de esas mejoras tecnológicas y realizaron inversiones en ampliar y mejorar sus servicios postales. En Estados Unidos, el Congreso aprobó $100.000 para el desarrollo de esta red de la denominada U.S. Air Mail Service. El objetivo era transportar correo de costa a costa batiendo al ferrocarril. Sin embargo, llegar hasta ahí no fue fácil. Inicialmente no tenían ni respaldo político ni económico.

Ruta transcontinental de correo aéreo U.S. Postal Air Service (1.924).

Hay que tener en cuenta que, en esos tiempos, el tren tardaba cerca de 90 horas en recorrer el país. Gracias al servicio aéreo de transporte el tiempo se redujo a 30 horas.

En Europa, el transporte de correo se desarrolla de manera diferente que en Estados Unidos. Europa, a primeros del Siglo XX. tiene una situación geopolítica en la que sus países tienen colonias a grandes distancias. Estados Unidos, por el contrario, no. Aunque es un país muy extenso, es homogéneo políticamente y volcó su esfuerzo en desarrollar tecnológica y estructuralmente para lograr una eficiencia en sus rutas de correo aéreo mucho mayor que el europeo.

Europa tiene gran éxito en el desarrollo de sus líneas ya que durante la guerra habían quedado destruidas numerosas vías de ferrocarril y carreteras que tardarían en reconstruirse, facilitando al aéreo como método de transporte. De hecho, como dato curioso, mientras que en Estados Unidos se habían creado dos aerolíneas con hidroaviones (Saint Petersbourg – Tampa Airline en 1.913; Chalk´s Ocean Airlines en 1.917), para la misma época en Europa ya había mas de una decena de ellas con aviones terrestres. Algunas de las cuales siguen operando hoy en día.

Los aviones.

Cuando comenzaron a construirse las primeras aeronaves, carecían de instrumentación necesaria para navegar. Apenas algún instrumento de motor y una brújula en el mejor de los casos. De hecho, Lindberg cuando se dispuso a cruzar el Atlántico en su vuelo en solitario introdujo como novedad instrumentación para poder volar de noche: Los giróscopos.

Los aviones utilizados en el periodo de preguerra eran aviones muy endebles, bajas características de vuelo y motores de poca potencia. Los intentos de llevar correo se limitaban a una saca con un número de cartas muy limitado. Era más un acto simbólico que un verdadero servicio de transporte. Los aviones tenían además grandes limitaciones de peso y espacio en las que apenas cabía el piloto con su traje de vuelo y una pequeña bolsa.

Fue durante la guerra cuando los fabricantes comenzaron a desarrollar nuevos y mejores aparatos. De hecho, ya finalizando la IGM, para la creación del correo en Estados Unidos convirtieron aviones Curtiss JN-4H, más conocidos como “Jenny”, en aviones de transporte de correo. Los “Jenny” se hicieron muy populares en la época al participar en los circos volantes, entrenadores del ejército y posteriormente en los primeros aviones de correo. La primera ruta elegida fue la que unía Washington y Nueva York.

DH4 en la versión de correo aéreo.

Durante este tiempo, surgió la idea de promover los vuelos transcontinentales. Sin embargo, había que disponer de un avión que reuniese mejor los requisitos para realizar este tipo de vuelos. El ejército probó varios modelos en sus líneas de correo. Necesitaban que fueran capaces de vencer el terreno que separaba la costa este de la costa oeste, tener la capacidad de carga suficiente para las sacas de correo y tener una fiabilidad mayor para volar varias horas seguidas. El modelo elegido fue el DH4, avión del fabricante inglés De Havilland especialmente diseñado para tal propósito.

El DH4 se convirtió en los años 20 como el caballo de batalla de las líneas de correo demostrando su valía cruzando las montañas rocosas lo que posibilitó los vuelos transcontinentales en Estados Unidos. De esta manera, y dada la oposición del Congreso de los Estados Unidos a la utilización del avión como medio de transporte, demostró que podía hacerlo con unos niveles de seguridad aceptables para la época de la que se trata.

En Europa, para esos años, ya se habían establecido líneas aéreas en las que se combinaban el transporte de correo y pasajeros. Especial mención cabe mencionar a Líneas aéreas Latécoère, fundada por Pierre-Georges Latécoère. Pierre era un constructor de aeronaves que decidió unir Francia, a través de la costa levantina española, con sus colonias en el norte de África, y de allí a Sudamérica.

Los aviones más destacados utilizados por Latécoère eran los modelos Latécoère 26 y 28 principalmente. El modelo 26 se construyó como modelo de avión de correo. Y en cuanto al modelo 28, supuso un avance sensiblemente mayor. Aunque el primer modelo iba equipado con motor Renault, todas las demás versiones iban equipadas con los fiables motores Hispano-Suiza. El avión tenía una capacidad de llevar 928 kg o hasta 8 pasajeros, comparado con la versión 26 que tan solo llevaban dos pilotos en tándem y un pequeño compartimento para carga.

Hasta ese momento, los estudios de fatiga eran casi inexistentes y el mantenimiento era aún muy básico. Hasta tal punto este hecho tuvo tal importancia, que debido a problemas técnicos en sus aviones, tras largas horas de vuelo hacia Sudamérica, Pierre-Georges se vio obligado a vender casi la totalidad de su empresa. Con el tiempo, acabaría convirtiéndose en Air France.

Los pilotos.

Varios pilotos se convierten en esta época, en personajes de sobra conocidos más allá de la aviación: Charles Lindberg y St. Exupery son los más famosos. El público todavía ve a la aviación como una aventura desconocida. La publicidad ante un medio puesto en cuestión es vital en los primeros años.

Los primeros pilotos, tanto en Estados Unidos como en Europa aprendían a volar en los mismos sitios. En los primeros años de la aviación, los fabricantes de aeronaves eran los primeros interesados en que la aviación se desarrollase. Los propios fabricantes eran al mismo tiempo fabricantes, escuelas de vuelo y cuando aparecieron las primeras compañías de aviación, los dueños de éstas. Además de los aeródromos como se menciona más adelante.

Con el tiempo, ya en la postguerra, algunos pilotos que participaban en circos aéreos, donde ofrecían vuelos de bautismo a los interesados, y ellos mismos se convertían en instructores. Las hazañas de algunos pilotos daban la publicidad suficiente para que la gente de a pie pudiese conocer y, ya de paso, ¿por qué no convertirse en piloto?

«Suicide Club» de pilotos veternaos de la WWI.

La otra rama de formación era el ejército. Entonces todavía perteneciente a la rama del ejército de tierra, formaba sus pilotos. Los primeros vuelos de correo en Estados Unidos con los “Jenny” permitió que fueran volados por pilotos noveles para adquirir experiencia de vuelo antes de ir a la guerra. Los vuelos de la USPOD (US Postal Department) fueron desarrollados exclusivamente por pilotos militares hasta agosto de 1.918, fecha en la que los primeros pilotos civiles fueron contratados.

Las infraestructuras: Los aeródromos.

A parte de los aviones, otro de los elementos básicos y necesarios para poder volar, son los aeródromos. Cuando a primeros de siglo aparecieron las primeras aeronaves los aeródromos no existían. De hecho, el primer aeródromo data de 1.909 en College Park, Maryland, en Estados Unidos. Antes incluso que los primeros vuelos comerciales pudieran tener lugar.

Durante la segunda década del siglo XX. se produjo un crecimiento en el número de aeródromos. Sin embargo, al contrario que hoy, los aeródromos no los construían las autoridades, las ciudades o los estados. Durante los primeros vuelos comerciales, los visionarios se dieron cuenta que para poder abrir sus rutas de correo o pasaje debían establecer aeródromos adecuados donde no sólo utilizar un terreno para aterrizar y despegar, sino construir un hangar, disponer de combustible y otras instalaciones necesarias como torres de señales y oficina de ventas. Eran las empresas las que compraban los terrenos y los explotaban para sí mismos. Véase Pan American.

Aeródromo de la Volatería. Futuro aeropuerto de el Prat, Barcelona, España. Anteriormente, los vuelos se desarrollaban en el hipódromo de Can Tui hasta 1.916. Con la llegada de Latécoère se desarrolló el aeródromo que hasta encontes contaba con una escela de vuelo y algún taller y hangar para dirigibles.

En otro caso muy significativo eran las líneas del correo en Estados Unidos. Al establecer las rutas de correo entre la costa este y la costa oeste, se tuvieron que edificar aeródromos. Algunos de ellos de emergencia o alternativos si se encontraban con meteorología adversa o problemas mecánicos. Estos contaban con médico, avituallamiento, mecánico y combustible entre otras cosas en horario de 24/7. Además, los techos de los edificios de los aeródromos tenían un número que era bien visible desde el cielo para indicar al piloto en qué aeródromo de la ruta se encontraba. Dichos números indicaban a su vez en que punto en millas de la ruta se encontraban.

Inicialmente, los aeródromos no eran superficies rectangulares alargadas. Y mucho menos asfaltadas. Eran tan solo superficies en las que podían despegar y aterrizar en cualquier dirección sin importar el viento que hubiera. Con el tiempo, pero ya en los años veinte, comenzaron a aparecer las primeras superficies rectangulares. Esto se debió principalmente a que requerían menor espacio de terreno que uno circular.

La navegación.

En los primeros años de operación comercial, las aeronaves carecían de la instrumentación necesaria para la navegación. De hecho, antes incluso de poner en marcha iniciativas comerciales, los aviones se trasladaban por tierra a los aeródromos y volaban por la zona. Estaba considerado un reto cuando comenzaron a realizar rutas a otros destinos. La fragilidad de los aparatos y la falta de conocimientos de navegación llevaba consigo riesgos muy altos de accidente debido a desorientaciones y problemas técnicos que hacía a los aviones estrellarse, con resultados fatales en muchos casos.

Cuando comenzaron las primeras rutas de correo en los Estados Unidos, los pilotos utilizaban la brújula más grande que había en aquel momento: Seguir las vías del ferrocarril. Con el tiempo se desarrollaron nuevos métodos de navegación que les permitiría realizar vuelos a distancia. Como curiosidad, todavía en Estados Unidos existen restos de unas flechas de hormigón de gran tamaño que indicaban la dirección del siguiente punto de la ruta.

Flecha de hormigón de las muchas que aún quedan.
Principios del vuelo nocturno.

A primeros del año 1.921, el Congreso de los Estados Unidos amenazaba con retirar los fondos al proyecto del correo aéreo defendiendo al tren como mucho más eficiente que el avión. Así, para poder ser aún más rentables, se decidió intentar realizar vuelos nocturnos.

En una heroica acción, dos pilotos se atrevieron a realizar un vuelo nocturno, Frank Yeager fue el primer candidato , y Jack “Skinny” Knight el siguiente. No obstante, para solucionar el problema de la oscuridad, se solicitó a los granjeros y otras personas que vivían en las inmediaciones de la ruta que utilizasen las luces de sus vehículos para poder guiar a los pilotos. Estos, enfocaban con sus luces en la dirección del siguiente punto de la ruta. Este primer vuelo fue un éxito.

Jack «Skinny» Knight en 1.921 tras el vuelo nocturno en su llegada a Chicago.

Poco tiempo después, viendo el riesgo que suponía y el número de accidentes se decidió suspender los vuelos nocturnos. Esto sucedió así hasta 1.923, año en que miembros del U.S. Air Mail Service se pusieron en contacto con tres empresas: Sperry, Westinghouse y American Gas Accumulator. En conjunto habían diseñado un faro que situarían en una torre de señales cada punto de la ruta. Aproximadamente cada 40 NM, lo que permitiría el guiado nocturno de los aviones. Así, la ruta entre Cheyenne y Chicago se convirtió en la primera ruta iluminada de la historia.

Estructura de aeródromo de emergencia de las rutas transcontinentales del US Postal Air Mail Service con el faro en su torre. Obsérverse el número sobre el tejado y las letras con el nombre del lugar geográfico.

Ya a finales de los años 20, se comenzaron a instalar los primeros radiofaros. Mediante un instrumento a bordo del avión, era capaz de recibir la señal de un radio faro situado en tierra y que emitía mediante ondas de radio. El instrumento tenía una rosa de rumbos que le indicaba la procedencia de la señal. De este modo eran capaces de navegar sin referencia visual con el terreno. Había nacido el vuelo por instrumentos.

A finales de los años veinte, el transporte aéreo dio un vuelco y comenzaron a extenderse las compañías de aviación privadas. La tecnología había permitido el diseño de aviones terrestres e hidroaviones de mayor tamaño y comenzaban a expandir sus servicios de transporte aéreo conjunto de pasajeros y correo como ya ocurría en Europa.

Dada la expansión del transporte aéreo, nacerían las primeras administraciones de aviación civil, comenzarían a trazar rutas aéreas, normas de seguridad, y con el tiempo, Convenios Internacionales, como el de Varsovia en el año 1.929, verían nacer, ya en 1.944, el Convenio de Chicago y que daría lugar a OACI (Organización de Aviación Civil Internacional). Pero entre tanto, el transporte aéreo había comenzado una andadura que iría desarrollándose durante los años 30 y que había tenido el origen en los vuelos de correo de las segunda y tercera década del siglo XX.

EMAS: Protección ante las salidas de pista.

El pasado 6 de diciembre, un B737-700 de Southwest tuvo un runway excursion en el aeropuerto de Hollywood Burbank, California. La aeronave se detuvo al final de la pista gracias a un sistema de frenada conocido como EMAS. ¿Qué sabemos de esta superficie?

También conocidos como “arresting beds”, son unas superficies localizadas al final de las pistas de unmaterial especial, frangible, y con la capacidad de absorber altas cantidades deenergía, evitando a las aeronaves en peligro de salirse de pista que puedanhacerlo, y con ello salvar vidas y daños irreparables a las aeronaves.

Principios.

Dicha tecnología se desarrolló en los años 90 por Zodiac Arresting Systems, hoy parte de SAFRAN, como colaboración con la FAA norteamericana.

Las estadísticas de salidas de pista entre 1.975 y 1.987 decía que el 90% de los aviones se salían a velocidades de 70 kt o inferiores y recorrían una distancia de hasta 300 m. hasta llegar a detenerse por completo.

Además, existían riesgos en aeropuertos donde por geografía u otros motivos, el área de seguridad (RESA) alrededor de la pista planteaba problemas para cumplir con una normativa de seguridad posterior a su construcción. Obsérvese que los requisitos para la RESA OACI difieren de la FAA.

Diferencias entre OACI y la normativa FAA. 

Así, para minimizar riesgos en las salidas de pista de los aviones que pudiera poner en peligro a sus ocupantes y a la aeronave, se propuso el diseño de un sistema que permitiría detener a las aeronaves: Engineered Materials Arresting Systems  ó EMAS.

¿Cómo funciona?

El EMAS, utiliza los mismos principios que las zonas de frenada de grava en las carreteras de montaña.

Es una superficie formada por entre 2.000 y 4.000 cubos colapsables pegados entre sí y prácticamente al mismo nivel que la pista, de su mismo ancho y de una longitud normalmente cercana a los 200 m. Los cubos están fabricados a base de agregar un relleno de material espumoso al cemento, creando burbujas en su interior. Estas burbujas disminuyen su densidad y provoca que se colapsen para absorber la energía de frenado.

Composición de los cubos.

Cuando un avión entra en el EMAS, los cubos de casi un metro de lado se rompen y la fricción entre ellos hacen absorber la energía del avión hasta detenerlo. Como requisito añadido, es resistente al jetblast, por lo que cuando un avión despegue dejando atrás esta superficie, no se verá afectada.

La seguridad es cara, pero ¿merece la pena?

En términos de seguridad, siempre que se mejore merece la pena. Sin embargo, la instalación de este sistema es muy caro. Además, sólo se puede usar una vez.

En 2.008 un B747 de Kalitta se salió de pista en el aeropuerto de Bruselas, provocandoque el avión partiera el fuselaje en dos. Afortunadamente en este caso no huboque lamentar heridos. Tras un posterior análisis, la existencia de un EMAS hubiera evitado la pérdida del avión.

Ejemplo de planificación de EMAS con un B747. En este caso, a 70kt necesitaría una distancia de casi 600ft. (FAA Advisory Circular 150/5220-22B).

A día de hoy, un total de 13 aeronaves han sido detenidas utilizando el EMAS. Desde un Cessna Citation hasta un Boeing 747, evitando heridas a 288 personas y la pérdida o daños a las aeronaves.

Desde el punto de vista económico, si tenemos en cuenta que la instalación de un EMAS ronda en torno a los €4 millones (740€/m2), que su mantenimiento ronda los 0,4 €/m2 en 3 años, y que una reparación depende del número de cubos que hayan absorbido energía, no hay que echar muchos cálculos para saber que merece la pena la inversión en muchos aeropuertos donde la RESA esté comprometida.

A todos nos viene a la cabeza el accidente de un A340 de AirFrance en Toronto o el B767 de Delta en Madrid.

Utilizar el EMAS. ¿Cómo sabemos si está disponible?

El EMAS, está certificado su uso para pistas secas. Siendo conservativos, la frenada en condiciones de pista mojada o contaminada puede considerarse desconocida o peor que en pistas secas. Sin embargo, en estudios y pruebas se han realizado frenadas en pistas contaminadas y mojadas y se han conseguido la frenada dentro del EMAS en todas ellas, ya que, aunque la pista esté contaminada, el efecto del EMAS no se ve afectado.

Como conclusión, aunque las condiciones de pista se vean afectadas por contaminante, estará mejor que la RESA, y por lo tanto la consideración en todo caso de una pista con EMAS es siempre un punto a favor de la seguridad.

Si bien es cierto, que en algunos aeropuertos el EMAS está localizado en pistas más cortas (Véase JFK RWY 22L/04R), en un eventual aterrizaje de emergencia la existencia o no, de un sistema de frenada como el EMAS debe ser un factor a tener en cuenta en la elección de la pista.

Representación en Lido y sus marcas sobre la superficie (RWY 32L LEMD).

En la cartografía Lido, viene representada como en la imagen superior. Un rectángulo añadido al final de la pista con una especie de rayo oblicuo. Y las marcas que veremos serán unas líneas angulares amarillas en forma de “v” con el vértice más cercano a nosotros si nos aproximamos hacia el final de pista.

Quiebra de Primer Air. La consolidación es la supervivencia de las líneas aéreas.

Quiebra de Primer Air. La consolidación es la supervivencia de las líneas aéreas.

Primera Air no es ni será la última de las aerolíneas que sufran las vicisitudes de un mercado marcado por la gran competencia a nivel global. Todas aquellas que vayan solas están avocadas a un destino similar.

Primera Air y sus predecesoras.

El cese de operaciones de Primera Air tras 14 años en activo, a pesar de que al mercado le ha pillado por sorpresa, venía siendo hace unos meses un quebradero de cabeza para sus directivos. Los números de 2.017 nada hacían presagiar el desenlace de este mes de octubre. Sus ingresos habían crecido un 14% respecto al año anterior y sus coeficientes de ocupación se situaban en torno al 85%.

Si bien la falta de financiación ha sido la causa determinante no ha sido el origen. A partir de finales de 2.017 problemas con un avión, retrasos en las entregas de los nuevos 737max y A320neo le han supuesto una disminución de ingresos sensible. Además, para poder responder ante sus clientes se vieron obligados a alquilar otros aviones provocando un coste adicional de €20 millones.

Primera Air, Boeing 737.

Tras este cúmulo de circunstancias operacionales, aumentos puntuales de costes y no ser capaz de alcanzar una economía de escala suficiente para poder mantener unos costes bajos darían por finalizado su recién estrenada apuesta por los vuelos de bajo coste de largo radio.

La compañía necesitaba urgentemente una financiación que le permitiera aguantar el invierno. Una financiación que no llegó nunca y precipitó el cese de operaciones.

Sin embargo, Primera Air, no ha sido la única. Todos recordamos a la Alemana Air Berlin o la inglesa Monarch. Todas ellas caminaban tambaleándose en busca tan ansiada financiación mientras reajustaban sus costes y sus ingresos. Pero tal esfuerzo fue vano y supuso su desplome a merced del mercado.

La desregulación. El pez grande se come al pequeño.

Después de la desregulación del año 1.978 llevada a cabo por la administración de Jimmy Carter, aparecieron un gran número de compañías aéreas. A finales de los años 80, el número de compañías aéreas era inferior al número previo a la desregulación.

Dicha desregulación, en palabras de Stephen Breyer, desencadenó numerosos problemas que nadie en aquellos años podía señalar de antemano: disminución de la calidad del servicio a los pasajeros, exceso de capacidad aeroportuaria con retrasos frecuentes, y desplome de las condiciones laborales, entre otras.

Airline Deregulation Act. firmada por Jimmy Carter.

Si bien es cierto que el aumento de competencia inicial hizo bajar las tarifas de los billetes, principal objetivo de la medida, llevó a las aerolíneas a tomar medidas estratégicas para sobrevivir a la fuerte competencia: La consolidación.

Las aerolíneas comenzaron a comprar o fusionarse de manera que generasen el suficiente tamaño para poder competir a unos costes razonables, tener mayor solidez financiera para enfrentarse a problemas cíclicos y tener acceso a mercados donde antes no estaban o no les era accesible.

De esta manera, hoy en día tan sólo quedan cuatro de aquellas aerolíneas: Delta, American Airlines, United (“The Big Three”) y Southwest. Sí, algunas independientes hay, nacidas recientemente como Allegiant, Frontier o Spring Airlines. Todas ellas LCC que luchan por hacerse hueco en pequeños mercados. No obstante, pertenecen a grandes grupos de inversión con participaciones en Ryanair o Viva.

¿Y en Europa?

En el año 1.997, año en que Europa siguió el camino de la desregulación, tuvo el mismo efecto que tuvo en Estados Unidos. Inicialmente, el mercado sufrió una explosión de nuevas aerolíneas, muchas de ellas LCC nacidas de aerolíneas tradicionales como Deutche BA o GO de British Airways con el propósito de luchar por cuotas de mercado más allá de sus hub.

Principales grupos aéreos consolidados.

Con el tiempo, tan solo tres grandes grupos quedan en el tablero de juego. International Aviation Group (IAG), Grupo Lutfhansa y AF – KLM. De hecho, aunque algunos mantengan comercialmente su nombre original, su propietario es uno de estos grupos. Más allá de estos grandes grupos se encuentran las LCC Easyjet, Ryanair y Wizzair, aerolíneas muy enfocadas al bajo coste y que tienen tras ellos grandes grupos financieros.

Consecuencias a medio plazo.

Cada vez que el mercado sufre una reducción en la demanda debido a crisis económicas, subidas del precio del petróleo u otros factores geopolíticos, se produce una sobrecapacidad que tan solo se puede ajustar con flexibilidad de flotas, recorte de costes operativos y mejora en las productividades de sus trabajadores. Tristemente es así. Rigas Doganis en su libro “Flying off course” lo explica francamente bien.

Dadas estas circunstancias la competencia se vuelve feroz, el CASM (Coste por asiento) se dispara y los ingresos unitarios (Yield) bajan drásticamente. Es un efecto similar al que sucede tras la temporada de verano, pero que se alarga en el tiempo y con mayor calado en las cuentas.

Tener una solidez financiera permite aguantar e invertir en mejoras para ajustar la producción y la capacidad a la demanda real del mercado. Como curiosidad, es normalmente cuando se suelen adquirir aviones más modernos y a mejores precios.

¿Y si no se cuenta con esa solidez? Muchas aerolíneas han peleado por mantener y conseguir financiarse a través de la inversión de grupos de aerolíneas como Etihad en Air Berlin, o Qatar Airways en Spanair. Otras, mas pequeñas lo han conseguido a través de bancos, o no… Es así cuando surgen los problemas y los cierres.

Air Berlin 737-800 (Foto:FEliz Gottwald) y Spanair MD – 83 (Foto: 54north)

Durante años, hemos visto el mismo efecto que sucedió en Estados Unidos. La asociación entre aerolíneas con intereses comunes, la absorción de unas a otras, o bien la fusión en grandes grupos aéreos. O’leary, CEO de Ryanair, no esconde sus intenciones, a pesar de las huelgas y disminución de sus ingresos este verano, tiene la cartera llena. El Brexit y el aumento del precio del petróleo a la vuelta de la esquina, provocará una situación que pondrá en serios problemas financieros a algunas aerolíneas y no tiene el más mínimo pudor en hacerse con ellas como ya hizo antes. Véase Lauda Motion o Buzz.

Una consolidación, un amigo.

Durante la liberalización del mercado aéreo, tanto en Estados Unidos como en Europa, llevó a las aerolíneas a comenzar a buscar una mayor eficiencia dentro del mercado. La propiedad de las aerolíneas comenzó a desligarse de los estados y a caer en manos privadas. El retorno de la inversión, como cualquier empresa debía ser el objetivo principal.

Entre las estrategias seguidas por las aerolíneas, eran la de reducción de costes al máximo y con ello aumentar los índices de ocupación de sus vuelos. Donde antes una aerolínea necesitaba tener una ocupación del 45-55% de ocupación para llegar al Break even, ahora necesitaba aumentarlo por encima del 75%. Como solución a este problema era consolidar rutas a través de una estructura de HUB & SPOKE.

Rutas HUB & SPOKE.

Con el tiempo, se sucedieron los acuerdos de códigos compartidos entre aerolíneas. Así, una aerolínea podría vender billetes de tramos volados por otra. Es decir, un pasajero podría comprar un billete Madrid – Londres – Boston, y cuyo vuelo fuera operado por Iberia en el primer sector y por British Airways el segundo.

Con el tiempo, estos acuerdos se fueron estrechando y la colaboración pasaba por Joint Ventures en determinadas áreas como mantenimiento o instrucción de tripulaciones. Dados los buenos resultados y las sinergias positivas que se sucedían, el siguiente paso era la consolidación.

Cuando British Airways e Iberia crearon el grupo IAG, British tenía serios problemas de caja debido al cambio en la ley sobre las pensiones. Sin embargo, la asociación con Iberia trajo consigo la solución.

En otro ámbito, una asociación comercial permite integrar sus sistemas de venta de billetes y carga aérea, aumentando los índices de ocupación de sus aviones, optimizar sus rutas y enlazar sus hub de manera coordinada.

Crear estrategias comunes también les permite hacerse con mayor número de aviones a mejores precios, negociar servicios aeroportuarios y de escala como los hoteles de sus tripulaciones, transportes, etc.

Tales son los beneficios que IAG cuenta hoy en día, además de BA e Iberia, con Vueling, Aer Lingus y su nueva marca Level.

Conclusiones y futuro inmediato.

La consolidación es la herramienta de la que disponen las aerolíneas para poder seguir ofreciendo billetes a precios competitivos, y que lleva consigo muchas ventajas para poder sobrevivir, reducir costes, aumentar ingresos y retornar una inversión a los accionistas. Las aerolíneas son empresas que durante muchos años se han visto envueltas en las presiones del mercado y muchas de ellas han sucumbido por el camino.

Igual que años pasados, podemos ver como cada vez quedan menos aerolíneas que caminan solas en el mercado, y las que lo hacen adolecen de problemas continuos. Alitalia sigue viviendo gracias a una financiación estatal a la espera de su objetivo, que es ser vendida a un grupo inversor que saque a la compañía de su crítica situación actual.

Norwegian es otro de los casos que más sacuden la prensa del sector. Tras sus resultados del tercer trimestre se volvió a desplomar en bolsa y su situación financiera es delicada. IAG es uno de los candidatos a hacerse con ella. No obstante, deberán tomar medidas drásticas en cuanto a recorte de rutas, venta de activos (aviones aún sin entregar que venden para paliar sus pérdidas), u otra serie de soluciones.

BAe 146 – 300 QT ASL Spain (Pan Air Líneas aéreas). Foto: José Velasco

La consolidación de aerolíneas no sólo sucede con las grandes aerolíneas, entre las cargueras, ASL Ireland se ha hecho con la mayor parte de las aerolíneas subsidiarias en Europa: Panair líneas aéreas, TNT Airways, Farnair Hungary y Farnair Swizterland. Aerolíneas regionales como Air Nostrum y la irlandesa Cityjet han firmado hace poco su fusión en el mayor grupo aéreo de aviones regionales de Europa.

En Amércia del sur, el grupo LATAM es el más grande con aerolíneas en varios países del continente americano. Y, en Oriente Medio se escuchan ya los rumores sobre la fusión entre la dubatí Emirates y Etihad de Abu Dhabi.

Lo que pasará es difícil de predecir, pero desde luego la creación de grandes grupos de aerolíneas es una estrategia que ha venido realizándose desde la liberalización del mercado a finales del siglo pasado, y que seguirá como remedio a la gran competencia.