El CRM Training es una herramienta poderosa, lo suficientemente potente como para romper los eslabones de la cadena de eventos de accidentes individuales; manejar el error correctamente, detectarlo por adelantado, disminuir su incidencia y mitigar sus consecuencias. Todo lo anterior antes del accidente.
El CRM nació en 1979, en la conferencia ‘Resource Management in the Flight Deck’ promovida por la NASA.
Los estudios longitudinales llevados a cabo por prestigiosas instituciones mostraron no solo la implicación de los factores humanos en incidentes de vuelo y accidentes, sino también la falta de coordinación llevada a cabo por las tripulaciones. Concluyeron que la mayoría de los accidentes de aviación tienen muchas características en común, y no estaban relacionados con las habilidades técnicas del piloto, sino con el trabajo en equipo. CRM surgió entonces con la intención de establecer barreras efectivas contra el error.
Si queremos desarrollar estrategias para reducir el Error Humano, tendremos que mirar más allá, tratando de buscar los Factores Contribuyentes verdaderos que han empujado a las tripulaciones a cometerlas, fallar en su detección o permitir consecuencias de seguridad inaceptables. Debemos ser lo suficientemente valientes como para conocer el estado real de nuestras organizaciones y empresas en todos los niveles, más aún cuando la vulnerabilidad de nuestros sistemas de gestión de seguridad está aumentando por la influencia de una multitud de factores como el aumento del tráfico aéreo, la multiculturalidad, la diversidad de flotas, rutas, servicios y fundamentalmente nuestra incapacidad real para definir estrategias de prevención efectivas.
Al principio, la incorporación del concepto de CTM (Cockpit Task Management) al CRM Training se consideró un paso vital. La gestión de recursos implicó la priorización de todos los recursos disponibles en la cabina, enfatizando primero en el control de la aeronave, seguido de la navegación, las comunicaciones internas y externas, y finalmente los sistemas adecuados y la administración del equipo de vuelo. Más tarde, Jensen definió el CRM en términos relacionados con el proceso de toma de decisiones: «Aplicación del buen juicio en la aviación dentro de un equipo»; incluyendo la dimensión social y enfatizando la comunicación y las relaciones interpersonales. Helmreich y Foushee desarrollaron un modelo basado en habilidades grupales y personales que incluyen conceptos relacionados no solo con la interfaz hombre-máquina y Situational Awareness (SA), sino también con otras actividades y habilidades interpersonales como liderazgo, teambuilding, resolución de problemas y procesos de toma de decisiones.
TEM (Threat Error Management) es una de las últimas evoluciones de este tipo de Entrenamiento; de hecho, se conoce como la Quinta Generación de CRM. Los estudios realizados por el profesor James Reason en los Errores supusieron el regreso a los orígenes del CRM, retomando un concepto a veces olvidado: la infalibilidad del ser humano y su predisposición al error.
El TEM está relacionado con el origen de LOSA (Line Operations Safety Audits) y el creciente interés de algunas compañías en conocer el grado en que las instrucciones recibidas por sus equipos tuvieron un reflejo en su comportamiento a bordo. LOSA es el resultado de una cooperación profunda y completa entre el Proyecto de Investigación de Factores Humanos llevado a cabo por la Universidad de Texas y Delta Airlines. Estas auditorías se basaron en la observación de la cabina de vuelo, y se pueden resumir de la siguiente manera: «Simplemente intentamos analizar la salud de la línea aérea; para medir su colesterol «.
El resultado de las auditorías de LOSA a más de diez mil pilotos de diferentes compañías se convirtió en la base donde el equipo de Robert Helmreich definió los principios TEM. Bajo la premisa de la existencia de Error Humano, los gerentes y los profesionales de seguridad debían enfocarse en la mitigación del efecto del error. Aunque todos los datos recopilados fueron confidenciales, algunos han trascendido con la idea de reflejar la efectividad de TEM. Parece increíble que hayan encontrado errores en el 64% de las auditorías de LOSA durante las operaciones aéreas; pero lo que es más increíble es que después de la implementación de TEM se observó una reducción de al menos un 70% en los errores observados durante las próximas auditorías.
En tiempos de crisis, no asumimos la responsabilidad de invertir en seguridad. Sin embargo, podemos afirmar lo siguiente: «Si cree que la seguridad es costosa, espere un accidente». Duro, pero muy cierto.
Hay dos razones principales para confiar en CRM como la única herramienta capaz de reducir las tasas de accidentes reales. En primer lugar, de acuerdo con las fuentes consultadas, en casi el 85% encontramos que el principal factor informal de accidentes está relacionado con el error humano. En segundo lugar, porque el piloto al mando sigue siendo el único «sistema de aviación» que no está duplicado; de hecho, es obligatorio contar con algo capaz de evitar las consecuencias del Error Humano que ofrece defensas para evitar la transformación del error en catástrofe.
El modelo del Profesor James Reason El Error Humano es el más extendido en la aviación. También conocido como el modelo de queso suizo, describe cuatro niveles de error, cada uno como resultado del primero. En cada accidente, el primer nivel contiene las fallas activas, los errores de la tripulación. Es en este nivel en el que hemos centrado la atención de los investigadores durante mucho tiempo. Sin embargo, está relacionado con la coordinación de la tripulación donde se ha descubierto la mayor cantidad de factores causales. Pero es cierto que no son los únicos, ni siquiera los más importantes.
Una de las fortalezas del modelo es que permite a los investigadores conectar Factores Causales deducidos del primer nivel con los tres restantes, sin perder el sitio del Análisis Cadena Causal o Cadena de Errores. De esta forma, podríamos tener en cuenta todas las fallas latentes presentes en accidentes como factores contribuyentes en cada nivel de decisión. Su debilidad es la imposibilidad de definir estas fallas latentes de antemano. En otras palabras, el Reason Model nunca define qué son los agujeros de queso, al menos en el contexto de operación diaria. Si nuestra intención es reducir las tasas de accidentes para el próximo futuro, los investigadores deben establecer los agujeros de todas las barreras no solo durante las investigaciones de accidentes sino antes de que ocurran para mitigar las consecuencias de los errores.
El segundo nivel del Reason Model se relaciona con condiciones como fatiga, falta de comunicación o mala coordinación de la tripulación. Son las habilidades habilitadas por CRM. Cuando no podamos determinar los agujeros de esta barrera, incluiremos deficiencias en nuestros Programas de Entrenamiento, reconociendo que los oponentes de CRM tienen razón. No podemos estar satisfechos simplemente cumpliendo con las regulaciones. Por el contrario, debemos desarrollar estrategias efectivas contra el error si no queremos estar condenados a errores del pasado.
HFACS (Human Factors Analysis and Classification System) se está moldeando a sí mismo como el último punto de inflexión en tendencias de seguridad. Por primera vez, los investigadores tienen una herramienta capaz de analizar y clasificar los accidentes desde el punto de vista del factor humano. Con base en el modelo de la razón, puede realizar una taxonomía completa del error en todos los niveles del sistema aeronáutico.
La herramienta más poderosa que se les ha dado a los investigadores hasta ahora es la posibilidad de crear nuevos Programas de Capacitación CRM con Datos de Factores Humanos.
Sin ninguna duda, tenemos que ser transgresores. Debemos apostar por iniciativas respaldadas por nuevas herramientas en manos de verdaderos expertos. Es obligatorio promover la investigación como el único camino hacia la excelencia en la aviación.
El desarrollo de nuevas estrategias efectivas en beneficio de la seguridad de vuelo implica asumir factores humanos como el principal factor que contribuye en casi todos los accidentes que tenemos, para que podamos construir una cultura de seguridad sólida.
Basado en el artículo titulado CRM, The death of a myth or resurgence of phoenix, publicado por Francisco Javier Mendi en la Italian Journal of Aerospace Medicine, No 7 (2012).
Referencias:
Abbott TS and Rogers WH. Functional Categories for Human-centered Flight Deck Design, Proceedings of the 12th Digital. Avionics Systems Conference. New York: AIAA/IEEE 8).
BAE SYSTEMS, BOEING COMPANY Human Factors-Harmonization Working Group, Final Report, Considerations in the Flight Deck Certification Process, FAA, EASA, June 2004.
Cooper GE, White MD and Lauber JK. Resource Management on the Flightdeck. Proceedings of a NASA / Industry Workshop (NASA CP-2120). Moffett Field, CA: NASA-Ames Research Center, 1980.
Barba Román G. El Giro hacia la Eficacia del CRM (Gestión Integrada de Recursos Operacionales), Artículo del Colegio Oficial de Pilotos de la Aviación Comercial de España, 2004; 1.
Detwiler C, Hackworth C, Holcomb K, Boquet A, Pfleiderer E, Wiegmann D, Shappell S. Beneath the tip of the iceberg: A human factors analysis of general aviation accidents in Alaska versus the rest of the United States (Report Number DOT/ FAA/AM-06/7). Washington DC: Office of Aerospace Medicine, 2006.
ECAST (European Commercial Aviation Safety Team); EHEST (European Helicopter Safety Team); EGAST (European General Aviation Safety Team).
Edwards E. Man and machine: Systems for safety, In Proc. of British Airline Pilots Associations Technical Symposium, 1972, 21-36.
The most common way to perform operative evaluations consists of the combination between LOSA ́s and confidential inquiries results like Flight Management Attitudes Questionnaires (FMAQ).
ESSI-EHEST Conference, Cascais, Portugal, October 13th 2008.
Helmreich RL. On Error Management: Lessons from aviation, BMJ, 2000.
Helmreich, RL. Error Management as Organizational Strategy. In: proceedings of the IATA Human Factors Seminar, Bangkok. Thailand, April 20-22th,1998.
Helmreich R and Foushee HC. Why Crew Resource Management? In Empirical and Theoretical Bases of Human Factors Training in Aviation, Wienner E, Kanki N, Helmreich R. eds, San Diego CA 3-45.
www.psy.utexas.edu/psy/helmreich/nasaut.htm
Human Factors Group of the Royal Aeronautical Society. Quality Crew Resource Management, May 1996; 7.
IHST Website, Background, http://www.ihst.org/Default.aspx?tabid=1780&language=en-US, May 2010.
James Klinect, LOSA Project Program Director .
Jensen R. Pilot Judgment and Crew Resource Management, Burlington, Ashgate, 1995, 97.
http://www.fomento.es/MFOM/LANG_CASTELLANO/DIRECCIONES_GENERALES/AVIACION_CIVIL/SEGURIDAD_AEREA /FUTURO /SISTEMAS/sgs_cultura.htm Spanish Civil Aviation General Dirction (DGAC) – Ministerio de Fomento, Safety Recommendations.
Leymann Patt HO. CRM, Una Filosofía Operacional, Sociedad Iberoamericana de Psicología Aeronáutica, 1997; 35.
Nullmeyer D and Montijo GA Human Factors in Air Force Flight Mishaps: Implications for Change. Interservice / Industry Training, Simulation and Education Conference (I/ITSEC), 2005.
Reason J. Human Error, Cambridge England: Cambridge University Press, New York, 1990.
Reason J. Managing the Risks of Organizational Accidents, Aldershot Ashgate, UK, 2003.
Salas E, Wilson KA and Burke S. Does Crew Resource Management Training Work? Human Factors and Ergonomics Society, 2006 Vol 48.
Shapell SA. The Human Factor Analysis and Classification System HFACS. FAA Civil Aeromedical Institute, 2000; 2.
Von Thaden TL and Steelman KS Classifying Crew Performance Failures in Commercial Accidents: Can we Get the Numbers Right? Human Factors Division University of Illinois at Urbana-Champaign, IL , 2005, 1-3.
Wiegmann DA and Shapell SA. Human error analysis of commercial aviation accidents: Application of the Human Factors Analysis and Classification System (HFACS), Av Space and Environ Med,2001; 72:1006-1016.
Wiegmann DA and Shapell SA. A Human Approach to Aviation Accident Analysis, the HFACS System, Aldershot Ashgate, UK, 2003.
Wilhem JA, Helmereich R, Kinect JR, Merrit AC Culture, Error, and Crew Resource Management. In Salas E, Bowers CA, EDENS E Eds. Hillsdale, New Jersey, 2001.