Fiabilidad y seguridad
Ángel Arroyo
Comandante de Iberia jubilado
Según la Real Academia Española ¨Fiabilidad¨ es la probabilidad del buen funcionamiento de algo. Dentro de la fiabilidad de sistemas el hombre es considerado como parte integrante del sistema.
Los sistemas automatizados son sistemas hombre-máquina en los que son importantes tanto los factores humanos como los técnicos. La parte más compleja de los sistemas es el ser humano. La visión del diseñador de sistemas es que el operador no es confiable ni eficiente, por lo que debe ser eliminado del sistema. Pero ocurre que los errores del diseñador suelen ser una fuente importante de problemas operativos.
Por otra parte, se intenta eliminar al operador, pero el diseñador le permite quedarse en el sistema porque lo necesita para realizar tareas que él aún no puede automatizar.
La automatización se ha impuesto porque puede realizar el trabajo mejor que el operador, pero a su vez, se le exige a este que supervise el perfecto funcionamiento de los automatismos y pueda intervenir si hay fallos.
Cuando existen condiciones de urgencia, amenaza, avisos conflictivos, múltiples avisos o ambigüedad, no podemos esperar que el operador revise rápidamente toda la información disponible y la analice e interprete correctamente con una alta fiabilidad. Especialmente si está presionado por el tiempo o por el estrés.
Podemos decir que la fiabilidad de un sistema es la suma de factores técnicos y humanos. La fiabilidad humana se centra en la eficacia, en la disminución de errores. Los errores que se cometen pueden ser individuales y organizacionales. Los diferentes tipos de error suelen ir asociados con diferentes tipos de actuaciones.
La cognición humana es capaz de realizar las tareas que nos resulten familiares con una atención mínima y las que nos resulten más familiares de manera automática.
Las personas juegan un papel negativo en cuanto a la producción de errores, pero también son un elemento de sobre fiabilidad en cuanto a ser capaces de prevenir, confirmar, recuperar y anticipar desviaciones no previstas.
El ser humano está por delante de los dispositivos técnicos por: su capacidad de adaptación, su capacidad de aprendizaje y su capacidad de anticipar.
Hay tres formas de mejorar la fiabilidad humana:
- Personas: haciendo que tengan las habilidades y los conocimientos necesarios para realizar su trabajo con seguridad y eficiencia (habilidades técnicas y no técnicas).
- Organización: que tenga una cultura con altos valores de seguridad y fiabilidad que dimanen directamente desde la parte más alta de la gerencia.
- Medio: diseñando e implementando el medio de trabajo y su relación con los equipos para que sean consistentes y compatibles con las posibilidades y limitaciones humanas.
La mayoría de los estudios sobre fiabilidad humana se han realizado en los sectores petroquímico y nuclear. Esto podemos atribuirlo, fundamentalmente, a la mayor amenaza asociada a dichos sectores. Con el ACCID de ¨Seveso¨ (1976) y,
posteriormente, con el de ¨La isla de las 3 millas¨, TMI-2 (1979), se incrementaron los estudios sobre fiabilidad. Con ¨Chernóbil¨ (1983) ya se comenzó a hablar de Cultura de la Seguridad.
En la década siguiente a TMI-2, otra central nuclear americana añadió a su documentación alrededor de 500 procedimientos operativos, 600 procedimientos de prueba y cientos de procedimientos de mantenimiento. Todo lo anterior lleva a una pérdida de capacidad para poder controlar determinadas situaciones no reguladas. La mayoría de estas situaciones, suelen ser interactivas o difíciles de incluir en unos procedimientos estándar.
Hoy en día, se empieza a considerar el peligro que puede llegar a existir con tantos procedimientos (Standard Operating Procedures). No se puede tener un SOP para cada acción. El uso exclusivo e intensivo de procedimientos puede llegar a suponer una amenaza para la seguridad. Un operador determinado puede tener procedimientos para todo y no tener garantizada la seguridad.
Por ejemplo, en el transporte aéreo mundial se incorporan anualmente unas 200 nuevas regulaciones o normas. Sin embargo, el número de ACCID´s permanece estancado, aproximadamente, en uno por cada millón de movimientos (10-6).
Constantemente, los fabricantes y los operadores diseñan más y más procedimientos que también sirven para que, los propios operadores, vayan perdiendo habilidad para gestionar los riesgos que pudieran presentárseles.
Existen dos tipos de errores: los latentes (los más peligrosos, están aletargados u ocultos) y los activos. Las causas más graves de los ACCID/INCID´s suelen estar presentes en los propios sistemas antes de que se inicie la secuencia del ACCID/INCID (errores latentes). Los dispositivos de seguridad suelen estar diseñados para evitar la mayoría de los fallos individuales, tanto humanos como del propio sistema. Pero, en la mayoría de las ocasiones, no sabemos cómo interactúan estas tendencias dentro de los grupos de personas que trabajan en sistemas de alto riesgo.
En los años 70´s Jens Rasmussen (1926-2018), ingeniero danés (DTU Management Engineering), tuvo la idea de clasificar los errores en categorías. En 1983, introdujo el modelo de toma de decisiones SRK (Skill, Rule, Knowledge) con tres modos de funcionamiento cognitivo y otros tantos tipos de errores:
¨Skill¨: habilidades, acción completamente automática, situación normal y bien conocida.
¨Rule¨: normas, se emplean procedimientos, situación conocida y persona entrenada, (Si…X – Entonces…Y).
¨Knowledge¨: conocimientos, situación completamente nueva, empleamos todo lo que sabemos, es el que consume más atención y recursos.
Estos tres modos de funcionamiento cognitivo generan otros tantos tipos de errores que, a su vez, se asocian con los llamados niveles de rendimiento. La variabilidad del rendimiento se debe a variaciones en el nivel de actividad cognitiva.
Si la situación es familiar y prevista se utilizan las habilidades, ¨Skill¨, que origina un gran número de errores de rutina. Si se trata de una situación menos familiar, se pasa a un control más atento, de las habilidades a las reglas, ¨Rule¨. Si la situación no puede resolverse con ninguna regla se pasa a los conocimientos, ¨Knowledge¨.
Seguridad Regulada y Gestionada:
La ¨seguridad regulada¨, la impuesta por la reglamentación, genera mayor rigidez y una menor adaptación, por parte de los operadores, a lo imprevisto. Se necesita romper el posible equilibrio entre la burocratización de la ¨seguridad regulada¨ (que inhabilita para resolver acontecimientos no esperados) y la ¨seguridad gestionada¨ por el operador (que permite resolver lo inesperado).
El aumento de la ¨seguridad regulada¨, mayor rigidez y menor adaptación a las sorpresas, disminuye la ¨seguridad gestionada¨ o capacidad de los operadores para poder actuar con mayor resiliencia (RAE: Capacidad de adaptación de un ser vivo frente a un agente perturbador o un estado o situación adversos).
Si los componentes de un sistema o su interacción, no fallan, no ocurrirá ningún ACCID/INCID.
Un sistema puede ser fiable pero inseguro, también puede ser seguro, pero no fiable. A veces estas dos propiedades pueden ser conflictivas, es decir, haciendo los sistemas más seguros puede disminuir la fiabilidad y mejorando la fiabilidad, puede disminuir la seguridad.
En sistemas complejos, los ACCID/INCID´s son resultado de la interacción entre componentes. El fallo de componentes se ha estudiado a fondo, pero la interacción entre componentes se ha convertido en mucho más común a medida que aumentaba la complejidad de los sistemas. Si un operador no sigue el SOP correspondiente, no está operando con fiabilidad.
Fiabilidad: probabilidad del buen funcionamiento de algo. Seguridad: ausencia de ACCID/INCID´s.
ACCID/INCID: pérdida no planeada o inaceptable.
Si hacemos todos los componentes de un sistema altamente fiables, no hacemos necesariamente seguro el sistema. Una alta fiabilidad de los componentes de un sistema no previene los ACCID/INCID´s debidos a la interacción de sus componentes. La fiabilidad de componentes no es suficiente para la seguridad del sistema.
Por ejemplo, una petroquímica puede emitir material tóxico esporádicamente y ser fiable pero no será segura.
Mientras en algunos sistemas de alto riesgo la seguridad es parte de su misión o razón de existir, como ocurre con el tráfico aéreo o el sector sanitario, en otros la seguridad no es su misión, pero si es una limitación para lograr su misión.
A continuación, vamos a analizar varios ACCID´s en el sector del transporte aéreo:
01-julio-2002. B757-200 / TU154M
Colisión en vuelo. Ueberlingen. Lago Constanza. Alemania
20-agosto-2008. MD-82. SPANAIR 5022. Madrid Barajas
15-enero-2009. A 320. USAir-1549. Rio Hudson. New York
4-noviembre-2010. A 380. QANTAS 32. Singapore