Estudio de las caídas de bandas en compresores de boil-off mediante un modelo de diagnosis y otro de prognosis
Sonia Liñan
Especialista en Gestión de Activos
ENAGÁS
Lourdes Crespo
Especialista en Gestión Avanzada de Mantenimiento
1. INTRODUCCIÓN
Dentro del marco estratégico de la transformación digital, Enagás ha apostado por una plataforma inteligente del dato, Platiom, la cual consigue, mediante un modelo de IA y analítica avanzada, la optimización de todos los procesos de O&M que intervienen a lo largo del ciclo de vida de los activos que componen las infraestructuras gasistas.
Gracias al análisis de los más de 500.000 eventos al día que recoge la plataforma, todos ellos basados en los sensores de la red, la monitorización del índice de salud y la detección temprana de fallos, se logra alargar la vida de los activos, centrando el foco en maximizar la fiabilidad de la operación y disminuir autoconsumos, obteniendo a su vez, una reducción de las emisiones de CO2.
Aunque esto suponga un gran avance en el ámbito de mantenimiento y prevención, no nos podemos quedar ahí, debemos seguir estudiando nuevos modelos de Machine Learning que se adecuen mejor a cada activo principal de Enagás.
2. DIGITALIZACIÓN DEL KNOW HOW
La transformación digital permite a Enagás ver su negocio a través de la lente “datos”; de repente, los técnicos y la experiencia de éstos, pueden ser “digitalizados” y pasar a ser un conocimiento experto de la compañía, y no sólo de los propios técnicos. Puede que el gran cambio que va a traer la gran capacidad de gestión de datos es esa inteligencia centralizada que nos permitirá identificar y extrapolar las mejores prácticas, estén donde estén, pero especialmente las que se encuentren dentro de la organización. Sin embargo, es difícil recorrer ese camino, pues los datos brutos por sí solos no generan información, son los análisis de los mismos los que crean el verdadero valor. Así pues, se necesitan nuevos perfiles que permitan identificar ese conocimiento y a través de habilidades relacionadas con la gestión de información, se “parametrice” ese know how y se consiga dar valor a los datos. Esto conlleva un cambio cultural, ya que, a día de hoy, la mayoría del personal de mantenimiento ha sido habilitada en las estrategias de mantenimiento clásicas, es decir, hacer mantenimiento sólo cuando se nos rompía la máquina o en el mejor de los casos, a buscar un modo de fallo y tratar de prevenirlo.
Vienen nuevas metodologías que, si bien, no nacen específicamente para cubrir un ámbito de la gestión de activos, pueden ser de gran aplicación, como el buscar patrones de normalidad, detección de anomalías, clasificación de fallos, predicción del tiempo hasta el siguiente fallo, etc, que nos permitan anticiparnos a posibles fallos y decidir cuándo es el momento óptimo para realizar el mantenimiento.
Ya no miramos los datos desde el punto de vista de lo que nos ha ocurrido o lo que sabemos, sino que los exploramos para que nos aporten una visión de mejora continua, de determinar el momento adecuado para realizar el mantenimiento, de analizar patrones de fallos, de optimizar la eficiencia energética,… Enagás busca ser una empresa ágil y que se adapte rápidamente a los continuos cambios y por ello ha apostado por explorar estas metodologías para seguir manteniendo una posición referente en la gestión de infraestructuras.
Siguiendo nuestro modelo de gestión de mantenimiento (Figura 1), nos estamos centrando en la Fase 8, persiguiendo esa mejora continua y la aplicación de nuevas tecnologías.
Figura 1. Modelo del proceso de gestión del mantenimiento (MGM) adaptado a Oil&Gas. Fuente: INGEMAN
3. EVOLUCIÓN HACIA UN MODELO DATA DRIVEN DE LA GESTIÓN DE ACTIVOS
Mirándolo desde el punto de vista del ciclo de vida del activo y, simplificando el análisis, se podría decir que las metodologías más clásicas del uso de dato transaccional se centran en la información más evidente o conocida del mantenimiento, tales como los modos de fallo más habituales o la minimización del impacto de los mismos una vez se produzcan; sin embargo, las metodologías basadas en el uso del dato operativo permiten detectar aquellos fallos sobre los que no existe tanta información o incluso maximizar el periodo de operación sin averías, como se muestra en la Figura 2.
Figura 2: Estrategia de metodologías y proyectos de Enagás
Con todas estas premisas, se puede concluir que el objetivo que se persigue con el uso de la inteligencia artificial en el caso de uso expuesto, es ser capaz de capturar, visualizar y analizar toda la información operativa de los activos de alta capitalización de Enagás, la cual presenta los siguientes beneficios:
- La visualización permitirá bajar la complejidad del acceso al dato y realizar un seguimiento de la información relevante necesaria para un control de eficiencia en operación y mantenimiento.
- La analítica permitirá la digitalización del conocimiento mediante modelos que nos ayuden a extender la vía útil de los activos optimizando la operación y evitando fallos catastróficos con una vigilancia activa.
Decisiones de los casos de uso
A la hora de decidir qué casos de usos son más relevantes para aplicar estas nuevas tecnologías, Enagás ha realizado dos estudios de alto nivel:
- Matriz de priorización y localización de iniciativas
Figura 3; Matriz de priorización y localización de iniciativas
Con esta matriz, ya se discrimina donde es más rentable o tiene más sentido realizar los desarrollos en función de las herramientas tecnológicas de las que disponga la compañía.
- Elección las herramientas tecnológicas con mayor sentido para el desarrollo
Es habitual que los diferentes proveedores de equipos de alta capitalización (alto valor de inversión para su adquisición) dispongan de sus propios softwares de análisis. Sin embargo, no siempre los proveedores tienen acceso a la información operativa del activo y, por tanto, no tienen por qué ser los que más conocimiento tengan del mismo en el ciclo de vida.
Como resultado de ambos análisis, Enagás concluyó que existían un conjunto de casos de uso para un grupo de activos específico, en los que tenía sentido técnico y
económico el desarrollo de una plataforma corporativa propia para análisis de información operativa. De esta manera nació PLATIOM (Plataforma Inteligente de Operación y Mantenimiento) sobre la que se ha desarrollado el caso de uso basado en inteligencia artificial.
4. DESARROLLO DE LA TECNOLOGÍA
Para la obtención y estudios de los algoritmos de detección de anomalías o modelos Machine Learning (ML), se emplea la herramienta de Data Science: RapidMiner, la cual ha sido testeada ampliamente en el uso y desempeño de este tipo de estudios, dada su amplia versatilidad y facilidad de uso.
El proceso para obtener los modelos de aprendizaje automático de las caídas de banda en los compresores de Boil-off se segmenta en dos partes principales. En primer lugar, hay que conocer en qué estado se encuentra el equipo y distinguir en caso de que se esté produciendo algún modo de fallo, cuál es el que se está dando. A este primer sub-proceso se le denomina diagnosis. Una vez se conoce el estado del equipo, cuando se esté produciendo un modo de fallo, se debe activar el algoritmo de prognosis que permitirá conocer el tiempo que queda hasta que se produzca el fallo.
Para poder diseñar el proceso completo de clasificación del estado del equipo y predicción del tiempo hasta el fallo hay que generar los diferentes modelos por separado con la ayuda de Automodel (Rapdminer). Una vez se hayan obtenido estos modelos, se procederá a montar todo el proceso y a la verificación del correcto funcionamiento.
El desarrollo de esta metodología se divide en cuatro partes como se detalla en la Figura 4. Una primera parte donde se preprocesan y limpian los históricos de operación, con el fin de obtener una base de datos para para el modelado de la diagnosis y otras bases de datos para el modelado de la prognosis (1). Una segunda parte de modelado y obtención del algoritmo de diagnosis (2). A continuación, una tercera parte de modelado y obtención de los algoritmos de prognosis (3). Y una última parte de diseño del proceso completo, validación de los resultados, y obtención de conclusiones (4).
Figura 4; Esquema general de la metodología aplicada al caso de estudio
4.1. Preprocesamiento de la información
El objetivo del preprocesamiento es crear una base de datos única y consistente para la obtención del modelo ML, partiendo de los históricos de operación de PI, agrupando todos los archivos/pestañas en una base de datos, eliminando los datos perdidos y los valores atípicos (Outliers).
La primera tarea que ha de llevarse a cabo a la hora de preprocesar la información es la extracción de la información de los sistemas de gestión de mantenimiento, operación y sistemas de control.
El siguiente paso consiste en la recopilación y unificación de la información. Para la unificación de las distintas hojas de datos en una única base de datos, se ha realizado un proceso para la extracción, ordenación cronológica y almacenado que se muestra en la Figura 5.
Figura 5; Extracción y unión de datos de origen
Por último, ha de llevarse a cabo la limpieza de la base de datos, para ello se va a utilizar también Rapidminer ya que dispone de diversas opciones para limpiar y filtrar información (Figura 6).
Figura 6; Limpieza y filtrado de información de la Base de Datos
Otra opción interesante que puede aportar la herramienta es un estudio de la calidad del dato o el estudio de la correlación entre variables ya que normalmente las bases de datos de las que partimos tienen mucha información la cual a veces esta redundada o es de mala calidad. El eliminar la información no necesaria de dichas bases de datos puede agilizar mucho el entrenamiento y posterior funcionamiento de los modelos de machine learning.
Para este caso de uso en concreto, hay que mencionar que se han seguido estos pasos cuatro veces, lo cual ha dado lugar a cuatro bases de datos diferentes. La primera de ellas se utilizará para entrenar el modelo de diagnosis, y las otras tres restantes para el entrenamiento de los diferentes modelos de prognosis.
4.2. Modelado y obtención de algoritmos de Diagnosis y Prognosis
Una vez se han preparado los datos se procede a modelar el problema de diagnosis y prognosis. A dicha herramienta hay que facilitarle una serie de información como puede ser : variables de entrada, variable que se quiere predecir o algoritmo que se quiere utilizar. Con esta información, se va a generar un modelo de clasificación del modo de fallo (caída de banda en este caso).
Una de las utilidades de Automodel es que compara distintos algoritmos de machine learning y aporta datos interesantes para que se pueda decidir cual utilizar en nuestro modelo. Como se puede comprobar en la Figura 7, aporta una comparativa del error de clasificación de los algoritmos que hemos decidido comparar.
Figura 7; Error de clasificación de los diferentes algoritmos
Por otra parte, también aporta los tiempos tanto de entrenamiento como de procesamiento, como se puede comprobar en la Figura 8.
Figura 8; Tiempos de entrenamiento y procesamiento de los diferentes algoritmos
Los resultados que se obtienen del proceso son:
- Modelo de Diagnosis (1) y Modelos de Prognosis (3, uno por cada modo de fallo)
- Matriz de confusión del modelo
- Error de clasificación y precisión
- Equilibrio óptimo entre complejidad y error. La Figura 9 presenta un análisis que provee la herramienta en forma estándar, pero que aborda de forma práctica y directa el problema de la dimensionalidad (la maldición de la dimensionalidad - “the curse of dimensionality”), que es un fenómeno que aparece en los modelos de aprendizaje automático cuando los algoritmos deben aprender a partir de un amplio volumen de características con abundantes valores dentro de cada una.
El software ordena las variables por su orden de importancia para su inclusión en el algoritmo pues es posible obtener la lista optima de variables para cualquier dimensión de problema.
Figura 9; Gráfico Complejidad-Error
4.3. Generación del proceso completo y unificado de Diagnosis y Prognosis
Por último, tras haber realizado todos los análisis previos y haberse obtenido todos los algoritmos necesarios se procede a unificar dichos algoritmos en un proceso que lo englobe todo como puede apreciarse en la Figura 10. Este proceso se utilizará para la validación de los modelos obtenidos, así como para la puesta en producción definitiva.
Figura 10; Proceso completo
En este modelo completo ocurre lo siguiente: En primer lugar, el algoritmo de diagnosis lee los datos que se obtienen del sistema de control de planta. A continuación, este modelo detecta el estado del equipo y en caso de que se haya detectado una caída de banda inminente se activa el algoritmo de prognosis de la banda en cuestión que se prevé que va a fallar. Por último, dicho algoritmo proporcionará un resultado de tiempo, que es el tiempo que calcula que queda hasta que se produzca el modo de fallo.
En la siguiente figura, se muestra un ejemplo gráfico del resultado del proceso completo es la predicción de tiempo hasta el fallo (minutos) una vez el algoritmo de clasificación ha detectado que va a fallar una de las bandas.
Figura 11; Minutos hasta el fallo (min x103)
Gracias a los resultados obtenidos, se verifica que el modelo cumple con su cometido y proporciona una buena predicción de los diferentes modos de fallo, permitiéndonos de este modo anticiparnos a los mismos consiguiendo optimizar la gestión del mantenimiento.
5. CONCLUSIONES
La inteligencia artificial está comenzando a dar soluciones a problemas reales y tangibles del mundo industrial. El uso de datos operativos mediante este tipo de metodologías está derribando los escasos muros que aún quedaban entre el ámbito de la operación y el mantenimiento, permitiendo información que hasta ahora era explotada de manera estanca por un departamento concreto, se analice de manera conjunta.
El ejemplo que se ha mostrado en este artículo está basado en un caso real donde ya se pueden monitorizar activos concretos mediante la inteligencia artificial. Estas soluciones dotan de una capacidad analítica que exceden las que hasta ahora proveían los sistemas tradicionales, permitiendo diagnosticar los posibles fallos y estimar el tiempo hasta el fallo desde un momento tan precoz, que la intervención temprana se convierte en una herramienta capital para el mantenimiento del activo, además buscando el equilibrio entre el riesgo de fallo y la intervención en el activo.
Sin embargo, es capital encontrar el equilibrio de conocimiento técnico para el desarrollo de estos casos de uso, mezclando perfiles más digitales con perfiles más técnicos (conocedores de los activos).
Además, no hay que olvidar que las metodologías de “Machine Learning” necesitan todavía a día de hoy de un componente muy importante de seguimiento e implementación por parte de los especialistas, con el fin de garantizar su éxito.
Enagás tiene el firme compromiso de seguir investigando este tipo de metodologías analíticas para sacar el máximo rendimiento a sus activos retribuidos, maximizando la disponibilidad de sus instalaciones a un coste óptimo para todos los usuarios del sistema gasista.