banner
Centro de Noticias
Seguimiento postventa confiable

Identificando la causa

Dec 02, 2023

Scientific Reports volumen 12, número de artículo: 22332 (2022) Citar este artículo

2569 Accesos

3 altmétrico

Detalles de métricas

En la producción de carrocerías, las piezas de chapa preformadas de la carrocería se ensamblan en líneas de producción totalmente automatizadas. La carrocería pasa por varias estaciones sucesivamente y se procesa según los requisitos del pedido. La finalización oportuna de los pedidos depende de que las operaciones individuales basadas en estaciones concluyan dentro de los tiempos de ciclo programados. Si se produce un error en una estación, puede tener un efecto en cadena y provocar retrasos en las estaciones posteriores. Hasta donde sabemos, no existen métodos para distinguir automáticamente entre errores de origen y de efecto en cadena en este entorno, ni para establecer una relación causal entre ellos. Utilizando información en tiempo real sobre las condiciones recopiladas por un sistema de adquisición de datos de producción, proponemos un novedoso sistema de análisis de fabricación de vehículos, que utiliza el aprendizaje profundo para establecer un vínculo entre los errores fuente y los errores en cadena. Comparamos tres modelos de secuencia a secuencia e introducimos una novedosa métrica de acción compuesta ponderada en el tiempo para evaluar modelos en este contexto. Evaluamos nuestro marco en un conjunto de datos de producción de automóviles del mundo real registrado por Volkswagen Vehículos Comerciales. Sorprendentemente, encontramos que el 71,68% de las secuencias contienen un error de origen o de efecto en cadena. Con respecto al entrenamiento del modelo seq2seq, encontramos que Transformer demuestra un mejor rendimiento en comparación con LSTM y GRU en este dominio, en particular cuando aumenta el rango de predicción con respecto a la duración de acciones futuras.

Los pronósticos de series temporales se utilizan cada vez más para predecir eventos futuros dentro de las empresas y la industria para permitir la toma de decisiones informadas1,2. En este artículo evaluamos su potencial para revolucionar la fabricación automatizada de vehículos, donde la información en tiempo real se recopila mediante un sistema de adquisición de datos de producción (PDA). Los efectos de los errores en los sistemas de fabricación interconectados tienen consecuencias nefastas, como retrasos en la producción e incluso fallos en el sistema de producción. En la fabricación industrial, los tiempos de inactividad van asociados a costes elevados. Para contrarrestar los tiempos de inactividad, la investigación y el desarrollo se han centrado hasta ahora en el mantenimiento predictivo de los equipos3 y el uso de rutas de fabricación alternativas a lo largo del proceso de producción4. Sin embargo, estos enfoques no se centran explícitamente en los retrasos (microperturbaciones) en los pasos individuales del proceso, que se propagan a lo largo de la cadena del proceso y se amplifican en el proceso.

La utilización óptima de una línea de producción de carrocerías totalmente automatizada depende de que los pasos de trabajo individuales basados ​​en estaciones se completen dentro de los tiempos de ciclo programados. Sin embargo, a menudo se detectan diversas perturbaciones con significación estadística. En particular, los errores de origen (normalmente registrados por el sistema PDA, por ejemplo, "No hay componentes disponibles"), pueden no sólo afectar a la estación actual, sino también tener un efecto perjudicial en las estaciones de trabajo posteriores (en adelante denominadas estaciones), lo que resulta en en errores y retrasos en cadena. Incluso los retrasos mínimos, apenas perceptibles para los humanos, pueden generar elevados costes adicionales.

Si bien la previsión de series temporales para la producción de carrocerías es un desafío (debido a discontinuidades, picos y segmentos5), las desviaciones en el proceso de fabricación pueden identificarse mediante la adquisición integral de datos de producción y la evaluación estructurada de estos datos. Sin embargo, actualmente los retrasos y anomalías en los procesos se identifican mediante clasificadores basados ​​en reglas que se programan y mantienen manualmente utilizando un amplio conocimiento del dominio. Además, se realizan más esfuerzos en la interpretación de los datos procesados. Esto evita que el personal de producción implemente rápidamente contramedidas específicas.

Hasta donde sabemos, actualmente no existe ningún enfoque que automáticamente: (i.) aprenda a clasificar los errores tanto de origen como de efecto en cadena; (ii.) establecer un vínculo entre errores; y (iii.) mide el efecto en cadena de los errores de fuente. En este trabajo damos pasos para resolver estos desafíos utilizando el aprendizaje automático (ML).

Nuestras contribuciones se pueden resumir de la siguiente manera:

Introducimos un sistema de análisis de fabricación de vehículos (VMAS) basado en ML para el seguimiento de procesos y la optimización del tiempo de ciclo. El sistema está diseñado para detectar retrasos y mal funcionamiento en el proceso de producción de manera temprana y automática sin esfuerzo manual. Además, identifica relaciones causa-efecto y predice errores críticos utilizando modelos de secuencia a secuencia (seq2seq).

Para permitir una comparación justa entre diferentes arquitecturas seq2seq para predecir errores en este contexto, presentamos una novedosa métrica de acción compuesta ponderada en el tiempo (CTA). Nuestra métrica permite a las partes interesadas ponderar las secuencias de predicciones generadas por nuestro modelo y elegir en qué medida las predicciones de duración de la acción inmediata tienen prioridad sobre las distantes.

Nuestro VMAS se evalúa a partir de datos del sistema PDA de la producción de carrocerías de vehículos comerciales Volkswagen. Esto incluye la evaluación comparativa de varios modelos seq2seq populares para aprender relaciones causa-efecto, incluidos LSTM, GRU y Transformer. Sorprendentemente, nuestra evaluación muestra la prevalencia de errores de origen y de efecto en cadena, que ocurren en el 71,68% de las secuencias de acción. Mientras tanto, la evaluación del componente de predicción muestra que Transformer supera a los modelos LSTM y GRU, capaces de predecir con precisión la duración de hasta siete acciones en el futuro.

El objetivo de nuestro trabajo es analizar y comprender mejor el desempeño de un sistema de fabricación de automóviles en términos de eficiencia y productividad. El modelado y análisis de sistemas en diferentes niveles de abstracción (por ejemplo, a través de una simulación basada en eventos discretos) se utiliza con frecuencia para obtener información y mejorar el diseño y la operación de un proceso de sistema de fabricación, como las redes logísticas o el flujo de materiales en el taller6. En este artículo presentamos un enfoque puramente basado en datos para resolver este problema. Primero, definiremos formalmente el planteamiento de nuestro problema en esta sección.

En nuestro sistema de fabricación de automóviles, la carrocería del vehículo se procesa visitando una secuencia de estaciones totalmente automatizadas. Cada estación comprende un conjunto de robots de fabricación (ver Fig. 1). La línea de producción es síncrona, cada estación tiene el mismo tiempo de ciclo sin buffers. Las estaciones son cronometradas para medir la puntualidad de los vehículos a ensamblar hasta su salida de la línea de producción. En cada estación se realizan acciones, que definimos como una triple \(a = (s, v, i)\), que consta de una estación s, código de vehículo v y ID de acción i. La producción de vehículos también incluye variantes (vehículos con volante a la izquierda o a la derecha, por ejemplo) y, por lo tanto, la acción nominal es variable dependiendo de la variante del vehículo, que es información incluida en el código del vehículo.

Cada acción describe un paso de producción específico y realizado (por ejemplo, transporte o paso de fabricación). Estamos interesados ​​en la duración d requerida para completar cada acción ejecutada a, que puede verse como una tupla de duración de la acción \(u=(s, v, i, d)\). Por conveniencia de notación nos referiremos a \(d^a\) como la duración que toma una acción a. En un sistema de producción de vehículos con sincronización horaria, para cada acción a existe una duración máxima permitida esperada \(d^a_{max}\). Por lo tanto, la duración de una acción a debe ser menor o igual a este tiempo máximo permitido esperado: \(d^a \le d^a_{max}\). En este trabajo, nos centramos en secuencias de acciones y sus duraciones, es decir, cadenas de tuplas de duración de acciones, definidas como \(x = (u_1, u_2, \ldots, u_{n})\). Sin embargo, vale la pena señalar que las acciones pueden superponerse, por ejemplo, ejecutarse en paralelo. Por lo tanto, no es cierto que una acción en particular tenga que haber completado su tarea antes de que pueda comenzar otra acción. La secuencia de acciones también depende de la variante del vehículo.

Los fallos de funcionamiento son un problema recurrente en la producción. En el raro caso de que un mal funcionamiento provoque un largo período de inactividad, generalmente los ingenieros del personal en la fábrica realizan un análisis de la situación y la posible solución. Sin embargo, nos centramos en los retrasos pequeños, aparentemente insignificantes y comunes, que no sólo tienen un efecto en una estación en sí, sino que también provocan que las perturbaciones posteriores se propaguen a las estaciones situadas aguas abajo, provocando retrasos adicionales. Aquí consideramos acciones ejecutadas con dos tipos de errores resultantes de retrasos, donde la duración \(d^a > d^a_{max}\): (i.) errores de origen, \(u_s\) donde la duración de una acción anormal es acompañado de un mensaje de error; (ii.) errores en cadena, donde una acción \(u_k\) con una duración anormalmente larga no va acompañada de un mensaje de error. En este trabajo estamos interesados ​​en los errores en cadena que ocurren después de un error de origen (es decir, un error registrado) dentro de la secuencia de acciones: \(( {\ldots, } u_{s} {, \ldots, }u_{ k} {, \ldots})\).

Un error de fuente individual puede pasar desapercibido, ya que los errores de fuente no tienen por qué desviarse significativamente del tiempo normal. Sin embargo, los errores de arrastre, que individualmente tampoco tienen que desviarse mucho, pueden provocar un retraso de tiempo acumulado considerable. Desde el sistema PDA no es posible entender el alcance de las acciones posteriores y los efectos en cadena de un error fuente. Sólo es posible afirmar que las acciones posteriores pueden acumular retrasos sin que se notifiquen mensajes de error. En consecuencia, esto conduce a una pérdida significativa de tiempo de producción efectivo en general.

El análisis de la relación entre los errores fuente y los errores en cadena es un desafío debido al entrelazamiento latente de los procesos de acciones individuales. Se puede argumentar que un modelo basado en reglas puede determinar la relación entre una fuente y los errores en cadena. Sin embargo, este enfoque requiere un amplio conocimiento del dominio y el modelo resultante no sería transferible entre estaciones. Nuestra hipótesis es que los modelos seq2seq basados ​​en aprendizaje profundo son capaces de aprender la secuencia nominal de acciones y, lo que es más importante para el productor, también la fuente recurrente y los errores en cadena. Si los errores pueden predecirse con una precisión satisfactoria, entonces significa que las reglas inherentes de los efectos causales se aprenden de la abundancia de datos.

Línea de producción para ensamblar variantes de vehículos, que ilustra el comportamiento normal y el comportamiento de error en un diagrama de Gantt, con respecto a las duraciones d. Pueden ocurrir varias acciones en paralelo. En el escenario de comportamiento de error, un error de origen para una tupla de duración de acción \(u_s\) (marcada en rojo) puede provocar múltiples errores en cadena \(u_{k1}\) y \(u_{k2}\) (marcada en naranja). ).

El diseño y funcionamiento de los sistemas de fabricación se pueden mejorar modelándolos en diferentes niveles de abstracción. El flujo de materiales dentro de una planta de fabricación, así como las cadenas logísticas de los fabricantes de equipos originales (OEM), requieren previsión y decisiones estratégicas para una entrega justo a tiempo y justo en secuencia. Los enfoques de modelado avanzado tienen el potencial de permitir a los diseñadores de sistemas analizar fenómenos que frecuentemente provocan retrasos (por ejemplo, codificación de secuencias) y tomar medidas hacia una producción estabilizada6. Como resultado, el sistema de fabricación flexible ha recibido una atención significativa por parte de investigadores de diversos campos, donde enfoques como la heurística de despacho basada en cuellos de botella tienen como objetivo mejorar el rendimiento de los talleres de fabricación. Sin embargo, el cambio de cuello de botella puede ocurrir como resultado de anomalías inesperadas que aparecen dentro de los carriles, por ejemplo, secuencias codificadas o fallas de la máquina. Para abordar esto, Huang et al.7 proponen un método que combina una red neuronal profunda (DNN) y un análisis de series de tiempo para predecir y resolver futuros cuellos de botella en un entorno de producción habilitado para el Internet de las cosas. Por el contrario, nuestro trabajo se centra en un carril singular donde no es posible codificar la secuencia. En lugar de ello, nos centramos en modelar los retrasos pequeños, subliminales y comunes y medir su importancia en la propagación de errores.

En el contexto de la producción industrial inteligente, se ha dedicado una cantidad significativa de investigación basada en datos a la previsión, la predicción de fallas y la detección de anomalías utilizando datos de series temporales8,9. La literatura en esta área proporciona una visión general de la idoneidad de los enfoques diseñados para resolver estos problemas cuando se aplican a diversos contextos de producción, a menudo presentando una comparación entre los enfoques tradicionales de aprendizaje automático y el de las redes neuronales profundas avanzadas. La predicción de fallos, por ejemplo, a menudo se ha limitado a indicadores clave de rendimiento estándar. Moura et al.10 evalúan la eficacia de las máquinas de vectores de soporte para pronosticar el tiempo hasta el fallo y la confiabilidad de los componentes diseñados basándose en datos de series temporales. Yadav et al.11 presentan un procedimiento para pronosticar el tiempo entre fallas de un software durante su fase de prueba empleando un enfoque de series de tiempo difusas. Otros utilizan redes neuronales artificiales o enfoques estadísticos para modelar la duración de los fallos de las máquinas herramienta de forma continua y por causas específicas12,13.

Mientras tanto, los modelos de redes neuronales recurrentes (RNN) son capaces de identificar directamente dependencias a largo plazo a partir de datos de series temporales14. Los éxitos aquí incluyen: pronóstico de series de tiempo de varios pasos de la carga futura del sistema con el objetivo de realizar detección de anomalías y gestión de recursos del sistema, permitiendo el escalado automatizado en anticipación de cambios en la carga15; y el uso de redes LSTM apiladas para detectar desviaciones del comportamiento normal sin ninguna ventana de contexto o procesamiento previo16. Sin embargo, el rendimiento de las arquitecturas de codificador-decodificador que dependen únicamente de celdas de memoria generalmente se ve afectado, ya que el paso de codificación debe aprender una representación para una secuencia de entrada (potencialmente larga). Aquí, las arquitecturas de codificador-decodificador basadas en atención proporcionan una solución, donde los estados ocultos de todos los nodos del codificador están disponibles en cada paso del tiempo. De hecho, el trabajo pionero de17 demostró que se pueden prescindir de unidades recurrentes y confiar únicamente en la atención, presentando el Transformer. Se pueden obtener más mejoras a través de Transformers implementados con GRUs18.

No es sorprendente que se estén aplicando cada vez más enfoques basados ​​en la atención a los problemas de la industria19. Li et al.20 presentan un enfoque novedoso para extraer retrasos de tiempo dinámicos para reconstruir datos multivariados para un modelo de predicción LSTM basado en la atención mejorado y aplicarlo en el contexto de los procesos de destilación industrial y producción de metanol. Pero no consideran explícitamente la propagación de fallas en sistemas de fabricación concatenados para evaluar la criticidad de las fallas y generar una predicción confiable del impacto de las fallas. Los modelos basados ​​en la atención también se han aplicado a la predicción de fallos y se han calificado como favorables. LI et al.21 proponen un modelo de supervivencia profunda basado en la atención para convertir una secuencia de señales en una secuencia de probabilidades de supervivencia en el contexto de la monitorización en tiempo real. Mientras que Jiang et al.9 utilizan una red neuronal convolucional de múltiples canales de series temporales integrada con la red LSTM basada en la atención para predecir la vida útil restante de los rodamientos. La detección de perturbaciones casi en tiempo real es posible con la red de codificador-decodificador LSTM basada en la atención de Yuan et al.22, que permite alinear una serie de tiempo de entrada con la serie de tiempo de salida y elegir dinámicamente la información contextual más relevante durante el pronóstico. A diferencia del trabajo anterior, proponemos un flujo de trabajo y evaluamos enfoques seq2seq para la predicción del impacto de fallas en sistemas de fabricación concatenados.

En esta sección presentamos nuestro sistema de análisis de fabricación de vehículos (VMAS), que desarrollamos de acuerdo con el proceso estándar intersectorial para minería de datos (CRISP-DM)23. Nuestro caso de uso tiene dos bases de datos separadas que almacenan tiempos de ciclo y datos de informes de errores, respectivamente. El sistema PDA en nuestro caso de uso registra y almacena tuplas de duración de acción u en la base de datos de tiempos de ciclo. Los datos son procesados ​​por nuestro VMAS, que consta de dos componentes principales: 1.) un módulo de clasificación de errores para identificar la fuente y los errores en cadena dentro de nuestro conjunto de datos; y 2.) un módulo de predicción de duración, entrenado para predecir el tiempo requerido para n acciones futuras. Describimos cada componente en detalle a continuación y se puede encontrar un diagrama de flujo en la Fig. 3.

Comenzamos con un conjunto de datos de acciones \(\mathcal {D}_a\) y una base de datos de informes de errores que almacena registros de errores con marca de tiempo, así como la duración de los errores registrados. Cada muestra \(x \in \mathcal {D}_a\), es una secuencia de tuplas de duración de acción \(x = (u_0, u_{1}, u_{2}, \ldots , u_n)\), donde n es el número de acciones ejecutadas durante una secuencia completa. El módulo de clasificación de errores de nuestro flujo de trabajo nos permite identificar los errores más importantes dentro de nuestro conjunto de datos y distingue los errores de origen de los derivados. Más específicamente, este módulo nos permite dividir muestras de nuestro conjunto de datos en cuatro subconjuntos: normal \(\mathcal {D}_{n}\), errores de origen \(\mathcal {D}_{s}\), knock- en errores \(\mathcal {D}_{k}\) y misceláneos \(\mathcal {D}_{m}\). Esta división del conjunto de datos en subconjuntos tiene dos propósitos: i.) La clasificación en \(\mathcal {D}_{s}\) y \(\mathcal {D}_{k}\) ayuda a la parte interesada a realizar un análisis automatizado de todas las acciones y elimina la necesidad de una inspección manual de las acciones, que a menudo requiere mucho tiempo; ii.) Durante las pruebas preliminares, descubrimos que las muestras de \(\mathcal {D}_{m}\) son extremadamente raras y perturban el entrenamiento de los modelos seq2seq. Por lo tanto, el módulo de clasificación de errores también proporciona un valioso paso de preprocesamiento antes de entrenar nuestros modelos seq2seq para predecir retrasos futuros. A continuación, primero analizamos nuestro enfoque para etiquetar nuestras muestras y luego definimos formalmente las condiciones para que una secuencia x pertenezca a uno de los cuatro subconjuntos. Observamos que para nuestro VMAS se supone que todos los errores de origen son errores registrados.

Etiquetado Utilizamos el método de estimación de máxima verosimilitud (MLE) para el etiquetado de comportamientos anómalos. Para cada acción a, se busca una distribución normal (gaussiana) que se ajuste a la distribución de datos existente con respecto a la frecuencia de cada duración (para ver un ejemplo, consulte la Fig. 2).

Detección de picos en un histograma de duraciones para una acción específica utilizando MLE como umbral, basado en datos de un conjunto de datos de producción de automóviles del mundo real registrados por Volkswagen Vehículos Comerciales. Los picos por encima del umbral MLE (rojo) se consideran errores significativos.

La función de densidad de la distribución normal contiene dos parámetros: el valor esperado μ y la desviación estándar σ, que determinan la forma de la función de densidad y la probabilidad correspondiente a un punto de la distribución. El método MLE es un procedimiento de estimación paramétrica que encuentra μ y σ que parecen más plausibles para la distribución de la observación z 24:

La función de densidad describe la magnitud de la probabilidad de que z provenga de una distribución con μ y σ. La función de densidad conjunta se puede factorizar de la siguiente manera:

Para una variable observada fija, se puede interpretar la función de densidad conjunta de z. Esto lleva a la función de probabilidad:

Se busca el valor de \(\vartheta \) para el cual los valores de muestra \(z_1, z_2, \ldots, z_n\) tienen la función de densidad más grande. Por lo tanto, cuanto mayor sea la probabilidad, más plausible será el valor de un parámetro \(\vartheta \). Siempre que la función de probabilidad sea derivable, se puede determinar el máximo de la función. Por tanto, se pueden obtener los parámetros μ y σ.

A continuación, buscamos identificar picos de alta frecuencia con respecto a las duraciones \(d^a\) para una acción a, que exceden la duración nominal \(d^a_{norm}\). Nos interesan los errores significativos, donde utilizamos el umbral MLE para determinar si un error es significativo o no. Denotamos errores significativos como \(d^a_{sig}\). Esta duración anormal y distinta indica un comportamiento recurrente. Definimos formalmente los criterios para cada subconjunto a continuación:

Los errores de origen son muestras donde para cada secuencia completa x, tenemos al menos una duración de acción que se considera crítica, de significación estadística y va acompañada de un mensaje de error. Más formalmente: una secuencia de acción completa x se considera una secuencia de error de origen \(x \in \mathcal {D}_{s}\) si existe una tupla de duración de acción \(u \in x\), donde la duración es \(d^a_{sig}\) y hay un mensaje de error correspondiente en la base de datos de informes de errores.

Los errores de llamada cumplen los mismos criterios que los errores de origen, pero carecen de un mensaje de error adjunto para \(d^a_{sig}\). Por lo tanto, una secuencia de acción completa x se considera una secuencia de error en cadena \(x \in \mathcal {D}_{s}\) si existe una tupla de duración de acción \(u \in x\), donde la duración es \(d^a_{sig}\) y no hay un mensaje de error correspondiente en la base de datos de informes de errores.

Las muestras normales no incluyen \(d^a_{sig}\). Por lo tanto, una secuencia completa x se considera una secuencia normal \(x \in \mathcal {D}_{n}\) si para todo \(u \in x\) no existe una duración \(d^a_{ sig}\).

Misc contiene dos tipos de secuencias de acción completas: i.) donde para una acción u hay una duración \(d^a_{sig}\) que está por encima de un umbral global definido \(d^a_{globalmax}\), es decir la duración es la prevista (por ejemplo, la línea de producción está en pausa) o el personal está a cargo de ellos; y ii.) donde x consiste únicamente en duración d que excede la duración nominal, pero cada una de baja significancia, es decir, que no excede el umbral MLE correspondiente.

Vale la pena señalar que \(\mathscr {D}_{n} \cup \mathscr {D}_{s} \cup \mathscr {D}_{k}\) puede contener \(d^a\) individuales por encima de la duración nominal, pero por debajo del umbral determinado por el MLE, por lo que son errores de baja significancia. También puede existir una intersección entre los errores fuente y los errores en cadena. Además, el etiquetado de los errores en cadena es deliberadamente modular, ya que aquí se pueden aplicar diferentes métodos en función de los requisitos de las partes interesadas. Naturalmente, esto afectará el entrenamiento posterior de nuestros modelos seq2seq y, por lo tanto, sus predicciones.

Mientras que nuestro módulo de clasificación de errores asigna etiquetas a errores pasados, nuestro segundo módulo se centra en la predicción de errores futuros. Al eliminar muestras diversas, utilizamos nuestro conjunto de datos para entrenar modelos seq2seq para predecir errores en cadena. Dada una secuencia de tuplas de duración de acción, nuestro objetivo es predecir el tiempo requerido por cada uno de los siguientes n pasos. Por lo tanto, convertimos los datos recibidos del módulo de clasificación de errores en un conjunto de datos que contiene pares \((x, y) \in \mathscr {D}\), donde cada x es una secuencia de tuplas de duración de acción \(x = (u_{ tn}, u_{t-n+1}, u_{t-n+2}, \ldots, u_t)\), y y es la duración de las n acciones que siguen \(y = (d^a_{t) }, d^a_{t+1}, d^a_{t+2}, \ldots, d^a_{t+n})\). Utilizando estos datos, entrenamos y evaluamos modelos populares de seq2seq, incluidos LSTM25, GRU14 y Transformer17. Este último es de particular interés, ya que representa el estado actual del arte para una serie de tareas seq2seq. Vaswani et al.17 presentaron la arquitectura Transformer para el dominio de tareas de Procesamiento del Lenguaje Natural (NLP) o Transductor. Las arquitecturas RNN/CNN anteriores plantean un obstáculo natural para la paralelización de secuencias. La arquitectura Transformer reemplaza la arquitectura recurrente por su mecanismo de atención y codifica la posición simbólica en la secuencia. Éste relaciona dos secuencias distantes de entrada y salida, que a su vez pueden tener lugar en paralelo. De este modo se reduce considerablemente el tiempo de formación. Al mismo tiempo, el cálculo secuencial se reduce y la complejidad O(1) de las dependencias entre dos símbolos, independientemente de su distancia entre sí en la secuencia, sigue siendo la misma17. A continuación, consideramos una métrica novedosa para evaluar de manera justa modelos de diferentes arquitecturas, en particular con respecto al número de pasos n, utilizando un solo escalar (Fig. 3).

Diagrama de flujo de nuestro sistema de análisis de fabricación de vehículos (VMAS). Primero, nuestro módulo de clasificación de errores procesa los datos del sistema PDA, lo que da como resultado cuatro subconjuntos: errores de origen, errores en cadena, normales y misceláneos. Nuestras partes interesadas pueden utilizar los conjuntos de errores de origen y de efecto resultantes para obtener información valiosa sobre las causas de los retrasos. A continuación, al excluir muestras diversas, utilizamos nuestros datos para entrenar modelos de secuencia a secuencia para predecir retrasos futuros.

Una secuencia de acciones puede consistir en un comportamiento nominal o un comportamiento de error al incluir al menos una fuente o un error en cadena. Para predecir un comportamiento distinto, pasamos una secuencia parcial de acciones a un modelo seq2seq para predecir n acciones en el futuro. Sin embargo, en producción hay una serie de escenarios (incluido el actual), en los que se debe dar una mayor ponderación al rendimiento del clasificador con respecto a las predicciones a corto plazo para permitir una intervención rápida. Por lo tanto, para evaluar nuestro modelo en este escenario se requiere una métrica que: i.) asigne una mayor importancia a las predicciones inmediatas frente a las predicciones posteriores en la secuencia de acciones; ii.) permite una predicción de la calidad invariante del número de pasos futuros n previstos, para comparar varias configuraciones; iii.) tiene alta precisión al predecir la duración de una acción. Para la evaluación de cualquier modelo seq2seq, introducimos la métrica de acción compuesta ponderada en el tiempo (CTA). El CTA es una combinación convexa de un RMSE de acción ponderado en el tiempo (que presentamos a continuación) y una puntuación F1 que utiliza un umbral b:

En la ecuación anterior, las partes interesadas pueden utilizar la ponderación \(\tau \) para enfatizar el TARMSE o la precisión al evaluar y comparar modelos. A continuación analizaremos los dos componentes.

RMSE de acción ponderado en el tiempo (TARMSE) Para medir el rendimiento de un modelo globalmente, introducimos un RMSE ponderado en el tiempo que devuelve una única métrica escalar para los n resultados del modelo. El rendimiento del modelo no debería disminuir si el punto de partida de las predicciones varía dentro de la secuencia de acciones. Para nuestro problema actual, establecer predicciones inmediatas también debería tener mayor importancia que las posteriores. Para compensar el aumento de la incertidumbre, introducimos un factor de ponderación \(\beta _{i} = e^{-i}\) siendo i el índice de acción. La siguiente fórmula considera solo predicciones que están por debajo del tiempo máximo permitido esperado \(d^a_{globalmax}\):

con

y

En la Ecuación (5) \(R_i\) es el RMSE para la acción i y el valor k está orientado a la desviación estándar media de todos los tiempos de acciones en esta estación dentro de la tolerancia máxima. La desviación estándar tiene la propiedad de ajustarse a una distribución gaussiana. Por tanto, puede considerarse como la cantidad de error que ocurre naturalmente en las estimaciones de la variable objetivo.

Puntuación F1 Al introducir un valor umbral b, es posible medir cuántas de las predicciones de acción se consideran correctas y así obtener una evaluación del clasificador binario. El umbral b se selecciona utilizando el conocimiento del dominio. Con el conocimiento de dónde está el valor esperado para el comportamiento de error nominal o de patrón, podemos comparar nuestras predicciones con la verdad fundamental. La razón para incluir la puntuación F1 en nuestra métrica de composición es que se utilizará para evaluar modelos dentro de un entorno de producción del mundo real. Dentro de nuestro dominio objetivo, se requiere una tasa baja de advertencias de falsos positivos, ya que de lo contrario los trabajadores considerarán las advertencias como poco confiables y no dignas de confianza. Dado que las alertas requieren investigación, los falsos positivos resultarán en una pérdida de tiempo superflua.

Para la evaluación empírica, primero analizamos el resultado de aplicar nuestro módulo de clasificación de errores al conjunto de datos proporcionado por Volkswagen Commercial Vehicles. Este conjunto de datos contiene acciones jerárquicas. Sin embargo, para mejorar el entrenamiento de nuestro modelo de secuencia a secuencia, eliminamos la jerarquía de acciones para disminuir el ruido en los datos. Por lo tanto, en el último paso de preprocesamiento de datos eliminamos la jerarquía de acciones, ya que las acciones superiores documentan los tiempos totales de las subacciones. Nos centramos en una sola estación para probar la hipótesis de que los errores de patrón se pueden aprender a partir del tiempo de finalización de las acciones dentro de una secuencia de acciones. Consideramos una estación ejemplar que cuenta con 22 acciones. Esta estación de trabajo es de especial interés para Volkswagen Vehículos Comerciales, ya que con frecuencia se observan retrasos. Para nuestro módulo de clasificación de errores, establecemos el umbral global en diez veces \(d^a_{globalmax} = 10 \times d^a_{max}\). Para el escalar para obtener \(d^a_{globalmax}\) realizamos pruebas preliminares con 3, 5, 10, pero descubrimos que los dos primeros eliminaban una gran proporción de puntos de datos, lo que afectaba la precisión de las predicciones de los modelos seq2seq. Por lo tanto, elegimos un escalar de 10, lo que nos permite retener el 94,8% de los puntos de datos. Los parámetros elegidos para nuestros modelos seq2seq se pueden encontrar en la Tabla 1. Se comparan cuatro arquitecturas seq2seq nm diferentes con respecto a la longitud de la secuencia de entrada n y el número de salidas m: 5–2, 5–5, 5–7, 7 –7. Realizamos 10 ejecuciones de entrenamiento por arquitectura de modelo, y los resultados en la Tabla 2 son los promedios de la aplicación de los modelos a nuestros datos de prueba, utilizando un 80% de secuencias para el entrenamiento (30,744 secuencias), un 20% de secuencias para la prueba (7,686 secuencias). dividir. Desde el punto de vista de la aplicación, es importante elegir un valor de umbral F1 b que se generalice a través de acciones dependientes de la variante del vehículo, que pueden tener tiempos de entrega muy diferentes. Para acciones con tiempos de entrega muy cortos (1-2 segundos), el ruido del sensor del sistema PDA es superior al 5%, por lo que es necesario seleccionar un valor umbral suficientemente grande. En colaboración con VW Vehículos Comerciales, encontramos en análisis de sensibilidad preliminares realizados con 5%, 10% y 20% que el umbral F1 \(b = 10\%\) es un valor operativo adecuado. Después de considerar solo las acciones debajo de \(d^a_{max}\) y luego calcular el RMSE de todas ellas, obtenemos \(k = 5.14\).

Al aplicar el módulo de clasificación de errores a nuestro conjunto de datos, primero eliminamos 2.106 de 40.536 secuencias de acciones (correspondientes a 40.536 vehículos procesados ​​en la estación) que contienen valores atípicos (5,2%). A continuación, aplicamos nuestro enfoque basado en MLE y encontramos que el 3,94% de las secuencias de muestras contienen al menos un error de origen (sin errores en cadena), el 61,20% contienen errores en cadena y el 6,54% contienen ambos. Con respecto a las muestras normales y misceláneas, tenemos un 0,068% solo normal, un 0,0902% solo misc y un 18,62% solo misc y normal. Un análisis del conjunto de datos después del preprocesamiento revela que el 71,68% de las secuencias contienen al menos un error. Por lo tanto, sorprendentemente la mayoría de las secuencias contienen errores de origen o de efecto en cadena. Como se mencionó, durante las pruebas preliminares también encontramos que el pequeño porcentaje de secuencias misceláneas puede afectar negativamente el rendimiento de los modelos seq2seq. Discutimos esto con más detalle en la evaluación de los resultados de nuestro modelo seq2seq a continuación.

En esta sección, primero compararemos los resultados de los cuatro tipos diferentes de arquitectura seq2seq según la longitud de las secuencias de entrada y las predicciones. Luego veremos más de cerca el impacto de la elección del factor de ponderación TARMSE \(\tau \) para evaluar nuestros modelos. En la Tabla 2 se proporciona una descripción general de los resultados obtenidos para cada configuración, donde el equilibrio entre TARMSE y F1 es \(\tau = 0,5\). Finalmente, realizamos un estudio de ablación que muestra hasta qué punto la inclusión de muestras diversas afecta el rendimiento de nuestros modelos seq2seq.

Configuración 5-2 Primero consideramos los resultados del entrenamiento de un modelo seq2seq para predecir dos duraciones de acciones futuras basadas en cinco acciones históricas (configuración 5-2). El TARMSE de los modelos GRU y LSTM está en 0,2 ± 0,05 y 0,22 ± 0,08, mientras que el Transformer funciona mejor con 0,41 ± 0,01. Sin embargo, la puntuación F1 resumida es más baja con 0,8 ± 0,01, mientras que GRU y LSTM son mejores con 0,94 ± 0,01 o 0,95 ± 0,01. Combinado, el CTA nos muestra que el GRU en 59,89 ± 3,02 y el LSTM en 58,49 ± 4,08 son mínimamente peores que el Transformer en 60,55 ± 0,76. Sin embargo, la desviación estándar nos muestra que el Transformador es más consistente.

Configuración 5-5 En la siguiente configuración 5-5 vemos un comportamiento similar a la configuración 5-2. El TARMSE es para GRU y LSTM de 0,24 ± 0,00 y 0,23 ± 0,01 respectivamente, y para el Transformador es de 0,44 ± 0,00. El F1 es 0,84 ± 0,02 para GRU, 0,93 ± 0,01 para LSTM y 0,80 ± 0,02 para Transformer. El CTA muestra que el Transformer es mejor con 61,69 ± 0,85 que el 58,67 ± 1,33 de GRU y el 58,11 ± 1,53 de LSTM.

Configuración 7-5 A continuación mantenemos el mismo número de predicciones futuras pero consideramos un historial de siete acciones. El TARMSE para GRU es 0,22 ± 0,03, LSTM es 0,20 ± 0,04 y Transformer aumenta ligeramente con respecto a la configuración 5-5 anterior hasta ahora 0,49 ± 0,01. La puntuación F1 disminuye ligeramente a 0,89 ± 0,02 para GRU, 0,91 ± 0,03 para LSTM y 0,81 ± 0,01 para Transformer. Notamos una ligera mejora en el CTA para Transformer en 64,75 ± 0,59, mientras que GRU en 55,83 ± 2,12 y LSTM en 55,80 ± 2,19 disminuyen y, en particular, la desviación estándar es significativamente mayor ahora en comparación con la configuración 5-5.

Configuración 7-7 Por último, consideramos siete acciones previas en una secuencia y dejamos que los modelos predigan siete acciones en el futuro. El TARMSE de GRU y LSTM está en 0,21 ± 0,05 y el del transformador en 0,48 ± 0,00. Cabe señalar que la desviación estándar del transformador se considera tan baja que el redondeo muestra cero aquí. El F1 es para GRU en 0,88 ± 0,02, para LSTM en 0,92 ± 0,01 y para Transformer similar a antes de 0,80 ± 0,01. Para GRU y LSTM, el CTA está en 54,24 ± 3,58 y 56,22 ± 2,55, mientras que el Transformador está en 63,88 ± 0,70. En todas las configuraciones podemos observar que el Transformer muestra un mejor rendimiento al predecir acciones futuras considerando el TARMSE. Vemos una tendencia de mejora en el TARMSE para el Transformador a medida que se consideran más acciones de entrada y aumenta el rango de predicción. Sin embargo, la puntuación F1 es mayor para los modelos GRU y LSTM.

Factor de ponderación de CTA Observamos que el factor de ponderación \(\tau \) influye en nuestro resultado final para el CTA. En la Figura 4 demostramos el factor de ponderación entre TARMSE y F1 para los modelos elegidos en nuestra configuración con siete acciones pasadas a considerar y siete acciones a predecir. GRU y LSTM demuestran aquí que debido a su puntuación F1 más alta, inicialmente comienzan por encima del modelo Transformer. Al aumentar \(\tau \) el modelo Transformer supera al modelo GRU (\(\tau = 0.229\)) y al modelo LSTM (\(\tau = 0.308\)) debido a su mejor TARMSE.

Impacto del parámetro de ponderación \(\tau \) para la métrica compuesta de acciones ponderadas en el tiempo. Se muestran los resultados de GRU, LSTM y Transformer (TF), considerando siete acciones en el pasado y prediciendo siete acciones futuras.

Estudio de ablación Como se mencionó anteriormente, durante las pruebas preliminares encontramos que la inclusión de muestras diversas reducía el rendimiento de los modelos seq2seq cuando se usaban durante el entrenamiento. Ilustramos esto en la Figura 5, donde observamos el RMSE de cuatro grupos de modelos. En cada grupo el modelo es el mismo, pero difieren en el conjunto de entrenamiento y prueba. En cada grupo, el primer experimento (1, 4, 7, 10) incluye las muestras misceláneas. Al segundo de cada grupo (2, 5, 8, 11) se le elimina su elemento extremo en la secuencia, omitiendo efectivamente siempre un paso del proceso. Al tercero de cada grupo (3, 6, 9, 12) se le eliminan todas las muestras misceláneas. La exclusión del elemento extremo en las muestras misceláneas mejora el rendimiento del modelo en un factor de tres a cuatro. Dado que la eliminación de un elemento extremo en las muestras misceláneas no refleja la aplicación del mundo real, optamos por eliminar toda la secuencia y lograr en promedio un aumento adicional del rendimiento del modelo del 18 %.

Efecto RMSE del rendimiento del modelo, incluidas muestras misceláneas (1, 4, 7, 10), muestras en las que se eliminó el elemento atípico extremo (2, 5, 8, 11) y muestras misceláneas completamente eliminadas (3, 6, 9, 12).

Los resultados muestran que nuestro VMAS puede ofrecer información interesante sobre datos del mundo real obtenidos de un sistema PDA para la fabricación de automóviles. Sin embargo, para medir el valor agregado para las partes interesadas, el enfoque debe evaluarse utilizando indicadores clave de desempeño. Sólo así es posible derivar de forma específica procesos de optimización a partir de los resultados. En la práctica, debido al extenso tiempo de capacitación requerido para entrenar modelos seq2seq, tiene sentido utilizar componentes de nuestro VMAS para un enfoque de dos etapas.

Etapa 1 En una primera etapa de integración, los resultados de la detección automática de picos y la identificación de errores de origen se utilizan para la identificación automática de pasos de trabajo que son particularmente críticos en función de la frecuencia con la que ocurren las fallas. Sin embargo, aquí sólo es posible un análisis superficial basado en las proporciones de errores. La profundización en las relaciones causa-efecto de los errores y, por tanto, la identificación de fallos especialmente críticos, todavía debe realizarse manualmente.

Etapa 2 Utilice un modelo seq2seq entrenado para identificar automáticamente las relaciones causa-efecto e investigue qué fallas de origen realmente resultan en la mayor cantidad de interrupciones y, por lo tanto, deben eliminarse primero. En este caso, se necesitaría una medida como la suma de todos los tiempos de perturbación con la que se pueda medir el error de cada fuente, para determinar qué tan crítico es. Esto nos permitiría crear una clasificación, reemplazando el análisis manual de la fase 1, después de una integración completa y un entrenamiento exitoso del modelo ML.

Nuestro enfoque en el artículo actual está en enfoques basados ​​en secuencias para identificar relaciones de causa y efecto de errores de fabricación en un conjunto de datos del mundo real. Utilizamos metodologías probadas para el aprendizaje secuencia a secuencia; incluidos LSTM, GRU y Transformers de última generación. En el futuro, también planeamos trabajar con datos adicionales de secuencia a secuencia y de series de tiempo, que nos proporcionó Volkswagen Commercial Vehicles, basando nuestro enfoque en arquitecturas de última generación como TadGANs26 e Informer27. Finalmente, si bien abordar la mejora sistemática del rendimiento está fuera del alcance de nuestro trabajo actual, nuestros métodos podrían usarse como una métrica de evaluación adicional para algoritmos de optimización que apuntan a mejorar la toma de decisiones en escenarios de producción28.

En la producción de carrocerías, la carrocería se procesa según los requisitos del pedido en estaciones de producción interconectadas. Con frecuencia se detectan fallos en las estaciones, donde las perturbaciones resultantes no sólo afectan a la propia estación, sino que también tienen un impacto negativo en las estaciones posteriores. Para abordar este problema, presentamos un novedoso sistema de análisis de fabricación de vehículos que puede identificar las relaciones causa-efecto de fallas y predecir retrasos futuros. La evaluación de nuestro marco sobre los datos de la producción de carrocerías de Volkswagen Vehículos Comerciales muestra que los errores de origen y de efecto en cadena son sorprendentemente prevalentes, ocurriendo en el 71,68% de las secuencias de acción. Además, mostramos que el componente de predicción de nuestro modelo funciona bien en la predicción de la duración de hasta siete acciones en el futuro, utilizando modelos de secuencia a secuencia de última generación, incluido el Transformador. Por lo tanto, el marco implementable se puede utilizar para procesar datos de manera eficiente para identificar errores de origen y de respuesta, así como para predecir retrasos futuros que pueden beneficiarse de una intervención temprana.

Los datos que respaldan los hallazgos de este estudio están disponibles en el Grupo Volkswagen, pero se aplican restricciones a la disponibilidad de estos datos, que se utilizaron bajo licencia para el estudio actual y, por lo tanto, no están disponibles públicamente. Sin embargo, los datos están disponibles a través de los autores previa solicitud razonable y con el permiso del Grupo Volkswagen. Comuníquese con el autor correspondiente, Jeff Reimer ([email protected]) y Juergen Urdich ([email protected]) del Grupo Volkswagen.

Chandra, R. & Chand, S. Evaluación de arquitecturas de redes neuronales coevolutivas para la predicción de series temporales con aplicaciones móviles en finanzas. Aplica. Computación suave. 49, 462–473 (2016).

Artículo de Google Scholar

Zhao, J., Liu, K., Wang, W. y Liu, Y. Detección de datos de anomalías basada en agrupamiento difuso adaptativo en el sistema energético de la industria del acero. inf. Ciencia. 259, 335–345 (2014).

Artículo de Google Scholar

Arena, F., Collotta, M., Luca, L., Ruggieri, M. & Termine, FG Mantenimiento predictivo en el sector automotriz: una revisión de la literatura. Matemáticas. Computadora. Aplica. 27, 2 (2022).

Google Académico

Denkena, B., Dittrich, M.-A., Fohlmeister, S., Kemp, D. & Palmer, G. Aprendizaje por refuerzo cooperativo escalable de múltiples agentes para la fabricación programada y controlada por pedidos en sistemas de fabricación flexibles. Simulación en Produktion und Logistik 2021: Erlangen, 15-17. Septiembre 2021 305 (2021).

Frausto-Solís, J., Chi-Chim, M. & Sheremetov, L. Pronóstico de series temporales de producción de petróleo con un método de recocido simulado basado en la población. Árabe. J. Ciencias. Ing. 40(4), 1081–1096 (Springer, 2015).

Lehmann, M. & Kuhn, H. Modelado y análisis de la estabilidad de secuencia en sistemas flexibles de producción automotriz. Doblar. Serv. Fabricante. J. 32, 366–394 (2020).

Artículo de Google Scholar

Huang, B., Wang, W., Ren, S., Zhong, RY y Jiang, J. Un método proactivo de envío de tareas basado en la predicción de futuros cuellos de botella para la fábrica inteligente. En t. J. Computación. Integral Fabricante. 32, 278–293 (2019).

Artículo de Google Scholar

Ding, S., Morozov, A., Vock, S., Weyrich, M. y Janschek, K. Detección de errores basada en modelos para sistemas de automatización industrial que utilizan redes lstm. En Simposio internacional sobre evaluación y seguridad basada en modelos, 212–226 (Springer, 2020).

Jiang, J.-R., Lee, J.-E. y Zeng, Y.-M. Red neuronal convolucional de múltiples canales de series temporales con memoria a largo plazo basada en la atención para predecir la vida útil restante de los rodamientos. Sensores 20, 166 (2020).

Artículo ADS CAS Google Scholar

das Chagas Moura, M., Zio, E., Lins, ID y Droguett, E. Predicción de fallas y confiabilidad mediante regresión de máquinas de vectores de soporte de datos de series de tiempo. Confiable. Ing. Sistema. Seguro. 96, 1527-1534 (2011).

Yadav, DK, Chaturvedi, SK y Misra, RB Previsión del tiempo entre fallos de software utilizando un enfoque de series temporales difusas. En la Reunión Anual de 2012 de la Sociedad Norteamericana de Procesamiento de Información Difusa (NAFIPS), 1–8, https://doi.org/10.1109/NAFIPS.2012.6291059 (2012).

Denkena, B., Dittrich, M.-A., Keunecke, L. y Wilmsmeier, S. Modelado continuo de la duración de las fallas de las máquinas herramienta para mejorar la programación de la producción. Pinchar. Ing. 14, 207–215 (2020).

Artículo de Google Scholar

Oladokun, V., CHARLES, OO & Nwaouzru, C. Una aplicación de redes neuronales artificiales a la gestión del mantenimiento. J. Ind. Ing. En t. 2, 19-26 (2006).

Chung, J., Gulcehre, C., Cho, K. y Bengio, Y. Evaluación empírica de redes neuronales recurrentes cerradas en modelado de secuencias. Preimpresión de arXiv arXiv:1412.3555 (2014).

Jerome, A., Ishii, T. y Chen, H. Previsión y detección de anomalías en métricas de aplicaciones utilizando lstm. En 2018 Conferencia Internacional IEEE sobre Big Data (Big Data), 2221–2227 (IEEE, 2018).

Malhotra, P., Vig, L., Shroff, G. y Agarwal, P. Redes de memoria a corto plazo para la detección de anomalías en series temporales. Actas 89, 89–94 (2015).

Google Académico

Vaswani, A. y col. Atención es todo lo que necesitas. En Avances en los sistemas de procesamiento de información neuronal, 5998–6008 (2017).

Parisotto, E. et al. Transformadores estabilizadores para el aprendizaje por refuerzo. En Conferencia internacional sobre aprendizaje automático, 7487–7498 (PMLR, 2020).

Nam, KH, Song, YJ y Yun, ID Sss-ae: Detección de anomalías mediante un codificador automático de secuencia a secuencia basado en la atención propia en el sonido de una máquina de ensamblaje SMD. Acceso IEEE 9, 131191–131202. https://doi.org/10.1109/ACCESS.2021.3112545 (2021).

Artículo de Google Scholar

Li, J. y col. Dtdr-alstm: Extracción de retrasos de tiempo dinámicos para reconstruir datos multivariados para mejorar los modelos de predicción de series de tiempo industriales lstm basados ​​en la atención. Sistema basado en el conocimiento. 211, 106508. https://doi.org/10.1016/j.knosys.2020.106508 (2021).

Artículo de Google Scholar

Li, X., Krivtsov, V. y Arora, K. Modelo de supervivencia profunda basado en la atención para datos de series temporales. Confiable. Ing. Sistema. Seguro. 217, 108033. https://doi.org/10.1016/j.ress.2021.108033 (2022).

Artículo de Google Scholar

Yuan, Y. et al. Uso de una red de codificador-decodificador lstm basada en la atención para la detección de perturbaciones casi en tiempo real. IEEE J. Sel. Arriba. Aplica. Observación de la Tierra. Sensores remotos 13, 1819–1832. https://doi.org/10.1109/JSTARS.2020.2988324 (2020).

ADS del artículo Google Scholar

Chapman, P. y col. La guía del usuario de crisp-dm. En el 4º taller CRISP-DM SIG celebrado en Bruselas en marzo, vol. 1999 (sn, 1999).

Mishra, S. & Datta-Gupta, A. Capítulo 3 - distribuciones y modelos de las mismas. En Mishra, S. y Datta-Gupta, A. (eds.) Modelado estadístico aplicado y análisis de datos, 31–67, https://doi.org/10.1016/B978-0-12-803279-4.00003-1 (Elsevier , 2018).

Hochreiter, S. y Schmidhuber, J. Memoria larga y a corto plazo. Computación neuronal. 9, 1735-1780 (1997).

Artículo CAS Google Scholar

Geiger, A., Liu, D., Alnegheimish, S., Cuesta-Infante, A. y Veeramachaneni, K. Tadgan: Detección de anomalías en series temporales mediante redes generativas adversarias. En 2020 Conferencia Internacional IEEE sobre Big Data (Big Data), 33–43 (IEEE, 2020).

Zhou, H. y col. Informador: Más allá de un transformador eficiente para el pronóstico de series temporales de secuencia larga. Proc. Conferencia AAAI. Artif. Intel. 35, 11106–11115 (2021).

Google Académico

Magnanini, MC, Terkaj, W. & Tolio, T. Optimización robusta de la flexibilidad de los sistemas de fabricación. Procedia CIRP 96, 63–68 (2021).

Artículo de Google Scholar

Descargar referencias

Los autores reconocen con gratitud que la investigación propuesta es el resultado del proyecto de investigación "IIP-Ecosphere", otorgado por el Ministerio Federal Alemán de Economía y Acción Climática (BMWK) a través del código de financiación 01MK20006A.

Estos autores contribuyeron igualmente: Jeff Reimer y Yandong Wang.

Centro de Investigación L3S, Universidad Leibniz de Hannover, 30167, Hannover, Alemania

Jeff Reimer, Yandong Wang, Sophia Laridi y Gregory Palmer

Instituto de Ingeniería de Fabricación y Máquinas-Herramienta, Universidad Leibniz de Hannover, 30167, Hannover, Alemania

Soren Wilmsmeier

Grupo Volkswagen, apartado postal 21 05 80, 30405, Hannover, Alemania

Jürgen Urdich

También puedes buscar este autor en PubMed Google Scholar.

También puedes buscar este autor en PubMed Google Scholar.

También puedes buscar este autor en PubMed Google Scholar.

También puedes buscar este autor en PubMed Google Scholar.

También puedes buscar este autor en PubMed Google Scholar.

También puedes buscar este autor en PubMed Google Scholar.

Todos los autores proporcionaron comentarios críticos y ayudaron a dar forma a la investigación. YW y JR contribuyeron al desarrollo y evaluación de la metodología propuesta. YW y SL contribuyeron al desarrollo de las métricas de evaluación. JU proporcionó un conocimiento de dominio invaluable y ayudó a formular el problema de investigación. JR, SW y GP concibieron igualmente la idea original y el diseño experimental. SW y GP coordinaron y supervisaron el proyecto. Todos los autores revisaron el manuscrito.

Correspondencia a Jeff Reimer.

Springer Nature se mantiene neutral con respecto a reclamos jurisdiccionales en mapas publicados y afiliaciones institucionales.

Acceso Abierto Este artículo está bajo una Licencia Internacional Creative Commons Attribution 4.0, que permite el uso, compartir, adaptación, distribución y reproducción en cualquier medio o formato, siempre y cuando se dé el crédito apropiado al autor(es) original(es) y a la fuente. proporcione un enlace a la licencia Creative Commons e indique si se realizaron cambios. Las imágenes u otro material de terceros en este artículo están incluidos en la licencia Creative Commons del artículo, a menos que se indique lo contrario en una línea de crédito al material. Si el material no está incluido en la licencia Creative Commons del artículo y su uso previsto no está permitido por la normativa legal o excede el uso permitido, deberá obtener permiso directamente del titular de los derechos de autor. Para ver una copia de esta licencia, visite http://creativecommons.org/licenses/by/4.0/.

Reimpresiones y permisos

Reimer, J., Wang, Y., Laridi, S. et al. Identificar relaciones de causa y efecto de errores de fabricación mediante el aprendizaje secuencia a secuencia. Representante científico 12, 22332 (2022). https://doi.org/10.1038/s41598-022-26534-y

Descargar cita

Recibido: 18 de mayo de 2022

Aceptado: 15 de diciembre de 2022

Publicado: 25 de diciembre de 2022

DOI: https://doi.org/10.1038/s41598-022-26534-y

Cualquier persona con la que compartas el siguiente enlace podrá leer este contenido:

Lo sentimos, actualmente no hay un enlace para compartir disponible para este artículo.

Proporcionado por la iniciativa de intercambio de contenidos Springer Nature SharedIt

Al enviar un comentario, acepta cumplir con nuestros Términos y pautas de la comunidad. Si encuentra algo abusivo o que no cumple con nuestros términos o pautas, márquelo como inapropiado.