Lo que responde este artículo
Resumen del artículo
Para alinearse con los estándares de aplicaciones colaborativas de 2026, los OEM deben validar la aplicación robótica completa, no solo el brazo robótico. En la práctica, esto significa probar la lógica de seguridad del PLC, la detección de zonas, el comportamiento de parada y las interacciones en el espacio de trabajo frente a un gemelo digital que muestre si la secuencia de seguridad prevista coincide con el comportamiento físico de la máquina.
Un robot colaborativo no es automáticamente una aplicación colaborativa segura. Esa distinción es fundamental para la conversación de 2026, y es a menudo donde comienzan las suposiciones de seguridad débiles.
Una ejecución de validación reciente de Ampergon Vallis en un escenario de paletizado mostró que una brecha de zona LiDAR simulada a 1,6 m/s requería un margen de deceleración adicional de 140 ms en la secuencia de control para evitar una colisión virtual. [Metodología: 12 ejecuciones repetidas de una tarea de gemelo digital de paletizador, comparadas con la misma lógica sin margen de deceleración añadido, observadas durante el primer trimestre de 2026.] Esto respalda un punto limitado: los márgenes de tiempo que parecen aceptables en la revisión de lógica estática pueden fallar una vez que se modelan el movimiento y la inercia. No respalda ninguna afirmación general sobre todas las celdas robóticas, todas las cargas útiles o el cumplimiento formal.
El problema práctico es simple. La lógica de seguridad que parece correcta en un editor de diagramas de escalera (ladder) aún puede llegar tarde en un espacio de trabajo real.
¿Cuál es la diferencia entre un robot seguro y una aplicación colaborativa segura?
Un robot seguro y una aplicación colaborativa segura no son lo mismo. Bajo el marco de la norma ISO 10218 y la guía colaborativa relacionada, la seguridad se evalúa a nivel de aplicación, no la otorga únicamente el manipulador.
Esto significa que el caso de seguridad debe incluir todo el sistema de trabajo:
- el manipulador robótico,
- el efector final o herramienta,
- la pieza de trabajo o carga útil,
- la disposición del espacio de trabajo,
- la arquitectura de detección,
- y la lógica de control que rige los estados de interacción.
Esto es importante porque un brazo robótico comercializado para uso colaborativo puede volverse peligroso una vez que transporta una pinza afilada, una antorcha de soldadura, una caja pesada o una pieza de chapa rígida. La limitación de fuerza interna no neutraliza todos los peligros de la aplicación.
Los tres elementos de la aplicación que cambian el caso de seguridad
El panorama de riesgo a nivel de aplicación cambia materialmente cuando se añaden estos elementos:
- Manipulador: Alcance, velocidad, comportamiento de parada, movimiento de ejes e interfaces de control. - Efector final/herramienta: Puntos de atrapamiento, bordes afilados, riesgos térmicos, energía almacenada, pérdida de vacío o fallo de agarre. - Pieza de trabajo/carga útil: Masa, geometría, inercia, riesgo de caída y riesgo de impacto secundario.
La norma ISO/TS 15066 se utiliza comúnmente como guía para la operación colaborativa, particularmente en torno a los límites de contacto y la evaluación de la aplicación, mientras que las normas ISO 10218-1 e ISO 10218-2 definen el marco más amplio de robots e integración. La implicación de ingeniería clave es estable: el integrador debe validar el comportamiento de la aplicación en contexto, no simplemente heredar el lenguaje de marketing del proveedor del robot.
¿Cuáles son los cuatro modos de operación colaborativa definidos por las normas ISO?
Los cuatro modos de operación colaborativa son Parada supervisada con seguridad, Guía manual, Monitoreo de velocidad y separación, y Limitación de potencia y fuerza. Estos son los modos de referencia estándar utilizados al diseñar aplicaciones de robots colaborativos.
Para los ingenieros de control, la distinción importante es que no son solo etiquetas. Implican diferentes arquitecturas de detección, diferentes comportamientos de control y diferentes cargas de validación.
1. Parada supervisada con seguridad (SMS)
Parada supervisada con seguridad significa que el robot se detiene cuando un humano entra en el espacio colaborativo, mientras que el reinicio del movimiento es controlado y condicional.
Las implicaciones típicas de control incluyen:
- entrada de seguridad desde escáner, puerta o dispositivo de zona,
- ruta de comando de parada segura,
- permisos de reinicio y puesta en marcha,
- prueba de que el movimiento permanece inhibido mientras hay personal presente.
2. Guía manual (HG)
Guía manual permite a un operador guiar directamente el movimiento del robot utilizando un dispositivo de habilitación dedicado y condiciones de operación restringidas.
Las implicaciones típicas de control incluyen:
- validación del dispositivo de habilitación,
- selección de modo de operación limitado,
- comportamiento restringido de velocidad o fuerza,
- transición supervisada dentro y fuera del modo de guía manual.
3. Monitoreo de velocidad y separación (SSM)
Monitoreo de velocidad y separación significa que la velocidad del robot se controla dinámicamente para mantener una distancia de separación protectora mínima entre el sistema robótico y el humano.
Las implicaciones típicas de control incluyen:
- entradas de zona basadas en escáner de área o visión,
- estados de reducción de velocidad,
- estados de parada segura cuando se viola la separación,
- transiciones dinámicas entre movimiento normal, reducido y detenido.
4. Limitación de potencia y fuerza (PFL)
Limitación de potencia y fuerza significa que la aplicación está diseñada para que el contacto, si ocurre, permanezca dentro de límites biomecánicos aceptables bajo condiciones definidas.
Las implicaciones típicas de control incluyen:
- límites de fuerza o par validados,
- restricciones de carga útil y herramientas,
- limitaciones de velocidad,
- evaluación de riesgo de lesiones específica de la aplicación.
A menudo se malinterpreta la PFL como "el robot es seguro al tacto". Eso es demasiado amplio para ser útil. La verdadera pregunta es si la aplicación, bajo condiciones de operación definidas, permanece dentro de los límites aceptables.
¿Cómo se programa la lógica de Monitoreo de velocidad y separación?
Programar la lógica SSM requiere más que asignar un bit de escáner a una bobina de parada. La lógica debe tener en cuenta la aproximación humana, la velocidad del robot, el tiempo de respuesta, la distancia de parada y las reglas de transición entre los estados de advertencia, velocidad reducida y parada.
Un marco de separación protectora común es:
S = (v_h × T_r) + (v_r × T_r) + C
Donde:
- S = distancia de separación protectora
- v_h = velocidad de aproximación humana
- v_r = velocidad de aproximación del robot
- T_r = tiempo de respuesta total del sistema
- C = factor de compensación adicional por intrusión o medición
El método de implementación exacto depende de la arquitectura de detección y la evaluación de riesgos aplicable, pero el principio de ingeniería es estable: si se subestima el tiempo de respuesta, la distancia de separación no es fiable.
¿Qué debe hacer la lógica ladder en una aplicación SSM?
Como mínimo, la lógica ladder debe gestionar estas transiciones de estado:
- Operación normal: Movimiento a plena velocidad permitido cuando no se infringe ninguna zona protectora. - Zona de advertencia ingresada: Comandar velocidad reducida y verificar que el robot reconozca el estado de velocidad reducida. - Zona protectora ingresada: Activar la función de parada segura requerida e inhibir el movimiento peligroso. - Zona despejada: Mantener las condiciones de reinicio hasta que se satisfagan el restablecimiento, el reconocimiento o los permisos procedimentales. - Estado de fallo: Predeterminar un estado seguro si se pierde la salud del escáner, las comunicaciones o la validez de la entrada de seguridad.
Ejemplo de patrón de lógica ladder para una brecha de zona de seguridad
|---[ LiDAR_Healthy ]---[ Safety_Zone_Breach ]-----------------(TON Debounce_150ms)---| |---[ Debounce_150ms.DN ]--------------------------------------(CMD_Safe_Stop_Cat1)---| |---[ Debounce_150ms.DN ]--------------------------------------(INH_Motion_Enable)----| |---[/ LiDAR_Healthy ]-----------------------------------------(CMD_Safe_Stop_Cat0)---| |---[ Warning_Zone_Breach ]---[/ Safety_Zone_Breach ]---------(CMD_Reduced_Speed)----|
Este patrón es intencionalmente simple. En un diseño real, la categoría de parada, la cobertura de diagnóstico, el comportamiento de reinicio y la arquitectura de seguridad deben alinearse con la evaluación de riesgos y el diseño del subsistema con clasificación de seguridad.
El temporizador de rebote (debounce) merece un breve comentario. Está ahí para reducir los disparos molestos por transiciones de zona ruidosas, no para retrasar una ruta de señal peligrosa sin justificación. El filtrado de seguridad debe estar justificado.
¿Cómo deben manejar los ingenieros la lógica de muting?
La lógica de muting debe distinguir el movimiento de material esperado de la intrusión humana sin debilitar la función protectora. Eso generalmente significa:
- definir la condición específica de transportador o entrada que permite el muting,
- limitar el muting a un tiempo y dirección acotados,
- probar que la entrada humana aún produce la respuesta protectora requerida,
- generar alarmas o fallos ante una persistencia anormal del muting.
¿Por qué son necesarios los gemelos digitales para la validación de seguridad de 2026?
Los gemelos digitales son necesarios en la práctica porque la revisión de lógica estática no puede probar el comportamiento de seguridad del movimiento bajo condiciones de fallo realistas. Para las aplicaciones colaborativas, la pregunta relevante no es solo "¿qué pretende el PLC?", sino "¿qué sucede físicamente antes de que la máquina alcance un estado seguro?".
En este artículo, validación con gemelo digital significa: vincular la lógica ladder del PLC a un modelo 3D habilitado para cinemática para observar la diferencia entre la secuencia de seguridad prevista y el comportamiento de deceleración física durante un estado de fallo.
Esa es una definición operativa.
Lo que la validación con gemelo digital puede mostrar y la revisión estática a menudo pasa por alto
Una simulación configurada correctamente puede exponer:
- retraso de deceleración después de un comando de parada,
- diferencias de parada dependientes de la carga útil,
- errores de temporización en la brecha de zona,
- comportamiento de pérdida de señal del escáner,
- condiciones de carrera entre la reducción de velocidad y los comandos de parada,
- errores de permisos de reinicio,
- desajuste entre el estado ladder y el estado del equipo físico.
Aquí es donde OLLA Lab se vuelve operativamente útil.
OLLA Lab se entiende mejor aquí como un entorno de validación y ensayo acotado. Los ingenieros pueden construir lógica ladder en el navegador, ejecutarla en modo de simulación, inspeccionar E/S y variables, y observar el efecto en modelos de equipos 3D o WebXR que representan escenarios industriales realistas. En ese flujo de trabajo, el producto no es un generador de cumplimiento ni un sustituto de la evaluación formal de seguridad. Es un lugar para inducir condiciones anormales de forma segura y repetida antes de que la puesta en marcha física se vuelva más costosa.
Por qué las pruebas solo físicas son un mal primer paso
Las pruebas físicas de brechas de zona de alta velocidad están limitadas por restricciones obvias:
- exponen al personal y al equipo a riesgos evitables,
- son difíciles de repetir con una temporización idéntica,
- pueden degradar el hardware,
- alientan a los equipos a probar solo casos "razonables",
- y a menudo ocurren demasiado tarde, después de que los compromisos mecánicos y de cronograma ya están fijados.
Qué significa "listo para simulación" en este contexto
Listo para simulación no significa estar familiarizado con la sintaxis de PLC o sentirse cómodo en un visor 3D. Significa que un ingeniero puede probar, observar, diagnosticar y endurecer la lógica de control frente al comportamiento real del proceso antes de que llegue a un proceso en vivo.
Los comportamientos observables de un ingeniero listo para simulación incluyen:
- definir qué significa "correcto" antes de probar,
- rastrear cambios de E/S a través del estado ladder y la respuesta de la máquina,
- inyectar fallos deliberadamente,
- comparar el estado comandado con el estado del equipo simulado,
- revisar la lógica después de un comportamiento anormal,
- y documentar por qué la revisión mejora el resultado del control.
¿Cómo pueden los OEM usar OLLA Lab para validar la lógica de aplicaciones colaborativas de forma segura?
Los OEM pueden usar OLLA Lab como un entorno de pruebas (sandbox) con riesgos contenidos para ensayar comportamientos lógicos de alto riesgo que son difíciles, costosos o inseguros de probar primero en hardware físico.
Dentro del alcance documentado del producto, eso incluye:
- construir lógica ladder en un editor basado en web,
- ejecutar y detener la lógica en modo de simulación,
- alternar entradas y observar salidas,
- monitorear variables, valores analógicos y estados relacionados con PID,
- validar la lógica frente a modelos de máquinas 3D o WebXR,
- y trabajar a través de secuencias basadas en escenarios, peligros, enclavamientos y notas de puesta en marcha.
Para aplicaciones colaborativas, eso respalda un flujo de trabajo de validación práctico como:
- Construir la lógica de estado relacionada con la seguridad para condiciones de advertencia, velocidad reducida, parada, reinicio y fallo.
- Vincular el comportamiento de la lógica a un escenario de máquina que incluya movimiento e interacción en el espacio de trabajo.
- Inyectar brechas de escáner, pérdida de comunicaciones, cambios de carga útil o casos extremos de reinicio.
- Observar si el estado de la máquina simulada coincide con la secuencia de seguridad prevista.
- Revisar la temporización, los permisos o el manejo de fallos.
- Preservar el rastro de evidencia.
El valor no es que la simulación reemplace las pruebas en sitio. El valor es que elimina la ignorancia evitable antes de que comiencen las pruebas en sitio.
¿Cómo pueden los OEM construir un paquete de decisión de cumplimiento utilizando simulación?
La simulación debe contribuir a un paquete de decisión de cumplimiento como evidencia de ingeniería, no como un apéndice decorativo. Los auditores y revisores de seguridad son persuadidos por razonamientos trazables, evidencia de prueba acotada e historial de revisiones, no por una carpeta llena de capturas de pantalla.
Utilice esta estructura de evidencia compacta:
1) Descripción del sistema
Documente:
- propósito de la celda,
- tarea del robot,
- herramientas y carga útil,
- dispositivos de detección,
- funciones de seguridad,
- modos de operación,
- y el límite de interacción humana previsto.
2) Definición operativa de "correcto"
Defina criterios de aprobación observables tales como:
- el comando de velocidad reducida ocurre dentro de la condición de zona de advertencia,
- el movimiento peligroso se inhibe ante una brecha de zona protectora,
- el reinicio requiere restablecimiento y que todos los permisos sean verdaderos,
- la pérdida de salud del escáner fuerza al sistema a un estado seguro,
- el comportamiento de parada simulado permanece dentro de la envolvente protegida.
Si "correcto" no está definido en términos observables, la prueba no es muy útil.
3) Lógica ladder y estado del equipo simulado
Preserve:
- la versión ladder probada,
- el estado de la variable y E/S en cada transición,
- el movimiento de la máquina correspondiente o comportamiento de parada en el gemelo digital,
- y cualquier valor analógico o de temporización relevante.
Esta es la comparación central: estado ladder frente a estado del equipo.
4) El caso de fallo inyectado
Indique exactamente qué se inyectó, por ejemplo:
- brecha de zona de advertencia durante movimiento a plena velocidad,
- brecha de zona protectora durante el desplazamiento con carga útil máxima,
- pérdida de comunicaciones del escáner,
- transición de falso despeje,
- solicitud de reinicio con permisos incompletos,
- o muting activo durante una entrada humana inesperada.
5) La revisión realizada
Documente el cambio de ingeniería real:
- ajuste de rebote (debounce),
- cambio de categoría de parada,
- umbral de reducción de velocidad revisado,
- permiso de verificación de salud añadido,
- corrección de secuencia de reinicio,
- o estructura de enclavamiento alterada.
6) Lecciones aprendidas
Capture lo que reveló la prueba, como:
- las suposiciones de tiempo de respuesta eran optimistas,
- la inercia de la carga útil cambió el margen de tiempo seguro,
- la salud del escáner necesitaba un manejo de fallos explícito,
- o las transiciones de estado eran lógicamente válidas pero físicamente tardías.
Ese cuerpo de evidencia es generalmente más creíble que un panel de control pulido sin lógica de prueba detrás.
¿Qué normas y literatura importan al validar aplicaciones colaborativas?
La base de las normas debe ser explícita. Las aplicaciones colaborativas se sitúan en la intersección de la seguridad robótica, la seguridad funcional y la evaluación de riesgos específica de la aplicación.
Las referencias comúnmente relevantes incluyen:
- ISO 10218-1 / ISO 10218-2 para requisitos de seguridad de robots industriales e integración.
- ISO/TS 15066 para guía de aplicaciones de robots colaborativos.
- IEC 61508 para el marco de seguridad funcional más amplio de sistemas eléctricos, electrónicos y programables.
- Guía técnica de organizaciones como exida y profesionales reconocidos en seguridad de máquinas para la interpretación de la implementación.
- Literatura revisada por pares sobre gemelos digitales, validación ciberfísica y simulación industrial de fuentes como IFAC-PapersOnLine, Sensors y revistas de sistemas de fabricación relacionadas.
Vale la pena declarar una advertencia claramente: ningún simulador, incluido OLLA Lab, otorga cumplimiento por asociación. El cumplimiento depende del diseño completo de la aplicación, la evaluación de riesgos, la arquitectura de seguridad implementada, el registro de validación y las condiciones finales instaladas.
¿Qué deben hacer los equipos OEM a continuación?
Los equipos OEM deben dejar de preguntar si el robot es colaborativo y comenzar a preguntar si el comportamiento de la aplicación es demostrablemente seguro bajo condiciones de fallo.
La secuencia práctica es:
- definir el modo colaborativo,
- identificar las funciones protectoras,
- modelar el comportamiento de parada y separación,
- validar la lógica ladder frente al movimiento realista de la máquina,
- inyectar estados anormales antes de la puesta en marcha en sitio,
- y preservar un paquete de evidencia trazable.
Esa es la diferencia entre un diseño plausible y uno defendible.
Sigue explorando
Related Reading
Related reading
How To Validate Iso 10218 1 2025 Robot Safety Interlocks In Ladder Logic →Related reading
How To Program Amr Dynamic Safety Zones In A Plc →Related reading
How To Program An Automated Mixer State Machine In Ladder Logic →Related reading
Explore el centro de programación de PLC industrial →Related reading
Artículo relacionado: Tema 3 Artículo 1 →Related reading
Artículo relacionado: Tema 3 Artículo 2 →Related reading
Ejecute este flujo de trabajo en OLLA Lab ↗