Aprendizaje de robots

Entrene políticas de robots en simulación.

Boston Dynamics

Cargas de trabajo

Herramientas y técnicas de computación acelerada
Centro de datos/nube
Robótica
Simulación/Modelado/Diseño

Sectores

Atención sanitaria y ciencias de la vida
Fabricación
Venta minorista/Bienes de consumo envasados
Ciudades/espacios inteligentes


Objetivo comercial

Innovación
Retorno de la inversión

Productos

NVIDIA Isaac GR00T
NVIDIA Isaac Lab
NVIDIA Isaac Sim
NVIDIA Jetson AGX
NVIDIA Omniverse

Construir políticas de robots generalistas

Si bien los robots preprogramados pueden ser útiles para tareas específicas y repetitivas, tienen un inconveniente principal. Operan utilizando instrucciones fijas dentro de entornos establecidos y esto limita su adaptabilidad a cambios inesperados.

Los robots impulsados por IA superan estas limitaciones a través del aprendizaje basado en la simulación y les permite percibir, planificar y actuar de forma autónoma en condiciones dinámicas. Pueden adquirir y perfeccionar nuevas habilidades utilizando políticas aprendidas (conjuntos de comportamientos para la navegación, la manipulación y mucho más) para mejorar la toma de decisiones en diferentes situaciones antes de implementarse en el mundo real.

Ventajas del aprendizaje de robots basado en simulación

Flexibilidad y escalabilidad

El enfoque «simulación primero» permite el entrenamiento de cientos o miles de instancias de robots en paralelo. Los desarrolladores pueden iterar, perfeccionar e implementar políticas robóticas para escenarios reales utilizando una variedad de fuentes de datos, desde datos capturados por robots reales hasta datos sintéticos en entornos de simulación. Esto funciona para cualquier configuración de robots, incluidos los robots móviles autónomos (los Autonomous Mobile Robots, AMR), los brazos robóticos y los robots humanoides.

Desarrollo de habilidades acelerado

Entrenan robots en entornos de simulación físicamente precisos, les ayudan a adaptarse a nuevas variaciones de tareas y reducen la brecha entre la simulación y la realidad sin la necesidad de reprogramar el hardware de los robots físicos.

Entorno de prueba seguro

Pruebe escenarios potencialmente peligrosos sin arriesgar la seguridad humana ni dañar el equipo.

Costes reducidos

Evite la carga de los costes de recopilación y etiquetado de datos del mundo real generando grandes cantidades de datos sintéticos, validando políticas de robots entrenadas en simulación e implementando en robots más rápido. 

Algoritmos de aprendizaje de robots

Los algoritmos de aprendizaje para robots, como el aprendizaje de imitación o los algoritmos de aprendizaje por refuerzo, pueden ayudar a los robots a generalizar habilidades aprendidas y mejorar su rendimiento en entornos cambiantes o novedosos. Hay varias técnicas de aprendizaje, entre ellas:

  • Aprendizaje por imitación: el robot puede aprender a partir de demostraciones de tareas de humanos u otros robots, así como de datos de vídeo o de sensores de agentes que realizan el comportamiento deseado.
  • Aprendizaje por refuerzo: Este enfoque de prueba y error otorga al robot una recompensa o una penalización en función de las acciones que realiza.
  • Aprendizaje supervisado: el robot se puede entrenar utilizando datos etiquetados para aprender tareas específicas.
  • Aprendizaje autosupervisado: cuando hay conjuntos de datos etiquetados limitados, los robots pueden generar sus propias etiquetas de entrenamiento a partir de datos no etiquetados para extraer información significativa.

Enseñe a los robots a aprender y adaptarse

Un flujo de trabajo típico de robots de extremo a extremo implica el procesamiento de datos, el entrenamiento de modelos, la validación en simulación y la implementación en un robot real.

Procesamiento de datos: para disminuir las brechas de datos, utilice un conjunto diverso de datos de alta calidad que combine datos de internet, datos sintéticos y datos de robots reales. 

Entrenamiento y validación en simulación: los robots deben entrenarse e implementarse para escenarios definidos por tareas y que requieran representaciones virtuales precisas de condiciones reales. El NVIDIA Isaac™ Lab, un marco de código abierto para el aprendizaje de robots, puede ayudar a entrenar políticas de robots mediante el uso de técnicas de aprendizaje por refuerzo y aprendizaje por imitación en un enfoque modular. 

Isaac Lab se integra de forma nativa con NVIDIA Isaac Sim™, una aplicación de simulación robótica de referencia basada en la plataforma NVIDIA Omniverse™, a través del uso de la física de NVIDIA PhysX® acelerada por GPU y el renderizado RTX™ para una validación de alta fidelidad. Este marco unificado le permite crear prototipos rápidamente de políticas en entornos de simulación ligeros antes de implementarlas en sistemas de producción.

Implementación en el robot real: las políticas de robots y los modelos de IA entrenados se pueden implementar en NVIDIA Jetson™, ordenadores integrados en robots que ofrecen el rendimiento y la seguridad funcional necesarios para el funcionamiento autónomo.

Aprendizaje de imitación y aprendizaje por refuerzo para robots

Aprendizaje de imitación

Si bien el aprendizaje de imitación permite a los robots humanoides desarrollar nuevas habilidades replicando demostraciones de expertos, la recopilación de conjuntos de datos reales a menudo resulta costosa y requiere mucha mano de obra. 

Para superar este desafío, los desarrolladores pueden utilizar los planos NVIDIA Isaac GR00T-Mimic y GR00T-Dreams, basados en NVIDIA Cosmos™, para producir conjuntos de datos de movimiento sintético grandes y diversos para el entrenamiento. 

Estos conjuntos de datos se pueden utilizar para entrenar los modelos de base abierta de Isaac GR00T N dentro de Isaac Lab y un razonamiento humanoide generalizado y una adquisición robusta de habilidades.

Aprendizaje de refuerzo

Utilice Isaac Lab para realizar simulaciones físicas de alta fidelidad, realizar cálculos de recompensas y permitir el aprendizaje por refuerzo (RL) basado en la percepción dentro de entornos modulares y personalizables.

Empiece configurando una amplia variedad de robots en entornos variados, definiendo tareas de RL y entrenando modelos utilizando bibliotecas optimizadas para las GPU, como RSL RL, RL-Games, SKRL y Stable Baselines3, todos ellos compatibles de forma nativa con Isaac Lab.

Isaac Lab ofrece flujos de trabajo flexibles, ya sean directos o basados en gestores, para que tenga control sobre la complejidad y la automatización de sus trabajos de entrenamiento. Además, NVIDIA OSMO—una plataforma de orquestación nativa de la nube—permite un escalado y una gestión eficientes de cargas de trabajo de robótica complejas, en varias etapas y contenedores en sistemas con varias GPU y varios nodos. Esto puede acelerar significativamente el desarrollo y la evaluación de políticas de aprendizaje para robots.

Empezar

Cree robots adaptables con políticas sólidas, habilitadas para la percepción y entrenadas en simulación utilizando NVIDIA Isaac Lab, un marco modular de código abierto para el aprendizaje de robots.

Noticias

Casos de uso relacionados