1) 定义(配置 + 环境类)
- 配置类(如 GO2WRoughCfg)
- 通过嵌套类定义 env、commands、terrain、init_state、control、asset、rewards 等参数。训练代码和环境构建器读取这些字段来决定 num_envs、obs/action 大小、URDF 路径、地形类型、物理/奖励超参等。
- 典型字段:env.num_envs、env.num_observations、terrain.mesh_type、asset.file、control.action_scale 等。
- 机器人环境类(如 go2w_robot.Go2w,继承自 LeggedRobot)
- 负责把配置映射为仿真:初始化 gym/SimParams、加载 asset(URDF)、创建 terrain、创建 envs 并实例化 actor(create_sim / _create_envs)。
- 提供与训练循环交互的方法/接口:reset_idx/reset、set_actions、pre_physics_step、post_physics_step、compute_observations、compute_reward、is_done、close 等。
- 内部维护属性:self.sim, self.gym, self.envs, self.actor_handles, self.num_envs, self.num_obs/obs_size, self.num_actions/act_size。
2) 封装(将 robot 环境适配为统一接口)
- 目的:把项目内部的并行 Isaac Gym 环境适配为上层训练代码或 gym 接口,隐藏细节、统一调用。
- 封装器示例:
- wrapper_env(自定义 gym.Env):在 __init__ 中实例化 robot(或通过工厂),调用 robot.create_sim(),并根据 robot.obs_size/act_size 填充 observation_space/action_space。
- HistoryWrapper(功能性包装器):在 step/get_observations 中维护历史观测并把它并入返回的观测字典。
- wrapper 的职责:
- 在 step(action) 中下发动作(robot.set_actions),调用 pre_physics_step、推进仿真(simulate/fetch_results/step_graphics/sync_frame_time)、post_physics_step,然后调用 robot.compute_observations/compute_reward/is_done 并返回 numpy 类型的 obs/reward/done/info。
- 处理 batched obs(Isaac Gym 通常返回 num_envs × obs_dim 的批量观测),并根据上层算法期望做 reshape 或拆分。
3) 调用(训练/评估流程)
- 直接自定义训练循环(无 RL 库):
```python from legged_gym.envs.go2w.go2w_robot import Go2w cfg = GO2WRoughCfg() robot = Go2w(cfg) robot.create_sim() robot.reset_idx([0]) # 或 robot.reset() for step in range(steps): action = agent_policy(obs) # 形状应匹配 robot 的动作维度(可为 batched) robot.set_actions(action) robot.pre_physics_step() robot.gym.simulate(robot.sim) robot.gym.fetch_results(robot.sim, True) robot.gym.step_graphics(robot.sim) robot.gym.draw_viewer(robot.viewer, robot.sim, True) robot.post_physics_step() obs = robot.compute_observations() reward = robot.compute_reward() ``` - 通过封装成标准 gym.Env(便于接入 RL 框架如 Stable‑Baselines3): ```python from legged_gym.envs.wrappers.wrapper_env import IsaacGymEnv cfg = GO2WRoughCfg() # 或把 cfg 转为 dict,视 wrapper 实现而定 env = IsaacGymEnv(cfg) obs = env.reset() obs, reward, done, info = env.step(action) # 如果用 SB3:把一个 env(内部已并行 num_envs)用 DummyVecEnv 包装 ```4) 关键注意点与常见问题
- 批量语义:Isaac Gym 通常在单个进程里并行 num_envs 个 env,compute_observations 返回 shape=(num_envs, obs_dim)。RL 框架期望逐环境返回时可能需适配。
- 必需接口:robot 必须实现 create_sim、reset_idx/reset、set_actions、compute_observations、compute_reward、is_done(或 wrapper 映射这些)。
- URDF/mesh 与渲染:URDF 语法错误或 package:// 路径未解析会导致 asset 加载失败(模型不可见);确保 asset.file 与 mesh 路径正确、xmllint 检查、权限 OK。
- 性能:不要每帧用 torch.cat 扩展历史,改用 torch.roll + 切片;大量并行 env 时注意内存/显存与 sim_params.use_gpu_pipeline 设置。
- 渲染 vs headless:训练可能禁用 GPU 渲染(use_gpu_pipeline=False);若需要可视化,确保 sim_params.use_gpu_pipeline=True 并创建 viewer。
5) 建议的接口契约(便于通用封装)
- 属性:num_envs, obs_size/num_observations, act_size/num_actions, gym, sim, viewer(可选)
- 方法:create_sim(cfg), reset_idx(env_ids), set_actions(actions), pre_physics_step(), post_physics_step(), compute_observations(), compute_reward(), is_done(), close()
总结(一句话)
- 配置(GO2W...Cfg)定义参数 → Robot 类(Go2w)根据配置创建 sim/terrain/actor 并提供仿真/观测/奖励接口 → wrapper(gym.Env)把 robot 映射为标准接口供训练脚本或 RL 库调用;关键在于处理好“批量(num_envs)语义”、URDF/mesh 正确性和接口契约。