gazebo小车使用stereo相机ORB_SLAM2

本文介绍了如何在Gazebo模拟环境中为机器人模型添加stereo相机,并使用ORB_SLAM2进行立体视觉SLAM。首先修改urdf文件以替换原有的单目相机,然后编译工作空间并调整ORB_SLAM2的设置。在运行ORB_SLAM2的示例时,通过键盘控制机器人移动,观察CURRENTFrame和Mapviewer窗口中的定位和映射效果。由于仿真环境中特征点较少,可能会出现跟踪丢失的问题。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

gazebo小车使用stereo相机运行ORB_SLAM2

修改urdf文件

在工作空间中找到urdf模型,我的是

urdf/mybot.gazebo.xacro

将stereo相机添加进去(替换原来的相机)
ORB_SLAM2下载安装方法见我之前的博客

<!-- stereo camera -->
    <gazebo reference="base_camera_link">  
      <sensor type="multicamera" name="stereocamera">
        <always_on>true</always_on>
        <update_rate>10</update_rate>
        <visualize>false</visualize>
        <camera name="left">
          <pose>0 0 0 0 0 0</pose>
          <horizontal_fov>1.047</horizontal_fov>
          <image>
            <width>320</width>
            <height>240</height>
          </image>
          <clip>
            <near>0.1</near>
            <far>100</far>
          </clip>
        </camera>
        <camera name="right">
          <pose>0 -0.07 0 0 0 0</pose>
          <horizontal_fov>1.047</horizontal_fov>
          <image>
            <width>320</width>
            <height>240</height>
          </image>
          <clip>
            <near>0.1</near>
            <far>100</far>
          </clip>
        </camera>        
        <plugin name="stereo_camera_controller" filename="libgazebo_ros_multicamera.so">
          <cameraName>stereocamera</cameraName>
          <alwaysOn>true</alwaysOn>
          <updateRate>10</updateRate>
          <cameraName>stereocamera</cameraName>
          <imageTopicName>image_raw</imageTopicName>
          <cameraInfoTopicName>camera_info</cameraInfoTopicName>
          <frameName>camera_link_optical</frameName>
          <baseline>0.07</baseline>
          <distortion_k1>0.0</distortion_k1>
          <distortion_k2>0.0</distortion_k2>
          <distortion_k3>0.0</distortion_k3>
          <distortion_t1>0.0</distortion_t1>
          <distortion_t2>0.0</distortion_t2>
        </plugin>
      </sensor>
    </gazebo>

编译工作空间、修改topic

将下载好的ORB_slam2放到工作空间里,进行编译

cd ORB_SLAM2
cmake ..
./build_ros.sh
cd ..
cd ..
(回到工作空间路径下)
catkin_make

查看之前修改的机器人urdf模型文件得到机器人的stereo左右相机topic,修改ORB_SLAM2/Examples/ROS/ORB_SLAM2/src/ros_stereo.cc文件下订阅的摄像头信息
在这里插入图片描述

cd ORB_SLAM2 
./build_ros.sh

编译功能包

运行demo

运行gazebo
运行slam2-stereo相机

rosrun ORB_SLAM2 Stereo src/ORB_SLAM2/Vocabulary/ORBvoc.txt src/ORB_SLAM2/Examples/ROS/ORB_SLAM2/Stereo_setting.yaml false

在这里插入图片描述运行键盘控制控制机器人运动

rosrun robotcar teleop_robot_key

通过键盘控制小车运动,可以看到有两个窗口。CURRENT Frame和Map viewer。

运行结果

在CURRENT Frame窗口中看到摄像机实时检测到的画面和特征点,在Map viewer窗口中摄像机(即机器人)运行的轨迹和特征点的点云(3维)信息。
现在通过键盘控制机器人遍历地图。
在这里插入图片描述
在这里插入图片描述
在运行过程中特征点检测停止并且Map viwer停止更新。但是图像传输没有断。
可以看到current frame中显示track lost 轨迹丢失,因为是仿真环境,特征点较少,经历了一段没有特征点的情况会导致机器人无法获知轨迹的状态。如果是在现实环境中做ORB_SLAM2就可以有效避免这种情况。

### Gazebo 相机仿真教程及配置方法 #### 1. 安装必要的依赖项 为了在 Gazebo 中成功添加并使用相机传感器,需确保安装了所有必需的软件包。通常这些可以通过 ROS 的 `ros-desktop-full` 版本获得。 ```bash sudo apt-get install ros-noetic-desktop-full ``` #### 2. 创建 URDF 文件定义模型结构 对于 PX4 和 Gazebo 组合使用的场景,在创建无人机模型时可以在其对应的 `.urdf.xacro` 或者 `.sdf` 文件里加入 `<gazebo>` 标签来指定要加载哪些插件[^1]。 例如: ```xml <link name="camera_link"> <!-- 描述 link 属性 --> </link> <gazebo reference="camera_link"> <sensor type="camera" name="front_camera"> <update_rate>30.0</update_rate> <camera name="head"> <horizontal_fov>${pi/4}</horizontal_fov> <image> <width>800</width> <height>600</height> <format>R8G8B8</format> </image> <clip> <near>0.1</near> <far>100</far> </clip> </camera> <plugin filename="libgazebo_ros_camera.so" name="gazebo_ros_front_camera_controller"/> </sensor> </gazebo> ``` 这段代码展示了如何向链接 (Link) 添加一个名为 front_camera 的 RGB 相机,并指定了图像分辨率和其他参数。同时通过 plugin 加载了一个用于发布图像话题的 C++ 库文件 libgazebo_ros_camera.so[^2]。 #### 3. 修改 SDF 文件中的相机位置姿态 如果希望调整已有的相机的位置或方向,则可以直接编辑 .world 文件内的相应部分;也可以利用 XACRO 来动态计算偏移量从而更灵活地控制多台设备间的相对关系。 比如下面的例子就是把两个相同的双目摄像头分别放置于机体两侧的不同高度上: ```xml <xacro:macro name="add_stereo_cameras" params="parent_frame_name camera_height_offset"> <joint name="${parent_frame_name}_left_camera_joint" type="fixed"> <origin xyz="-0.1 ${camera_height_offset} 0" rpy="0 0 0"/> <parent link="${parent_frame_name}"/> <child link="${parent_frame_name}_left_camera"/> </joint> <joint name="${parent_frame_name}_right_camera_joint" type="fixed"> <origin xyz="0.1 ${camera_height_offset} 0" rpy="0 0 0"/> <parent link="${parent_frame_name}"/> <child link="${parent_frame_name}_right_camera"/> </joint> </xacro:macro> ``` 这里定义了一组宏命令 add_stereo_cameras ,接受父级坐标系名称 parent_frame_name 及垂直距离 camera_height_offset 参数作为输入条件,进而生成一对固定关节 joint 将左右两部立体视觉装置连接到指定节点之上。 #### 4. 启动模拟器查看效果 完成上述步骤之后就可以启动 Gazebo 并观察实际运行情况了。一般情况下会先编译工作空间再执行 launch 脚本来开启整个过程。 ```bash catkin_make source devel/setup.bash roslaunch my_robot_gazebo simulation.launch ``` 此时应该能够在 RVIZ 中接收到由各个摄像头发射出来的数据流并且正常可视化出来。
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值