适配RDK X3实现Nav2移动机器人自主导航功能实例
功能介绍
以扫地机器人为例,如何完整清扫家里每一个地方?如何躲避地图中已知的墙壁、衣柜等障碍物?静态的还好说,如果有熊孩子或者宠物,还有地面不时出现的各种杂物,机器人又该如何一一躲避?这些问题就需要一套智能化的自主导航算法来解决。
自主导航功能贯穿了移动机器人大部分的运动过程,也是智能移动机器人中至关重要的一项基础技能,机器人可以根据地图信息,有效规划出行走的路径,还要通过激光雷达或者摄像头实时识别周围的障碍物,一旦出现意外的障碍,需要立刻做出避障的动作。
物料清单
以下机器人均已适配RDK X3
使用方式
准备工作
1. 机器人具备运动底盘、相机及RDK套件,硬件已经连接并测试完毕;
2. 已有ROS底层驱动,机器人可接收“/cmd_vel”指令运动,并根据指令正确运动;
3. 已安装Lidar驱动,能够正常发布/scan话题;
4. PC电脑端已经完成Ubuntu、ROS Foxy/Humble的安装。
安装hobot-nav2功能包
启动机器人后,通过终端或者VNC连接机器人,点击NodeHub hobot-nav2右上方的“一键部署”按钮,复制如下命令在RDK的系统上运行,完成hobot-nav2功能包的安装。
运行nav2
这里以OriginBot为例,不同品类机器人前面三步执行命令可能有所差别
1. 启动机器人底盘
启动机器人,通过终端或者VNC连接机器人,OriginBot的启动命令如下:
2. 启动激光雷达
通过终端或者VNC连接机器人,激光雷达启动命令如下:
3. 启动nav2
启动机器人后,通过终端或者VNC连接机器人,点击本页面右上方的“一键部署”按钮,复制如下命令在RDK的系统上运行,完成Node的安装:
4. 可视化监控导航过程
为了便于监控机器人导航的过程,在同一网络下的PC端,启动Rviz上位机可视化软件:
导航启动后,机器人最初不知道自己在哪里。默认情况下,Nav2会等待用户给机器人一个大致的起始位置。查看机器人在Gazebo中的位置,并在地图上找到该位置。通过点击Rviz2中的”2D Pose Estimate” 按钮,然后通过在地图上机器人预估的位置处点击来设置机器人初始位置 。可以通过向前拖动刚才单击的位置来设置机器人起始的移动方向。
注意:
启动导航后会在终端中看到不断输出的信息,这是因为没有设置机器人初始位姿的缘故,设置初始位置后,就会停止日志刷新。
点击目标位置选择“2D Goal Pose”按钮,在地图上选择导航目标点,即可开始自主导航。
接口说明
接口及参数调整方式可参考NAV2官方文档NAV2调参说明。
参考资料
NAV2官方文档:点击跳转。
常见问题
暂无。
- |
- +1 赞 0
- 收藏
- 评论 0
本文由雪飘梦飞转载自D-Robotics官网,原文标题为:Nav2移动机器人自主导航,本站所有转载文章系出于传递更多信息之目的,且明确注明来源,不希望被转载的媒体或个人可与我们联系,我们将立即进行删除处理。
相关推荐
连接RDK X3操作奥比中光Astro Pro相机驱动示例
基于RDK X3的奥比中光Astro Pro相机驱动操作方案介绍。
基于RDK X3开发板设计并实现的手持slam建图设计
这里使用RDK X3开发板设计并实现了一款SLAM手持建图设备,它使用RDK X3开发板的计算性能,通过激光雷达实现一个纯激光里程计,通过IMU对激光数据进行畸变矫正和对SLAM的姿态矫正,实现一个手持的SLAM建图功能。
RDK平台实现MIPI相机驱动的操作实例
本项目案例为对已适配的MIPI接口摄像头进行配置,并将采集的图像数据以ROS标准图像消息或者零拷贝(hbmem)图像消息进行发布,供需要使用图像数据的其他模块订阅。
基于RDK X3操作思岚激光雷达驱动示例
SLLIDAR ROS2驱动,以ROS2标准消息格式发送激光雷达数据。
RDK X3基于RDK X3的手势识别算法示例
手势识别算法示例订阅包含人手框、人手关键点信息的算法msg,利用BPU进行推理,发布包含手势信息的智能结果msg。手势识别算法集成了人手关键点检测,手势分析等技术,使得计算机能够将人的手势解读为对应指令,可实现手势控制以及手语翻译等功能,主要应用于智能家居,智能座舱、智能穿戴设备等领域。
YDLIADAR激光雷达驱动应用实例
介绍YDLIADAR激光雷达驱动的方案与技术要求,YDLIDAR ROS2驱动,以ROS2标准消息格式发送激光雷达数据。
基于地平线RDK模型YOLOv5s深度学习的方法进行赛道障碍物检测应用实例
该功能为基于深度学习的方法识别赛道中的障碍物,使用模型为YOLOv5s。地平线RDK通过摄像头获取小车前方环境数据,图像数据通过训练好的YOLO模型进行推理得到障碍物的图像坐标值并发布。
基于RDK平台的YOLOv10目标检测算法示例
YOLO功能介绍YOLO目标检测算法示例使用图片作为输入,利用BPU进行算法推理,发布包含目标类别和检测框的算法msg。YOLO目标检测算法示例使用图片作为输入,利用BPU进行算法推理,发布包含目标类别和检测框的算法msg。目前支持yolov2、yolov3、yolov5、yolov5x四个版本。
基于RDK X3 & Module的性能检测软件使用示例
Performance Node该应用基于Web网页打造,无论是什么品牌的电脑和手机,只需要在浏览器访问即可。
基于RDK X3和OriginBot的手势控制机器人应用案例
通过视觉进行人手检测、跟踪和手势识别,根据手势类别生成不同运动控制指令并控制机器人运动,包括左右旋转和前后平移运动。该功能支持机器人实物和Gazebo仿真两种体验方式。以下操作过程以OriginBot为例,满足条件的其他机器人使用方法类似。
多模态感知仿生机械手项目案例
本项目提供了一款五指仿生机器手,其仿照人手的外观与自由度,使其能够作为人形机器人的末端执行器,完成人手所能完成的任务。
OriginBot机器人最小功能系统的机器人底盘驱动应用实例
OriginBot是一款智能机器人开源套件,更是一个社区共建的开源项目,旨在让每一位参与者享受机器人开发的乐趣。该项目是OriginBot机器人最小功能系统,该最小系统可接受/cmd_vel指令控制机器人运动并反馈/Odom信息。
智能语音聊天机器人功能及使用指南
智能语音聊天机器人通过识别用户语音,调用ChatGPT API获取答复并播放,实现语音聊天。需地平线RDK、ChatGPT API Key及音频板等物料。准备、组装后,安装功能包并运行,配置音频和ChatGPT API Key。常见问题包括设备连接、音频驱动、配置文件及网络访问等。
RDK X3 机械臂捡垃圾经验分享
hobot_arm package 是基于 mono2d_trash_detection package 开发的2D垃圾目标检测+机械臂抓取的应用示例。在地平线的旭日X3派上利用BPU进行模型推理获得感知结果,利用幻尔机械臂作为下位机,进行垃圾抓取的示例。
2D垃圾检测应用示例
本Node是基于hobot_dnn开发的2D垃圾目标检测算法,采用PaddlePaddle开源框架, 利用PPYOLO模型进行垃圾检测任务设计和训练。为了达到快速部署的目的,本Node支持配置文件更换垃圾检测模型,开发者可以将更多精力投入在算法模型能力的迭代,减少部署工作量,识别输出的AI信息不仅可以通过话题发布,还可以在Web页面渲染显示。
电子商城
登录 | 立即注册
提交评论