采用阿克曼底盘,非常适合学习和验证基于转向的机器人
JetAcker 由 NVIDIA Jetson Nano 提供支持,支持 ROS、深度学习、MediaPipe、YOLO 和 TensorRT,可执行高级 3D 视觉任务
JetAcker 配备 3D 深度摄像头和激光雷达,可实现远程控制、2D 地图绘制、TEB 路径规划和动态避障
特点包括铝合金框架、CNC转向、100mm车轮、霍尔编码器电机和6000mAh电池
通过 WonderAi 应用程序 (iOS/Android)、无线手柄、ROS 或键盘控制 JetAcker
产品描述:
JetAcker 由 NVIDIA Jetson Nano 提供支持,支持机器人操作系统 (ROS)。它利用主流深度学习框架,结合 MediaPipe 开发,启用 YOLO 模型训练,并利用 TensorRT 加速。这种组合提供了多种 3D 机器视觉应用,包括自动驾驶、体感交互和 KCF 目标跟踪。此外,使用 JetAcker,您可以学习和验证各种机器人 SLAM 算法。
1)阿克曼转向结构摆式悬架
底盘后轮始终处于平行状态,转弯时内侧车轮转动角度大于外侧车轮转动角度,利用内、外侧车轮转动角度的差异进行转向,称为阿克曼转向。
2)配备激光雷达并支持SLAM测绘导航
JetAcker搭载激光雷达,可实现SLAM建图及导航,支持路径规划、定点导航和动态避障。
3)数控转向系统
全金属CNC高精度部件结合高承载智能伺服提供卓越的旋转力。
4)高密度实心轮
有效载荷能力、抗变形能力、降低的摩擦系数和最大限度地减少的机械磨损,从而延长使用寿命。
5)摆式悬挂结构
高精度摆式悬挂结构,受力均衡,对不平坦路面适应性好,且不会对电机造成任何冲击。
6)240°高性能云台
它由串行总线伺服驱动,可提供过热保护。其高达 240° 的旋转范围扩大了 JetAcker 的探索范围。
1. 双控设计,高效协作
1)主控制器
- ROS控制器(JETSON、Raspberry Pi等)
- 同步定位与地图构建 (SLAM)
- 人机语音交互
- 先进的人工智能算法
- 深度神经网络
- AI视觉图像处理
2)子控制器
-STM32 机器人控制器
- 高频 PID 控制
- 电机闭环控制
- 传感器控制和反馈
- IMU 数据采集
- 电源状态监控
2. 提供ROS1 & ROS2系统镜像
ROS2是ROS1的升级版本,在保留ROS1全部功能的同时,支持更多的操作系统和编译环境,提供实时控制、增强模块化开发和测试等功能,功能比ROS1更加强大,应用范围更加广泛。
3.激光雷达测绘导航
JetAcker搭载激光雷达,支持路径规划、定点导航、导航避障、多种算法建图,实现雷达守卫、雷达跟踪功能。
1)激光雷达定位
结合自主研发的Lidar高精度编码器和IMU加速度计传感器数据,JetAuto可以实现精准的测绘和导航。
2)各种二维激光雷达测绘方法
JetAcker 采用了 Gmapping、HectorKarto、Cartographer 等多种建图算法,并支持路径规划、定点导航、导航避障等功能。
3)多点导航、TEB路径规划
JetAcker 采用激光雷达探测周围环境,支持定点导航、多点连续导航等机器人应用。
4)RRT自主探索地图
JetAcker采用RRT算法,可自主完成勘探测绘、保存地图并返回起点,无需人工控制。
5)动态避障
JetAcker 可以在导航过程中实时检测障碍物并重新规划路径以避开障碍物。
6)激光雷达跟踪
激光雷达通过扫描前方运动物体,使机器人能够进行目标跟踪。
4. 3D Vision AI升级交互
JetAcker搭载3D深度摄像头,支持3D视觉建图及导航,可获取3D点云图像,通过深度学习,可实现更多AI视觉互动玩法。
1)3D深度相机
JetAcker 搭载 Astra Pro Plus 深度摄像头,可以有效感知环境变化,实现智能 AI 与人类的交互。
2)RTAB-VSLAM 3D 视觉映射和导航
JetAcker 利用 RTAB SLAM 算法,创建 3D 彩色地图,实现 3D 环境下的导航和避障,并支持地图内的全局定位。
3)ORBSLAM2 + ORBSLAM3
ORB-SLAM 是一个针对单目、双目和 RGB-D 相机的开源 SLAM 框架,能够实时计算相机轨迹并重建 3D 周围环境,并且在 RGB-D 模式下可以获取物体的真实尺寸。
4)深度图数据、点云
通过相应的APl,JetAcker可以获取相机的深度图、彩色图像和点云。
5.深度学习、自动驾驶
JetAcker通过深度学习可以实现自动驾驶功能,是学习自动驾驶核心功能的完美平台。
1)道路标志检测
JetAcker通过训练深度学习模型库,实现基于Al视觉的自动驾驶。
2)车道保持
JetAcker 能够识别两侧的车道,并与车道保持安全距离。
3)自动停车
结合深度学习算法,JetAcker 可以识别停车标志,然后自动驶入停车位。
4)转变决策
JetAcker 将根据车道、路标和交通信号灯来行驶,而 JetAuto 将根据交通信号灯来判断交通状况并决定是否转弯。
6. MediaPipe发展,AI交互升级
JetAcker利用MediaPipe开发框架实现人体识别、指尖识别、人脸检测、3D检测等功能。
1)指尖轨迹识别
2)人体识别
3)3D检测
4)3D人脸检测
7. AI视觉交互
通过融入人工智能,JetAcker 可以实现 KCF 目标跟踪、线路跟踪、颜色/标签识别和跟踪、YOLO 物体识别等。
1)KCF目标跟踪:
依靠KCF滤波算法,机器人可以跟踪选定的目标。
2)视线跟随:
JetAcker支持自定义颜色选择,机器人可以识别颜色线条并跟随它们。
3)颜色/标签识别与追踪
JetAcker 能够识别和跟踪指定的颜色,并且可以同时识别多个 April 标签及其坐标。
4)YOLO 物体识别
利用YOLO网络算法和深度学习模型库进行物体识别。
8. 6CH远场麦克风阵列
该6CH远场麦克风阵列擅长远场声源定位、语音识别和语音交互。与普通麦克风模块相比,它可以实现更多高级功能。
1)声源定位:
通过6麦克风阵列,实现降噪源的高精度定位,配合雷达距离识别,可以在任意地点召唤Hiwonder。
2)TTS语音播报
ROS发布的文字内容可直接转换为语音播报,方便进行交互设计。
3)语音交互
语音识别与TTS语音播报相结合,实现语音交互,支持科大讯飞在线语音对话功能扩展。
4)语音导航
使用语音命令控制Hiwonder到达地图上任意指定位置,类似送餐机器人的语音控制场景。
9. 互联阵型
JetAcker通过多机通讯及导航技术,可实现多机编队表演及人工智能游戏。
1)多车导航
JetAcker通过多机通讯实现多车导航、路径规划和智能避障。
2)智能编队
一批JetAcker在移动过程中可以保持队形,包括水平线、垂直线和三角形。
3)群组控制
只需一个无线手柄即可控制一组JetAcker,统一、同时执行动作
8.ROS机器人操作系统
ROS 是一个开源的机器人元操作系统,提供硬件抽象、底层设备控制、常用功能实现、进程间消息传递、包管理等基础服务,以及跨计算机获取、编译、编写和运行代码所需的工具和库函数,旨在为机器人研发提供代码重用支持。
10. 凉亭模拟
JetAcker 建立在机器人操作系统 (ROS) 上,并与 Gazebo 模拟集成。这使得在模拟环境中轻松控制机器人成为可能,有助于算法预验证以防止潜在错误。Gazebo 提供视觉数据,让您可以观察每个端点和中心的运动轨迹。这种视觉反馈有助于算法增强。
1)仿真控制
通过机器人仿真控制,可以进行建图导航的算法验证,提高算法的迭代速度,减少反复试验的成本。
2)URDF模型
提供精准的URDF模型,并通过Rviz可视化工具观察建图导航效果,方便调试和改进算法。
11. 多种控制方式
1)Python编程
2)WonderAi APP
3)地图导航应用程序(仅限Android)
4)无线手柄