• Slam中的bundle adjustment 与摄影测量中的光束法平差

    时间:2024-04-04 08:43:56

    Bundle adjustment 有很多书将其翻译成是捆绑调整,其实不然,其就是摄影测量中的光束法平差,即是整体求解相机的位姿和加密点坐标。但是由于计算机视觉中是物方坐标系到图像的像素坐标系,而摄影测量是物方坐标系到图像的像平面坐标系,出于这个原因,两者在公式符号上有些差异。本博客以SLAM 中相...

  • 激光 2D SLAM 学习

    时间:2024-04-04 08:41:31

    激光 2D SLAM本文主要介绍的是基于激光雷达的 2D SLAM,以及我最近看的粒子滤波、GMapping、Cartographer 等内容。什么是 SLAM图 1. cartographer 建的地图全称 simultaneous localization and mapping,顾名思义,就是...

  • EAI激光雷达X4使用hector_slam建图(二)

    时间:2024-04-03 07:39:51

    通过上一节,我在虚拟机下测试雷达驱动成功,现在,我们就拿树莓派3B为例,给激光雷达单独供电后,按着上一节来操作图上为PC端通过VNC与树莓派远程桌面连接,接在按着上一节在树莓派上操作完成以后EAI X4激光雷达成功驱动起来了,如若有遇到驱动不起来的兄弟,可以尝试一下以下的方法:下载最新的驱动,据EA...

  • SLAM基础——四元数(含四元数对时间的导数)

    时间:2024-03-30 19:52:40

    1.四元数  SLAM中的旋转矩阵 R\mathrm{R}R 可以用四元数 qqq 来表示  单位四元数可表达任意三维旋转,且无奇异性。  一个四元数 qqq 具有一个实部和三个虚部。将实部写在前,虚部写在后,则有:q=[q0,q1,q2,q3]T 或 q=[w,x,y,z]Tq=[q_0,q_1,...

  • 视觉SLAM学习--基础篇

    时间:2024-03-28 09:20:15

     一.例子如上图的小萝卜机器人,要使其具有自主运动能力至少需要两个条件:1. 我在什么地方?——定位。2. 周围环境是什么样?——建图。因此它既需要知道自身的状态-位置,也要了解所在的环境-地图。解决这些问题的方法非常多,如携带于机器人本体上的传感器,例如机器人的轮式编码器、相机、激光等等,另一类是...

  • 视觉SLAM技术及其应用(章国锋--复杂环境下的鲁棒SfM与SLAM)

    时间:2024-03-28 09:19:51

    SLAM:同时定位与地图构建机器人和计算机视觉领域的基本问题在未知环境中定位自身方位并同时构建环境三维地图应用广泛:增强现实、虚拟现实机器人、无人驾驶SLAM常用的传感器红外传感器: 较近距离感应,常用与扫地机器人激光雷达: 单线、多线等摄像头: 单目、双目、多目等惯性传感器(英文叫IMU,包括陀螺...

  • 年薪50万+!北大信研院诚聘SLAM算法工程师~base杭州

    时间:2024-03-28 08:51:39

    点击我爱计算机视觉标星,更快获取CVML新技术北京大学信息技术⾼等研究院机器学习和计算机视觉算法及产品工程师招聘研究院介绍:http://www.aiit.org.cn/北京大学信息技术高等研究院是由北京大学与浙江省共同发起成立的民办非企业单位。以北京大学为依托,由图灵奖获得者John Hopcro...

  • AGV激光Slam导航环境要求说明

    时间:2024-03-22 17:58:15

    V槽导航对接本导航系统目前支持SLAM导航模式、V槽导航模式、磁条导航模式。AGV工作时,可以根据场景,随时任意切换导航模式。使其导航精度和便利性达到应用要求。注意:上述导航模式的核心区别是小车反馈位置的计算方式,在路径规划和控制的算法上相同的。SLAM导航原理地图显示地图:灰色是未知区域,白色是已...

  • ORB-SLAM2运行自己的数据集(单目)

    时间:2024-03-22 17:54:01

    环境· ubuntu 18.04· ORB-SLAM2相机标定可以用手机或者其他设备采集数据,我用的是Sony Xperia Z5采集的视频,视频分辨率为1920*1080,fps为59.87。首先进行相机标定,我们采集标定数据,本例采用79的棋盘格进行标定。我用Z5拍摄10s左右的视频,再获取图片...

  • 视觉SLAM之鱼眼相机模型

    时间:2024-03-22 17:47:54

    最近研究了视觉SLAM中不同的鱼眼相机模型,其中包括:Scaramuzza的鱼眼相机模型代表性的SLAM工作为MultiCo-SLAM,是一个以ORB-SLAM为基础的扩展的多鱼眼相机视觉SLAM系统(Video,Paper)相机模型论文:A Flexible Technique for Accur...

  • SLAM之相机选型

    时间:2024-03-22 17:46:12

    本文对ZED、小觅、intel RealSense三种相机进行调研比对,主要在型号、同步精度、适用场景、优缺点、工作原理、和ros及SLAM的融合等方面展开调研。一、小觅相机小觅标准版:999~1699元支持操作系统:Windows、Linux、ROS、TX1/2、Mac开源项目支持:ORB_SLA...

  • 视觉SLAM方案整理及摄像头选型调研(他首推ZED)

    时间:2024-03-22 17:44:12

    他首推ZED,让我想起李ji也是用的ZED摘自:https://mp.weixin.qq.com/s/BHFxSbGab_TVr_PxG17VaA视觉SLAM方案整理及硬件选型调研新机器视觉 7月26日c   目前个人初步接触视觉SLAM开发相关工作,现在就相关学习做一些总结以加深个人理解,同时也...

  • ORB-SLAM2代码整理--tracking线程

    时间:2024-03-21 10:11:06

    首先,自己一开始看的代码是从官网上下的,看得好多不太理解的地方,很头痛,后发现了泡泡机器人的吴博和谢晓佳大神做的对ORB-SLAM2代码中文注释,写的很详细,超级感谢.地址:https://gitee.com/paopaoslam/ORB-SLAM2     从码云中拷贝下来后,在clion中,无法...

  • 视觉SLAM中的深度估计问题

    时间:2024-03-17 19:01:50

    一、研究背景视觉SLAM需要获取世界坐标系中点的深度。世界坐标系到像素坐标系的转换为(深度即Z): 深度的获取一共分两种方式:a)主动式RGB-D相机按照...

  • slam整体框架详解(小白版)

    时间:2024-03-14 14:21:04

    本文是小白我学习slam的记录,方便自己以后看起来没有辣么凌乱,当记个工程日志嘛。在这里要感谢高翔博士的书《视觉SLAM十四讲》,这本书很幽默地讲解了视觉SLAM 的方方面面的知识。同时本博文一部分是别人的思想,版权归原作者所有,在此向原作者表示感谢! SLAM(simultaneous local...

  • 视觉SLAM十四讲:从理论到实践 两版 PDF和源码

    时间:2024-03-12 16:38:38

    视觉SLAM十四讲:从理论到实践 第一版电子版PDF链接:https://pan.baidu.com/s/1SuuSpavo_fj7xqTYtgHBfw提取码:lr...

  • 论文阅读:SuMa++: Efficient LiDAR-based Semantic SLAM

    时间:2024-03-10 21:27:48

    来源:IROS 2019 链接:https://ieeexplore.ieee.org/document/8967704 0、摘要 可靠、准确的定位和映射是大多数自动驾驶系统的关键组成部分。除了映射环境的几何信息外,语义在实现智能导航行为方面也起着重要作用。在大多数现实环境中,由于移动对象引起的动态...

  • Gmapping笔记 [SLAM] GMapping SLAM源码阅读(草稿)[SLAM]2D激光扫描匹配方法

    时间:2024-03-10 21:25:46

    2D-slam 激光slam: 开源代码的比较HectorSLAM Gmapping KartoSLAM CoreSLAM LagoSLAM作者:kint_zhao...

  • 从零开始一起学习SLAM | 为什么要学SLAM? - 计算机视觉life

    时间:2024-03-08 11:46:18

    从零开始一起学习SLAM | 为什么要学SLAM? 2018-11-07 09:13 计算机视觉life 阅读(2515) 评论(0) 编辑 收藏 举报 在《零基础小白,如何入门计...

  • SLAM+语音机器人DIY系列:(三)感知与大脑——6.做一个能走路和对话的机器人

    时间:2024-03-05 06:56:42

     温馨提示本篇文章已经收录在我最新出版的书籍《机器人SLAM导航核心技术与实战》,感兴趣的读者可以购买纸质书籍来进行更加深入和系统性的学习,购买链接如下:点这里购买:《机器人SLAM导航核心技术与实战》购买链接点这里观看视频讲解摘要         ...