five

Multi-cam Multi-map VILO Campus Dataset|自动驾驶数据集|机器人导航数据集

收藏
arXiv2024-12-06 更新2024-12-07 收录
自动驾驶
机器人导航
下载链接:
https://github.com/zoeylove/Multi-cam-Multi-map-VILO/tree/main
下载链接
链接失效反馈
资源简介:
Multi-cam Multi-map VILO Campus Dataset是由浙江大学工业控制技术国家重点实验室创建的,旨在验证多摄像头多地图视觉惯性定位系统的高精度和实时性。该数据集包含了一个长达9个月的校园环境数据收集,覆盖面积达265,000平方米,轨迹总长度超过55公里。数据集的创建过程包括多传感器硬件设置和多摄像头同步图像流采集,以应对长期环境变化和视角变化。该数据集主要用于评估和优化视觉惯性定位系统,特别是在自动驾驶和机器人导航领域,以解决实时定位和无漂移反馈的问题。
提供机构:
浙江大学工业控制技术国家重点实验室
创建时间:
2024-12-06
AI搜集汇总
数据集介绍
main_image_url
构建方式
Multi-cam Multi-map VILO Campus Dataset的构建方式体现了对多摄像头和多地图视觉惯性定位系统的深入研究。该数据集通过设计一个多传感器硬件平台,包括多个摄像头和惯性测量单元(IMU),以及外部传感器如激光雷达和GPS,实现了对校园环境长期变化的全面捕捉。数据收集过程中,采用了硬件同步技术,确保了传感器数据的时间一致性。此外,数据集还包含了多次在同一地点采集的数据,以构建多会话数据集,从而验证定位系统的鲁棒性。
特点
Multi-cam Multi-map VILO Campus Dataset的特点在于其多摄像头和多地图的配置,这使得数据集能够支持复杂环境下的视觉惯性定位研究。数据集包含了长时间跨度的校园环境变化,包括季节变化、光照变化和结构变化,这些都为验证定位系统的长期稳定性和鲁棒性提供了丰富的场景。此外,数据集还包含了同步的多摄像头图像流,这有助于提高定位系统的鲁棒性和准确性。
使用方法
Multi-cam Multi-map VILO Campus Dataset的使用方法主要包括数据预处理、系统初始化和实时定位。首先,用户需要对采集的多传感器数据进行预处理,确保数据的时间同步和质量。接着,通过初始化模块将当前视觉-惯性观测与预构建的地图关联,计算当前相机相对于地图框架的姿态。最后,利用在线匹配模块获取地图观测,并将其输入到基于地图的视觉惯性导航系统(VINS)模块中,实现实时、准确和一致的状态估计。
背景与挑战
背景概述
Multi-cam Multi-map VILO Campus Dataset 是由浙江大学工业控制技术国家重点实验室的研究团队于2021年创建的。该数据集的核心研究问题是如何在机器人自主移动中提供实时、因果且无漂移的位置反馈。现有的视觉惯性导航系统(VINS)和同时定位与地图构建(SLAM)系统无法直接集成到机器人的控制回路中,因为VINS在长时间操作中会积累漂移,而SLAM提供的无漂移轨迹是在闭环校正后处理的,是非因果的。为了解决这些问题,研究团队提出了一种多相机多地图视觉惯性定位系统,并设计了一个多相机IMU硬件设置,收集了一个长期挑战性的校园数据集。该数据集的开放源代码促进了社区的发展,并对机器人自主导航领域产生了重要影响。
当前挑战
Multi-cam Multi-map VILO Campus Dataset 面临的挑战主要包括两个方面:一是解决领域问题的挑战,即在图像分类和定位中如何处理长时间操作中的漂移问题;二是数据集构建过程中的挑战,包括如何设计多相机IMU硬件设置以收集高质量的数据,以及如何在长期变化的环境中确保数据的鲁棒性和一致性。此外,数据集还需要解决在不同光照和季节条件下的数据收集问题,以确保数据集的多样性和广泛适用性。
常用场景
经典使用场景
在自主机器人导航领域,Multi-cam Multi-map VILO Campus Dataset 数据集的经典应用场景主要集中在视觉惯性定位(VILO)系统的验证与优化。该数据集通过提供多摄像头和多地图的复杂环境数据,支持研究人员开发和测试能够在长时间运行中提供实时、无漂移位置反馈的定位系统。具体应用包括但不限于自主驾驶系统、物流机器人和非结构化环境中的导航任务。
衍生相关工作
基于 Multi-cam Multi-map VILO Campus Dataset 数据集,研究人员开发了多种改进的视觉惯性定位系统,如多摄像头视觉惯性导航系统(MC-VINS)和多地图视觉惯性定位系统(MM-VILO)。这些系统通过集成多个摄像头和地图,显著提高了定位精度和鲁棒性。此外,该数据集还促进了相关领域的研究,如多传感器融合、实时地图更新和动态环境下的定位技术。
数据集最近研究
最新研究方向
在视觉惯性定位(VILO)领域,Multi-cam Multi-map VILO Campus Dataset的最新研究方向主要集中在多摄像头和多地图系统的实时、因果和无漂移定位反馈。研究者们致力于开发能够在大规模环境中长期运行的系统,解决现有视觉惯性导航系统(VINS)和同时定位与地图构建(SLAM)系统在长时间操作中出现的漂移问题。通过设计多摄像头IMU硬件设置和收集长期挑战性校园数据集,实验结果表明所提出的系统具有更高的实时定位精度。此外,研究还涉及对基于地图的定位系统误差组成的分析,并提出了一套适用于测量因果定位性能的评估指标。这些研究不仅推动了自主机器人运动中实时位置反馈技术的发展,还为社区开发提供了开放源代码,促进了该领域的进一步创新和应用。
相关研究论文
  • 1
    Multi-cam Multi-map Visual Inertial Localization: System, Validation and Dataset浙江大学工业控制技术国家重点实验室 · 2024年
以上内容由AI搜集并总结生成
用户留言
有没有相关的论文或文献参考?
这个数据集是基于什么背景创建的?
数据集的作者是谁?
能帮我联系到这个数据集的作者吗?
这个数据集如何下载?
点击留言
数据主题
具身智能
数据集  4098个
机构  8个
大模型
数据集  439个
机构  10个
无人机
数据集  37个
机构  6个
指令微调
数据集  36个
机构  6个
蛋白质结构
数据集  50个
机构  8个
空间智能
数据集  21个
机构  5个
5,000+
优质数据集
54 个
任务类型
进入经典数据集
热门数据集

D4LA-版面分析数据集

# D4LA 文档版面分析数据集 (the most Diverse and Detailed Dataset ever for Document Layout Analysis) ## 数据集概述 D4LA是面向文档版面分析的数据集。 ### 数据集简介 包含12类文档工27类文档版面类型,详细如下: ![d4la](./d4la.jpg) ### 标注格式 ``` D4LA ├── train_images │ ├── 1.jpg ├── test_images │ ├── 2.jpg ├── VGT_D4LA_grid_pkl │ ├── 1.pkl │ └── 2.pkl ├── json │ ├── train.json │ └── test.json ``` ### 引用方式 If you find this repository useful, please consider citing our work: ``` @inproceedings{da2023vgt, title={Vision Grid Transformer for Document Layout Analysis}, author={Cheng Da and Chuwei Luo and Qi Zheng and Cong Yao}, year={2023}, booktitle = {ICCV}, } ``` ### Clone with HTTP ```bash git clone https://www.modelscope.cn/datasets/damo/D4LA.git ```

魔搭社区 收录

MedChain

MedChain是由香港城市大学、香港中文大学、深圳大学、阳明交通大学和台北荣民总医院联合创建的临床决策数据集,包含12,163个临床案例,涵盖19个医学专科和156个子类别。数据集通过五个关键阶段模拟临床工作流程,强调个性化、互动性和顺序性。数据来源于中国医疗网站“iiYi”,经过专业医生验证和去识别化处理,确保数据质量和患者隐私。MedChain旨在评估大型语言模型在真实临床场景中的诊断能力,解决现有基准在个性化医疗、互动咨询和顺序决策方面的不足。

arXiv 收录

Plant-Diseases

Dataset for Plant Diseases containg variours Plant Disease

kaggle 收录

NIST Thermochemical Database

NIST Thermochemical Database(NIST热化学数据库)是一个包含大量热化学数据的数据集,涵盖了各种化学物质的热力学性质,如焓、熵、自由能等。该数据库由美国国家标准与技术研究院(NIST)维护,旨在为科学研究和工业应用提供准确的热化学数据。

webbook.nist.gov 收录

AgiBot World

为了进一步推动通用具身智能领域研究进展,让高质量机器人数据触手可及,作为上海模塑申城语料普惠计划中的一份子,智元机器人携手上海人工智能实验室、国家地方共建人形机器人创新中心以及上海库帕思,重磅发布全球首个基于全域真实场景、全能硬件平台、全程质量把控的百万真机数据集开源项目 AgiBot World。这一里程碑式的开源项目,旨在构建国际领先的开源技术底座,标志着具身智能领域 「ImageNet 时刻」已到来。AgiBot World 是全球首个基于全域真实场景、全能硬件平台、全程质量把控的大规模机器人数据集。相比于 Google 开源的 Open X-Embodiment 数据集,AgiBot World 的长程数据规模高出 10 倍,场景范围覆盖面扩大 100 倍,数据质量从实验室级上升到工业级标准。AgiBot World 数据集收录了八十余种日常生活中的多样化技能,从抓取、放置、推、拉等基础操作,到搅拌、折叠、熨烫等精细长程、双臂协同复杂交互,几乎涵盖了日常生活所需的绝大多数动作需求。

github 收录