five

V2X-Radar|自动驾驶数据集|多模态数据数据集

收藏
arXiv2024-11-17 更新2024-11-20 收录
自动驾驶
多模态数据
下载链接:
http://openmpd.com/column/V2X-Radar
下载链接
链接失效反馈
资源简介:
V2X-Radar是由清华大学车辆与运载学院创建的第一个大规模真实世界多模态数据集,专注于合作感知中的4D雷达数据。该数据集包含20K LiDAR帧、40K摄像头图像和20K 4D雷达数据,涵盖了晴天、雨天等多种天气条件和白天、黄昏、夜晚等不同时间段。数据集通过连接车辆平台和智能路边单元收集,经过精心筛选和标注,包含350K个标注的3D边界框,涵盖五类目标。V2X-Radar数据集分为三个子集:V2X-Radar-C用于合作感知,V2X-Radar-I用于路边感知,V2X-Radar-V用于单车辆感知,旨在解决自动驾驶中的遮挡和感知范围有限的问题。
提供机构:
清华大学车辆与运载学院
创建时间:
2024-11-17
AI搜集汇总
数据集介绍
main_image_url
构建方式
V2X-Radar数据集通过连接车辆平台和智能路边单元进行采集,这些平台配备了4D雷达、激光雷达(LiDAR)和多视角摄像头。数据采集涵盖了多种天气条件,包括晴天和雨天,以及不同时间段,如白天、黄昏和夜晚。数据集包括20,000帧激光雷达数据、40,000张摄像头图像和20,000帧4D雷达数据,总计350,000个标注的3D边界框,涵盖五个类别。数据集被细分为三个子集:V2X-Radar-C用于合作感知,V2X-Radar-I用于路边感知,V2X-Radar-V用于单车辆感知。
特点
V2X-Radar数据集的主要特点是其多模态性和真实世界数据的广泛覆盖。它包含了三种传感器类型:激光雷达、摄像头和4D雷达,这使得研究者可以探索不同传感器在合作感知中的作用。此外,数据集涵盖了多种天气和时间条件,以及具有挑战性的交叉口场景,提供了丰富的环境感知数据。
使用方法
V2X-Radar数据集可用于多种研究任务,包括单车辆和路边的3D物体检测,以及车辆与基础设施之间的合作3D物体检测。研究者可以使用该数据集来开发和评估新的感知算法,特别是在合作感知和多模态数据融合方面。数据集还提供了详细的基准测试结果,帮助研究者比较不同方法的性能。
背景与挑战
背景概述
V2X-Radar数据集是由清华大学车辆与运载学院、中国矿业大学、北京交通大学、字节跳动和南洋理工大学联合开发的首个大规模真实世界多模态数据集,专注于合作感知领域。该数据集于2024年发布,主要研究人员包括Lei Yang、Xinyu Zhang、Jun Li等。V2X-Radar数据集的核心研究问题是如何在自动驾驶中利用4D雷达进行合作感知,以克服单车辆感知中的遮挡和感知范围限制。该数据集的发布填补了合作感知领域中4D雷达数据集的空白,对提升自动驾驶系统的安全性和鲁棒性具有重要意义。
当前挑战
V2X-Radar数据集在构建过程中面临多重挑战。首先,数据集需要解决多模态传感器(如4D雷达、激光雷达和摄像头)的同步问题,确保时间和空间维度上的数据一致性。其次,数据集在不同天气条件(如晴天、雨天)和不同时间段(如白天、黄昏、夜晚)下的数据采集,增加了数据处理的复杂性。此外,数据集还需要应对合作感知中的遮挡和感知范围限制问题,确保在复杂交通场景中的有效性。最后,数据集的标注工作涉及大量3D边界框的生成和校准,确保标注的准确性和一致性。
常用场景
经典使用场景
V2X-Radar数据集在自动驾驶领域中被广泛应用于合作感知任务。其经典使用场景包括车辆与基础设施之间的协同3D物体检测,通过整合车载和路侧的4D雷达、激光雷达和多视角摄像头数据,实现对环境的全方位感知。这种多模态数据的融合不仅扩展了感知范围,还增强了在恶劣天气条件下的感知能力,从而显著提升了自动驾驶系统的安全性和可靠性。
衍生相关工作
基于V2X-Radar数据集,研究者们开发了多种先进的合作感知算法和系统。例如,F-Cooper和V2X-ViT等方法通过融合多模态数据,显著提升了3D物体检测的精度和鲁棒性。此外,CoAlign和HEAL等框架进一步探索了如何在存在通信延迟和定位误差的情况下,实现高效的合作感知。这些工作不仅丰富了自动驾驶领域的研究内容,还为未来的技术发展提供了宝贵的经验和参考。
数据集最近研究
最新研究方向
在自动驾驶领域,V2X-Radar数据集的最新研究方向主要集中在多模态传感器融合和协同感知技术的提升。该数据集通过整合4D雷达、激光雷达(LiDAR)和多视角摄像头数据,旨在解决自动驾驶车辆在复杂环境中的感知难题,特别是在恶劣天气条件下的鲁棒性问题。研究者们正致力于开发新的算法,以更有效地融合这些传感器的数据,从而提高目标检测的准确性和可靠性。此外,数据集的多样性和真实性也为研究提供了丰富的场景和挑战,推动了协同感知技术在实际应用中的发展。
相关研究论文
  • 1
    V2X-Radar: A Multi-modal Dataset with 4D Radar for Cooperative Perception清华大学车辆与运载学院 · 2024年
以上内容由AI搜集并总结生成
用户留言
有没有相关的论文或文献参考?
这个数据集是基于什么背景创建的?
数据集的作者是谁?
能帮我联系到这个数据集的作者吗?
这个数据集如何下载?
点击留言
数据主题
具身智能
数据集  4099个
机构  8个
大模型
数据集  439个
机构  10个
无人机
数据集  37个
机构  6个
指令微调
数据集  36个
机构  6个
蛋白质结构
数据集  50个
机构  8个
空间智能
数据集  21个
机构  5个
5,000+
优质数据集
54 个
任务类型
进入经典数据集
热门数据集

flames-and-smoke-datasets

该仓库总结了多个公开的火焰和烟雾数据集,包括DFS、D-Fire dataset、FASDD、FLAME、BoWFire、VisiFire、fire-smoke-detect-yolov4、Forest Fire等数据集。每个数据集都有详细的描述,包括数据来源、图像数量、标注信息等。

github 收录

Stanford Cars

Cars数据集包含196类汽车的16,185图像。数据被分成8,144训练图像和8,041测试图像,其中每个类被大致分成50-50。类别通常在品牌,型号,年份,例如2012特斯拉Model S或2012 BMW M3 coupe的级别。

OpenDataLab 收录

CTD (Comparative Toxicogenomics Database)

CTD是一个综合性的数据库,旨在通过整合基因、化学物质、疾病和环境暴露的数据,来促进对环境因素与人类疾病之间关系的理解。该数据库包括化学物质与基因的相互作用、化学物质与疾病的关联、基因与疾病的关联以及化学物质与环境暴露的关联。CTD还提供数据下载、API访问和在线查询工具。

ctdbase.org 收录

CMU-MOSI

CMU-MOSI数据集包括了从93个YouTube的视频中获取的2199个独白类型的短视频片段。每个片段都是一个独立的多模态示例,其中图像、文本和音频占比是均匀的,情感分数取值为[-3,+3],表示从强负向到强正向情感。

DataCite Commons 收录

CMNEE(Chinese Military News Event Extraction dataset)

CMNEE(Chinese Military News Event Extraction dataset)是国防科技大学、东南大学和清华大学联合构建的一个大规模的、基于文档标注的开源中文军事新闻事件抽取数据集。该数据集包含17,000份文档和29,223个事件,所有事件均基于预定义的军事领域模式人工标注,包括8种事件类型和11种论元角色。数据集构建遵循两阶段多轮次标注策略,首先通过权威网站获取军事新闻文本并预处理,然后依据触发词字典进行预标注,经领域专家审核后形成事件模式。随后,通过人工分批、迭代标注并持续修正,直至满足既定质量标准。CMNEE作为首个专注于军事领域文档级事件抽取的数据集,对推动相关研究具有显著意义。

github 收录