five

V2X-Radar|自动驾驶数据集|多模态数据数据集

收藏
arXiv2024-11-17 更新2024-11-20 收录
自动驾驶
多模态数据
下载链接:
http://openmpd.com/column/V2X-Radar
下载链接
链接失效反馈
资源简介:
V2X-Radar是由清华大学车辆与运载学院创建的第一个大规模真实世界多模态数据集,专注于合作感知中的4D雷达数据。该数据集包含20K LiDAR帧、40K摄像头图像和20K 4D雷达数据,涵盖了晴天、雨天等多种天气条件和白天、黄昏、夜晚等不同时间段。数据集通过连接车辆平台和智能路边单元收集,经过精心筛选和标注,包含350K个标注的3D边界框,涵盖五类目标。V2X-Radar数据集分为三个子集:V2X-Radar-C用于合作感知,V2X-Radar-I用于路边感知,V2X-Radar-V用于单车辆感知,旨在解决自动驾驶中的遮挡和感知范围有限的问题。
提供机构:
清华大学车辆与运载学院
创建时间:
2024-11-17
AI搜集汇总
数据集介绍
main_image_url
构建方式
V2X-Radar数据集通过连接车辆平台和智能路边单元进行采集,这些平台配备了4D雷达、激光雷达(LiDAR)和多视角摄像头。数据采集涵盖了多种天气条件,包括晴天和雨天,以及不同时间段,如白天、黄昏和夜晚。数据集包括20,000帧激光雷达数据、40,000张摄像头图像和20,000帧4D雷达数据,总计350,000个标注的3D边界框,涵盖五个类别。数据集被细分为三个子集:V2X-Radar-C用于合作感知,V2X-Radar-I用于路边感知,V2X-Radar-V用于单车辆感知。
特点
V2X-Radar数据集的主要特点是其多模态性和真实世界数据的广泛覆盖。它包含了三种传感器类型:激光雷达、摄像头和4D雷达,这使得研究者可以探索不同传感器在合作感知中的作用。此外,数据集涵盖了多种天气和时间条件,以及具有挑战性的交叉口场景,提供了丰富的环境感知数据。
使用方法
V2X-Radar数据集可用于多种研究任务,包括单车辆和路边的3D物体检测,以及车辆与基础设施之间的合作3D物体检测。研究者可以使用该数据集来开发和评估新的感知算法,特别是在合作感知和多模态数据融合方面。数据集还提供了详细的基准测试结果,帮助研究者比较不同方法的性能。
背景与挑战
背景概述
V2X-Radar数据集是由清华大学车辆与运载学院、中国矿业大学、北京交通大学、字节跳动和南洋理工大学联合开发的首个大规模真实世界多模态数据集,专注于合作感知领域。该数据集于2024年发布,主要研究人员包括Lei Yang、Xinyu Zhang、Jun Li等。V2X-Radar数据集的核心研究问题是如何在自动驾驶中利用4D雷达进行合作感知,以克服单车辆感知中的遮挡和感知范围限制。该数据集的发布填补了合作感知领域中4D雷达数据集的空白,对提升自动驾驶系统的安全性和鲁棒性具有重要意义。
当前挑战
V2X-Radar数据集在构建过程中面临多重挑战。首先,数据集需要解决多模态传感器(如4D雷达、激光雷达和摄像头)的同步问题,确保时间和空间维度上的数据一致性。其次,数据集在不同天气条件(如晴天、雨天)和不同时间段(如白天、黄昏、夜晚)下的数据采集,增加了数据处理的复杂性。此外,数据集还需要应对合作感知中的遮挡和感知范围限制问题,确保在复杂交通场景中的有效性。最后,数据集的标注工作涉及大量3D边界框的生成和校准,确保标注的准确性和一致性。
常用场景
经典使用场景
V2X-Radar数据集在自动驾驶领域中被广泛应用于合作感知任务。其经典使用场景包括车辆与基础设施之间的协同3D物体检测,通过整合车载和路侧的4D雷达、激光雷达和多视角摄像头数据,实现对环境的全方位感知。这种多模态数据的融合不仅扩展了感知范围,还增强了在恶劣天气条件下的感知能力,从而显著提升了自动驾驶系统的安全性和可靠性。
衍生相关工作
基于V2X-Radar数据集,研究者们开发了多种先进的合作感知算法和系统。例如,F-Cooper和V2X-ViT等方法通过融合多模态数据,显著提升了3D物体检测的精度和鲁棒性。此外,CoAlign和HEAL等框架进一步探索了如何在存在通信延迟和定位误差的情况下,实现高效的合作感知。这些工作不仅丰富了自动驾驶领域的研究内容,还为未来的技术发展提供了宝贵的经验和参考。
数据集最近研究
最新研究方向
在自动驾驶领域,V2X-Radar数据集的最新研究方向主要集中在多模态传感器融合和协同感知技术的提升。该数据集通过整合4D雷达、激光雷达(LiDAR)和多视角摄像头数据,旨在解决自动驾驶车辆在复杂环境中的感知难题,特别是在恶劣天气条件下的鲁棒性问题。研究者们正致力于开发新的算法,以更有效地融合这些传感器的数据,从而提高目标检测的准确性和可靠性。此外,数据集的多样性和真实性也为研究提供了丰富的场景和挑战,推动了协同感知技术在实际应用中的发展。
相关研究论文
  • 1
    V2X-Radar: A Multi-modal Dataset with 4D Radar for Cooperative Perception清华大学车辆与运载学院 · 2024年
以上内容由AI搜集并总结生成
用户留言
有没有相关的论文或文献参考?
这个数据集是基于什么背景创建的?
数据集的作者是谁?
能帮我联系到这个数据集的作者吗?
这个数据集如何下载?
点击留言
数据主题
具身智能
数据集  4099个
机构  8个
大模型
数据集  439个
机构  10个
无人机
数据集  37个
机构  6个
指令微调
数据集  36个
机构  6个
蛋白质结构
数据集  50个
机构  8个
空间智能
数据集  21个
机构  5个
5,000+
优质数据集
54 个
任务类型
进入经典数据集
热门数据集

China Health and Nutrition Survey (CHNS)

China Health and Nutrition Survey(CHNS)是一项由美国北卡罗来纳大学人口中心与中国疾病预防控制中心营养与健康所合作开展的长期开放性队列研究项目,旨在评估国家和地方政府的健康、营养与家庭计划政策对人群健康和营养状况的影响,以及社会经济转型对居民健康行为和健康结果的作用。该调查覆盖中国15个省份和直辖市的约7200户家庭、超过30000名个体,采用多阶段随机抽样方法,收集了家庭、个体以及社区层面的详细数据,包括饮食、健康、经济和社会因素等信息。自2011年起,CHNS不断扩展,新增多个城市和省份,并持续完善纵向数据链接,为研究中国社会经济变化与健康营养的动态关系提供了重要的数据支持。

www.cpc.unc.edu 收录

THCHS-30

“THCHS30是由清华大学语音与语言技术中心(CSLT)发布的开放式汉语语音数据库。原始录音是2002年在清华大学国家重点实验室的朱晓燕教授的指导下,由王东完成的。清华大学计算机科学系智能与系统,原名“TCMSD”,意思是“清华连续普通话语音数据库”,时隔13年出版,由王东博士发起,并得到了教授的支持。朱小燕。我们希望为语音识别领域的新研究人员提供一个玩具数据库。因此,该数据库对学术用户完全免费。整个软件包包含建立中文语音识别所需的全套语音和语言资源系统。”

OpenDataLab 收录

CE-CSL

CE-CSL数据集是由哈尔滨工程大学智能科学与工程学院创建的中文连续手语数据集,旨在解决现有数据集在复杂环境下的局限性。该数据集包含5,988个从日常生活场景中收集的连续手语视频片段,涵盖超过70种不同的复杂背景,确保了数据集的代表性和泛化能力。数据集的创建过程严格遵循实际应用导向,通过收集大量真实场景下的手语视频材料,覆盖了广泛的情境变化和环境复杂性。CE-CSL数据集主要应用于连续手语识别领域,旨在提高手语识别技术在复杂环境中的准确性和效率,促进聋人与听人社区之间的无障碍沟通。

arXiv 收录

UAVDT Dataset

The authors constructed a new UAVDT Dataset focused on complex scenarios with new level challenges. Selected from 10 hours raw videos, about 80, 000 representative frames are fully annotated with bounding boxes as well as up to 14 kinds of attributes (e.g., weather condition, flying altitude, camera view, vehicle category, and occlusion) for three fundamental computer vision tasks: object detection, single object tracking, and multiple object tracking.

datasetninja.com 收录

ADE20K

ADE20K 数据集包含 Scene Parsing Benchmark 场景数据和部分分割数据。图像和注释:每个文件夹包含按场景类别分类的图像,对象和部分分割分别存储在两个不同的 png 文件中。所有对象和零件实例均已单独注释。

OpenDataLab 收录