five

V2X-Radar|自动驾驶数据集|多模态数据数据集

收藏
arXiv2024-11-17 更新2024-11-20 收录
自动驾驶
多模态数据
下载链接:
http://openmpd.com/column/V2X-Radar
下载链接
链接失效反馈
资源简介:
V2X-Radar是由清华大学车辆与运载学院创建的第一个大规模真实世界多模态数据集,专注于合作感知中的4D雷达数据。该数据集包含20K LiDAR帧、40K摄像头图像和20K 4D雷达数据,涵盖了晴天、雨天等多种天气条件和白天、黄昏、夜晚等不同时间段。数据集通过连接车辆平台和智能路边单元收集,经过精心筛选和标注,包含350K个标注的3D边界框,涵盖五类目标。V2X-Radar数据集分为三个子集:V2X-Radar-C用于合作感知,V2X-Radar-I用于路边感知,V2X-Radar-V用于单车辆感知,旨在解决自动驾驶中的遮挡和感知范围有限的问题。
提供机构:
清华大学车辆与运载学院
创建时间:
2024-11-17
AI搜集汇总
数据集介绍
main_image_url
构建方式
V2X-Radar数据集通过连接车辆平台和智能路边单元进行采集,这些平台配备了4D雷达、激光雷达(LiDAR)和多视角摄像头。数据采集涵盖了多种天气条件,包括晴天和雨天,以及不同时间段,如白天、黄昏和夜晚。数据集包括20,000帧激光雷达数据、40,000张摄像头图像和20,000帧4D雷达数据,总计350,000个标注的3D边界框,涵盖五个类别。数据集被细分为三个子集:V2X-Radar-C用于合作感知,V2X-Radar-I用于路边感知,V2X-Radar-V用于单车辆感知。
特点
V2X-Radar数据集的主要特点是其多模态性和真实世界数据的广泛覆盖。它包含了三种传感器类型:激光雷达、摄像头和4D雷达,这使得研究者可以探索不同传感器在合作感知中的作用。此外,数据集涵盖了多种天气和时间条件,以及具有挑战性的交叉口场景,提供了丰富的环境感知数据。
使用方法
V2X-Radar数据集可用于多种研究任务,包括单车辆和路边的3D物体检测,以及车辆与基础设施之间的合作3D物体检测。研究者可以使用该数据集来开发和评估新的感知算法,特别是在合作感知和多模态数据融合方面。数据集还提供了详细的基准测试结果,帮助研究者比较不同方法的性能。
背景与挑战
背景概述
V2X-Radar数据集是由清华大学车辆与运载学院、中国矿业大学、北京交通大学、字节跳动和南洋理工大学联合开发的首个大规模真实世界多模态数据集,专注于合作感知领域。该数据集于2024年发布,主要研究人员包括Lei Yang、Xinyu Zhang、Jun Li等。V2X-Radar数据集的核心研究问题是如何在自动驾驶中利用4D雷达进行合作感知,以克服单车辆感知中的遮挡和感知范围限制。该数据集的发布填补了合作感知领域中4D雷达数据集的空白,对提升自动驾驶系统的安全性和鲁棒性具有重要意义。
当前挑战
V2X-Radar数据集在构建过程中面临多重挑战。首先,数据集需要解决多模态传感器(如4D雷达、激光雷达和摄像头)的同步问题,确保时间和空间维度上的数据一致性。其次,数据集在不同天气条件(如晴天、雨天)和不同时间段(如白天、黄昏、夜晚)下的数据采集,增加了数据处理的复杂性。此外,数据集还需要应对合作感知中的遮挡和感知范围限制问题,确保在复杂交通场景中的有效性。最后,数据集的标注工作涉及大量3D边界框的生成和校准,确保标注的准确性和一致性。
常用场景
经典使用场景
V2X-Radar数据集在自动驾驶领域中被广泛应用于合作感知任务。其经典使用场景包括车辆与基础设施之间的协同3D物体检测,通过整合车载和路侧的4D雷达、激光雷达和多视角摄像头数据,实现对环境的全方位感知。这种多模态数据的融合不仅扩展了感知范围,还增强了在恶劣天气条件下的感知能力,从而显著提升了自动驾驶系统的安全性和可靠性。
衍生相关工作
基于V2X-Radar数据集,研究者们开发了多种先进的合作感知算法和系统。例如,F-Cooper和V2X-ViT等方法通过融合多模态数据,显著提升了3D物体检测的精度和鲁棒性。此外,CoAlign和HEAL等框架进一步探索了如何在存在通信延迟和定位误差的情况下,实现高效的合作感知。这些工作不仅丰富了自动驾驶领域的研究内容,还为未来的技术发展提供了宝贵的经验和参考。
数据集最近研究
最新研究方向
在自动驾驶领域,V2X-Radar数据集的最新研究方向主要集中在多模态传感器融合和协同感知技术的提升。该数据集通过整合4D雷达、激光雷达(LiDAR)和多视角摄像头数据,旨在解决自动驾驶车辆在复杂环境中的感知难题,特别是在恶劣天气条件下的鲁棒性问题。研究者们正致力于开发新的算法,以更有效地融合这些传感器的数据,从而提高目标检测的准确性和可靠性。此外,数据集的多样性和真实性也为研究提供了丰富的场景和挑战,推动了协同感知技术在实际应用中的发展。
相关研究论文
  • 1
    V2X-Radar: A Multi-modal Dataset with 4D Radar for Cooperative Perception清华大学车辆与运载学院 · 2024年
以上内容由AI搜集并总结生成
用户留言
有没有相关的论文或文献参考?
这个数据集是基于什么背景创建的?
数据集的作者是谁?
能帮我联系到这个数据集的作者吗?
这个数据集如何下载?
点击留言
数据主题
具身智能
数据集  4099个
机构  8个
大模型
数据集  439个
机构  10个
无人机
数据集  37个
机构  6个
指令微调
数据集  36个
机构  6个
蛋白质结构
数据集  50个
机构  8个
空间智能
数据集  21个
机构  5个
5,000+
优质数据集
54 个
任务类型
进入经典数据集
热门数据集

China Health and Nutrition Survey (CHNS)

China Health and Nutrition Survey(CHNS)是一项由美国北卡罗来纳大学人口中心与中国疾病预防控制中心营养与健康所合作开展的长期开放性队列研究项目,旨在评估国家和地方政府的健康、营养与家庭计划政策对人群健康和营养状况的影响,以及社会经济转型对居民健康行为和健康结果的作用。该调查覆盖中国15个省份和直辖市的约7200户家庭、超过30000名个体,采用多阶段随机抽样方法,收集了家庭、个体以及社区层面的详细数据,包括饮食、健康、经济和社会因素等信息。自2011年起,CHNS不断扩展,新增多个城市和省份,并持续完善纵向数据链接,为研究中国社会经济变化与健康营养的动态关系提供了重要的数据支持。

www.cpc.unc.edu 收录

学生课堂行为数据集 (SCB-dataset3)

学生课堂行为数据集(SCB-dataset3)由成都东软学院创建,包含5686张图像和45578个标签,重点关注六种行为:举手、阅读、写作、使用手机、低头和趴桌。数据集覆盖从幼儿园到大学的不同场景,通过YOLOv5、YOLOv7和YOLOv8算法评估,平均精度达到80.3%。该数据集旨在为学生行为检测研究提供坚实基础,解决教育领域中学生行为数据集的缺乏问题。

arXiv 收录

LOL (LOw-Light dataset)

LOL 数据集由 500 个低光和正常光图像对组成,分为 485 个训练对和 15 个测试对。低光图像包含照片捕获过程中产生的噪声。大多数图像是室内场景。所有图像的分辨率均为 400×600。

OpenDataLab 收录

波士顿房价数据集

波士顿房价数据集是一个经典的机器学习数据集,通常用于回归任务,尤其是房价预测。下方文档中有所有字段顺序的描述。

阿里云天池 收录

IWSLT/iwslt2017

IWSLT 2017数据集是一个多语言翻译数据集,涵盖了多种语言对,包括英语、阿拉伯语、德语、荷兰语、意大利语、罗马尼亚语、法语、日语、韩语和中文。数据集的主要任务是文本翻译,包括零样本翻译。数据集的结构包括训练集、验证集和测试集,每个语言对都有相应的数据实例和字段。数据集的创建过程、注释过程以及使用数据时的考虑因素等信息未在README中详细描述。

hugging_face 收录