five

FIReStereo|无人机数据集|深度感知数据集

收藏
arXiv2024-09-12 更新2024-09-14 收录
无人机
深度感知
下载链接:
https://firestereo.github.io
下载链接
链接失效反馈
资源简介:
FIReStereo数据集由卡内基梅隆大学的研究团队创建,旨在为无人机的深度感知提供支持,特别是在视觉受损的环境中。该数据集包含204,594对立体红外图像,以及LiDAR、IMU和地面真值深度图,采集于城市和森林环境中,涵盖了白天、夜晚、雨天和烟雾等多种条件。数据集的创建过程包括在不同环境中进行数据采集,并使用Faster-LIO算法进行深度图的密集化处理。该数据集主要应用于灾难场景中的机器人感知,帮助无人机在烟雾等视觉受损环境中进行探索和操作。
提供机构:
卡内基梅隆大学
创建时间:
2024-09-12
AI搜集汇总
数据集介绍
main_image_url
构建方式
FIReStereo数据集通过在城市和森林环境中,利用无人机(UAS)搭载的立体红外热成像相机、激光雷达(LiDAR)和惯性测量单元(IMU)进行数据采集。数据集涵盖了多种环境条件,包括白天、夜晚、雨天和烟雾环境。为了确保数据的多样性和代表性,数据采集过程中模拟了森林城市交界处的复杂环境,特别是针对烟雾环境下的深度感知需求。通过这些传感器的数据同步和校准,FIReStereo数据集提供了高质量的立体热成像图像和相应的深度图,为研究在视觉退化环境中的深度感知提供了宝贵的资源。
特点
FIReStereo数据集的显著特点在于其针对视觉退化环境的高适应性,特别是在烟雾和低光照条件下。数据集包含了多种环境类型和天气条件,如城市、混合和野外环境,以及白天、夜晚、雨天和烟雾等不同条件。此外,数据集中的传感器数据(包括立体热成像、LiDAR和IMU)均经过精确的时间同步,确保了数据的一致性和可靠性。这些特点使得FIReStereo数据集成为开发和验证在复杂环境中深度感知算法的理想选择。
使用方法
FIReStereo数据集适用于开发和验证在视觉退化环境中的深度感知算法,特别是针对无人机(UAS)的应用。研究者可以使用该数据集训练和测试立体深度估计模型,评估其在不同环境条件下的性能。数据集提供了丰富的传感器数据,包括立体热成像图像、LiDAR数据和IMU信息,这些数据可以用于多种任务,如深度估计、SLAM(同时定位与地图构建)和路径规划。通过使用FIReStereo数据集,研究者可以开发出更加鲁棒和精确的深度感知系统,以应对复杂和恶劣的环境条件。
背景与挑战
背景概述
在自主空中系统(UAS)领域,视觉退化环境中的鲁棒深度感知至关重要。传统传感器如激光雷达(LiDAR)和RGB相机在烟雾、灰尘和黑暗等条件下表现不佳。为此,FIReStereo数据集应运而生,由卡内基梅隆大学的研究人员于2024年创建,旨在为小型UAS提供在视觉退化环境中进行深度估计的数据支持。该数据集包含了在城市和森林环境中采集的立体热成像图像、LiDAR、IMU和地面真值深度图,涵盖了白天、夜晚、雨天和烟雾等多种条件。FIReStereo数据集的推出填补了相关领域的空白,为开发适用于复杂环境的深度感知算法提供了宝贵的资源,有望在灾害响应等场景中显著提升机器人的感知能力。
当前挑战
FIReStereo数据集的构建面临多重挑战。首先,视觉退化环境中的数据采集极具挑战性,需要在烟雾、黑暗等极端条件下确保传感器数据的准确性和一致性。其次,热成像数据的处理和校准复杂,尤其是立体热成像的同步和校准,需要高精度的技术支持。此外,数据集的多样性和代表性也是一个重要挑战,确保涵盖不同环境类型和天气条件,以提高模型的泛化能力。最后,如何在资源受限的UAS平台上实现高效的深度估计算法,也是一个亟待解决的问题。这些挑战不仅涉及数据采集和处理的技术难题,还包括算法优化和硬件适配的复杂性。
常用场景
经典使用场景
FIReStereo数据集在无人机的深度感知中展现了其经典应用场景。该数据集通过收集城市和森林环境中的立体红外图像、激光雷达(LiDAR)、惯性测量单元(IMU)和地面真实深度图,为在视觉降级环境中的深度估计提供了丰富的数据支持。这些数据在训练和评估立体深度估计算法时,特别是在烟雾、雨夜等复杂条件下,展现了其独特的优势。
实际应用
FIReStereo数据集在实际应用中展现了其广泛的应用场景。特别是在灾难响应中,无人机需要穿越烟雾、灰尘和黑暗等恶劣环境,进行人员搜救和场景评估。该数据集通过提供立体红外图像和相应的深度信息,帮助开发和验证能够在这些极端条件下工作的深度感知算法,从而提升无人机的实际操作能力和安全性。
衍生相关工作
FIReStereo数据集的发布催生了一系列相关研究工作。研究人员利用该数据集开发了多种立体深度估计模型,如Fast-ACVNet和MobileStereoNet,这些模型在计算效率和精度上都有显著提升。此外,该数据集还促进了红外视觉与惯性导航融合的研究,推动了轻量级立体匹配网络的设计,为无人机在复杂环境中的实时深度感知提供了新的技术路径。
以上内容由AI搜集并总结生成
用户留言
有没有相关的论文或文献参考?
这个数据集是基于什么背景创建的?
数据集的作者是谁?
能帮我联系到这个数据集的作者吗?
这个数据集如何下载?
点击留言
数据主题
具身智能
数据集  4099个
机构  8个
大模型
数据集  439个
机构  10个
无人机
数据集  37个
机构  6个
指令微调
数据集  36个
机构  6个
蛋白质结构
数据集  50个
机构  8个
空间智能
数据集  21个
机构  5个
5,000+
优质数据集
54 个
任务类型
进入经典数据集
热门数据集

MedDialog

MedDialog数据集(中文)包含了医生和患者之间的对话(中文)。它有110万个对话和400万个话语。数据还在不断增长,会有更多的对话加入。原始对话来自好大夫网。

github 收录

HazyDet

HazyDet是由解放军工程大学等机构创建的一个大规模数据集,专门用于雾霾场景下的无人机视角物体检测。该数据集包含383,000个真实世界实例,收集自自然雾霾环境和正常场景中人工添加的雾霾效果,以模拟恶劣天气条件。数据集的创建过程结合了深度估计和大气散射模型,确保了数据的真实性和多样性。HazyDet主要应用于无人机在恶劣天气条件下的物体检测,旨在提高无人机在复杂环境中的感知能力。

arXiv 收录

中国区域交通网络数据集

该数据集包含中国各区域的交通网络信息,包括道路、铁路、航空和水路等多种交通方式的网络结构和连接关系。数据集详细记录了各交通节点的位置、交通线路的类型、长度、容量以及相关的交通流量信息。

data.stats.gov.cn 收录

VisDrone2019

VisDrone2019数据集由AISKYEYE团队在天津大学机器学习和数据挖掘实验室收集,包含288个视频片段共261,908帧和10,209张静态图像。数据集覆盖了中国14个不同城市的城市和乡村环境,包括行人、车辆、自行车等多种目标,以及稀疏和拥挤场景。数据集使用不同型号的无人机在各种天气和光照条件下收集,手动标注了超过260万个目标边界框,并提供了场景可见性、对象类别和遮挡等重要属性。

github 收录

中国裁判文书网

中国裁判文书网是中国最高人民法院设立的官方网站,旨在公开各级法院的裁判文书。该数据集包含了大量的法律文书,如判决书、裁定书、调解书等,涵盖了民事、刑事、行政、知识产权等多个法律领域。

wenshu.court.gov.cn 收录