five

THUCNews|新闻分类数据集|文本数据数据集

收藏
github2023-01-04 更新2024-05-31 收录
新闻分类
文本数据
下载链接:
https://github.com/a-strong-python/-12-
下载链接
链接失效反馈
资源简介:
THUCNews是根据新浪新闻RSS订阅频道2005~2011年间的历史数据筛选过滤生成,包含74万篇新闻文档(2.19 GB),均为UTF-8纯文本格式。本次比赛数据集在原始新浪新闻分类体系的基础上,重新整合划分出14个候选分类类别:财经、彩票、房产、股票、家居、教育、科技、社会、时尚、时政、体育、星座、游戏、娱乐。提供训练数据共832471条。
创建时间:
2023-01-04
AI搜集汇总
数据集介绍
main_image_url
构建方式
THUCNews数据集是通过筛选和过滤新浪新闻RSS订阅频道2005年至2011年间的历史数据构建而成,涵盖了74万篇新闻文档,总大小为2.19 GB。该数据集以UTF-8纯文本格式存储,并根据原始新浪新闻分类体系重新整合,划分为14个类别。训练集和验证集的格式为‘原文标题+标签’,而测试集仅包含原文标题。数据集的构建过程确保了新闻文本的多样性和广泛性,为文本分类任务提供了丰富的语料资源。
使用方法
使用THUCNews数据集时,首先需将数据集划分为训练集、验证集和测试集。训练集用于模型的训练,验证集用于模型的调优,测试集用于最终的模型评估。数据集的格式为‘原文标题+标签’,用户可通过读取文件并解析文本与标签进行处理。在模型训练过程中,可结合PaddleNLP框架,利用预训练模型进行微调,并通过集成学习方法提升分类效果。最终,模型可用于对新新闻标题进行自动分类,评估指标为分类准确率。
背景与挑战
背景概述
THUCNews数据集是由新浪新闻RSS订阅频道2005至2011年的历史数据筛选和过滤生成的,包含了74万篇新闻文档,涵盖了14个主要类别,如财经、体育、科技等。该数据集的创建旨在支持中文新闻文本分类的研究,特别是在短文本分类任务中,为模型训练提供了丰富的语料资源。THUCNews数据集的发布不仅为自然语言处理领域的研究者提供了宝贵的数据资源,还推动了中文文本分类技术的进步,尤其是在深度学习模型的应用方面。
当前挑战
THUCNews数据集在构建和应用过程中面临多个挑战。首先,数据集的类别分布不均衡,某些类别如科技和股票的样本数量远多于其他类别,这可能导致模型在训练时对少数类别的分类效果不佳。其次,短文本分类任务本身具有一定的难度,因为新闻标题通常信息密度高且语义复杂,模型需要具备较强的语义理解能力。此外,预训练模型在处理大规模数据时需要大量的计算资源,尤其是在GPU显存有限的情况下,如何优化模型训练过程也是一个重要的挑战。
常用场景
经典使用场景
THUCNews数据集的经典使用场景主要集中在新闻标题的自动分类任务上。通过该数据集,研究者和开发者可以训练和优化文本分类模型,特别是针对中文新闻标题的14个类别进行分类。这些类别涵盖了财经、体育、科技、娱乐等多个领域,使得模型能够广泛应用于新闻内容的自动化处理和信息检索。
解决学术问题
THUCNews数据集解决了中文文本分类领域中的多个学术研究问题,特别是在短文本分类和多类别分类方面。通过该数据集,研究者可以探索如何利用预训练模型(如BERT、RoBERTa等)进行微调,以提高分类准确性。此外,该数据集还为研究不平衡数据集处理、模型集成学习等提供了丰富的实验平台,推动了中文自然语言处理技术的发展。
实际应用
在实际应用中,THUCNews数据集的分类模型可以广泛应用于新闻推荐系统、舆情监控、内容过滤等领域。例如,新闻网站可以利用该模型自动对新发布的新闻标题进行分类,从而提高内容管理的效率。此外,政府和企业也可以通过该模型对社交媒体上的新闻内容进行实时监控和分类,以便快速响应公众舆论和市场动态。
数据集最近研究
最新研究方向
近年来,THUCNews数据集在中文新闻文本分类领域引起了广泛关注,尤其是在预训练模型和集成学习的应用上取得了显著进展。研究者们通过微调多种预训练模型,如BERT、RoBERTa等,结合集成学习方法,进一步提升了新闻标题分类的准确性。此外,数据集的不均衡性问题也得到了重视,采用Focal Loss等损失函数来优化模型性能。这些研究不仅推动了中文自然语言处理技术的发展,也为新闻领域的自动化分类和信息检索提供了有力的技术支持。
以上内容由AI搜集并总结生成
用户留言
有没有相关的论文或文献参考?
这个数据集是基于什么背景创建的?
数据集的作者是谁?
能帮我联系到这个数据集的作者吗?
这个数据集如何下载?
点击留言
数据主题
具身智能
数据集  4098个
机构  8个
大模型
数据集  439个
机构  10个
无人机
数据集  37个
机构  6个
指令微调
数据集  36个
机构  6个
蛋白质结构
数据集  50个
机构  8个
空间智能
数据集  21个
机构  5个
5,000+
优质数据集
54 个
任务类型
进入经典数据集
热门数据集

HazyDet

HazyDet是由解放军工程大学等机构创建的一个大规模数据集,专门用于雾霾场景下的无人机视角物体检测。该数据集包含383,000个真实世界实例,收集自自然雾霾环境和正常场景中人工添加的雾霾效果,以模拟恶劣天气条件。数据集的创建过程结合了深度估计和大气散射模型,确保了数据的真实性和多样性。HazyDet主要应用于无人机在恶劣天气条件下的物体检测,旨在提高无人机在复杂环境中的感知能力。

arXiv 收录

Cultural Dimensions Dataset

该数据集包含了霍夫斯泰德文化维度理论(Hofstede's Cultural Dimensions Theory)的相关数据,涵盖了多个国家和地区的文化维度评分,如权力距离、个人主义与集体主义、男性化与女性化、不确定性规避、长期取向与短期取向等。这些数据有助于研究不同文化背景下的行为模式和价值观。

geerthofstede.com 收录

中国省级灾害统计空间分布数据集(1999-2020年)

该数据集为中国省级灾害统计空间分布数据集,时间为1999-2020年。该数据集包含中国各省自然灾害、地质灾害、地震灾害、森林火灾、森林病虫鼠害、草原灾害六类灾害的详细数据。数据量为206MB,数据格式为excel。

国家地球系统科学数据中心 收录

中国交通事故深度调查(CIDAS)数据集

交通事故深度调查数据通过采用科学系统方法现场调查中国道路上实际发生交通事故相关的道路环境、道路交通行为、车辆损坏、人员损伤信息,以探究碰撞事故中车损和人伤机理。目前已积累深度调查事故10000余例,单个案例信息包含人、车 、路和环境多维信息组成的3000多个字段。该数据集可作为深入分析中国道路交通事故工况特征,探索事故预防和损伤防护措施的关键数据源,为制定汽车安全法规和标准、完善汽车测评试验规程、

北方大数据交易中心 收录

MedChain

MedChain是由香港城市大学、香港中文大学、深圳大学、阳明交通大学和台北荣民总医院联合创建的临床决策数据集,包含12,163个临床案例,涵盖19个医学专科和156个子类别。数据集通过五个关键阶段模拟临床工作流程,强调个性化、互动性和顺序性。数据来源于中国医疗网站“iiYi”,经过专业医生验证和去识别化处理,确保数据质量和患者隐私。MedChain旨在评估大型语言模型在真实临床场景中的诊断能力,解决现有基准在个性化医疗、互动咨询和顺序决策方面的不足。

arXiv 收录