five

Procedural Content Generation Benchmark|游戏内容生成数据集|算法评估数据集

收藏
arXiv2025-03-28 更新2025-03-29 收录
游戏内容生成
算法评估
下载链接:
https://github.com/amidos2006/pcg_benchmark
下载链接
链接失效反馈
资源简介:
Procedural Content Generation Benchmark是由马耳他大学数字游戏学院创建的一个开源测试床,旨在为游戏中的生成性挑战提供标准化的评估方法。该数据集包含12个游戏相关问题,涵盖从创建不同类型的游戏关卡到创建简单街机游戏的规则集等各种任务。每个问题都有其自己的内容表示、控制参数和评价质量、多样性和可控性的评价指标。
提供机构:
马耳他大学数字游戏学院
创建时间:
2025-03-27
AI搜集汇总
数据集介绍
main_image_url
构建方式
Procedural Content Generation Benchmark(PCG Benchmark)数据集的构建基于游戏内容生成的多样性和复杂性,旨在为生成算法提供一个标准化的评估平台。数据集包含12个与游戏相关的问题,每个问题都有其独特的内容表示、控制参数以及评估生成内容质量、多样性和可控性的指标。构建过程中,研究者们设计了统一的环境接口,使得每个问题可以独立运行和评估,同时支持用户扩展新的生成问题。这种模块化设计不仅提高了数据集的灵活性,也为后续研究提供了可扩展的基础。
特点
PCG Benchmark数据集的特点在于其多样性和标准化评估。数据集涵盖了从游戏关卡生成到规则集创建等多种任务,每个任务都配备了详细的评估标准,确保生成内容在质量、多样性和可控性上的全面衡量。此外,数据集支持多种生成方法,包括随机生成、进化策略和遗传算法等,为研究者提供了丰富的实验场景。其图形化渲染功能进一步增强了数据集的实用性,使得生成内容可以直观地展示和分析。
使用方法
使用PCG Benchmark数据集时,研究者首先需选择特定的生成问题,并构建或选择相应的生成算法。数据集提供了内容空间和控制空间的接口,用户可通过这些接口生成内容并获取评估结果。评估函数会返回生成内容在质量、多样性和可控性上的得分,这些得分可用于优化算法或作为研究指标。此外,数据集支持生成内容的图形化展示,便于直观分析和比较。用户还可以通过扩展接口添加新的生成问题,进一步丰富数据集的应用场景。
背景与挑战
背景概述
Procedural Content Generation Benchmark(PCG Benchmark)是由马耳他大学数字游戏研究所的Ahmed Khalifa等研究人员于2025年提出的一个开源测试平台,旨在为游戏中的生成算法提供标准化的评估框架。该数据集包含12个与游戏内容生成相关的任务,涵盖规则集生成、关卡设计、建筑结构生成等多个领域。PCG Benchmark的提出填补了程序化内容生成领域缺乏统一评估标准的空白,其核心研究问题在于如何建立可量化的评估指标(质量、多样性和可控性)来比较不同生成算法的性能。该数据集通过提供标准化的评估接口和多样化的问题集,显著推动了生成算法在游戏设计领域的应用研究,并为学术研究和工业实践提供了重要参考。
当前挑战
PCG Benchmark面临的主要挑战体现在两个维度:在领域问题层面,程序化内容生成需要同时满足功能性(如游戏关卡的可玩性)和创造性(如内容的多样性)要求,而现有评估指标难以全面捕捉生成内容的复杂美学特征;在构建过程层面,数据集需要处理不同游戏类型(如平台游戏、解谜游戏等)的异构内容表示,并设计通用的评估框架来兼容这些差异。具体挑战包括:1)量化生成内容的主观质量指标(如游戏关卡的趣味性);2)平衡算法生成效率与内容多样性之间的权衡;3)为不同游戏类型设计具有可比性的控制参数系统;4)建立能够适应新兴生成技术(如大语言模型)的扩展接口。
常用场景
经典使用场景
Procedural Content Generation Benchmark(PCG Benchmark)作为游戏内容生成领域的标准化测试平台,其经典使用场景聚焦于评估各类生成算法在多样化游戏内容创作任务中的表现。该数据集通过12个涵盖规则集设计、关卡生成、建筑构造等任务的子问题,为研究者提供了统一的评估框架。例如在《超级马里奥兄弟》关卡生成任务中,算法需生成符合可玩性、管道结构完整性和敌人分布合理性的150个切片关卡,并通过A*代理验证其可通关性。这种多维度评估方式已成为比较随机生成、进化策略和遗传算法等方法的黄金标准。
解决学术问题
PCG Benchmark系统性地解决了生成算法评估中质量、多样性和可控性难以量化衡量的核心学术问题。通过定义每个子问题的内容表示形式、控制参数和标准化评估指标,该数据集首次实现了生成算法在功能性(如关卡可玩性)、创造性(如规则集新颖性)和适应性(如按参数生成特定敌人数量)等维度的跨任务可比性。其提出的三元评估体系(质量通过功能性测试、多样性通过内容差异性分析、可控性通过参数匹配度验证)为生成式AI研究提供了可复现的评估范式,填补了游戏内容生成领域缺乏统一基准的空白。
衍生相关工作
该数据集催生了多项生成算法创新研究,其中最具影响力的是基于PCGRL(强化学习内容生成)框架的后续工作。研究者通过Zelda问题的评估指标,开发出能同时优化关卡连通性和关键道具距离的层次化强化学习模型。在质量多样性算法方向,Building问题的三维乐高块生成任务衍生出MAP-Elites算法的改进变体,实现了建筑风格的可控演化。此外,基准中的Super Mario Bros任务激发了潜在空间约束生成对抗网络的研究,其生成的关卡切片在保持可玩性的同时显著提升了视觉连贯性。这些工作均以PCG Benchmark作为核心评估标准,推动了生成算法在游戏工业的实际落地。
以上内容由AI搜集并总结生成
用户留言
有没有相关的论文或文献参考?
这个数据集是基于什么背景创建的?
数据集的作者是谁?
能帮我联系到这个数据集的作者吗?
这个数据集如何下载?
点击留言
数据主题
具身智能
数据集  4098个
机构  8个
大模型
数据集  439个
机构  10个
无人机
数据集  37个
机构  6个
指令微调
数据集  36个
机构  6个
蛋白质结构
数据集  50个
机构  8个
空间智能
数据集  21个
机构  5个
5,000+
优质数据集
54 个
任务类型
进入经典数据集
热门数据集

YOLO Drone Detection Dataset

为了促进无人机检测模型的开发和评估,我们引入了一个新颖且全面的数据集,专门为训练和测试无人机检测算法而设计。该数据集来源于Kaggle上的公开数据集,包含在各种环境和摄像机视角下捕获的多样化的带注释图像。数据集包括无人机实例以及其他常见对象,以实现强大的检测和分类。

github 收录

AISHELL/AISHELL-1

Aishell是一个开源的中文普通话语音语料库,由北京壳壳科技有限公司发布。数据集包含了来自中国不同口音地区的400人的录音,录音在安静的室内环境中使用高保真麦克风进行,并下采样至16kHz。通过专业的语音标注和严格的质量检查,手动转录的准确率超过95%。该数据集免费供学术使用,旨在为语音识别领域的新研究人员提供适量的数据。

hugging_face 收录

URPC系列数据集, S-URPC2019, UDD

URPC系列数据集包括URPC2017至URPC2020DL,主要用于水下目标的检测和分类。S-URPC2019专注于水下环境的特定检测任务。UDD数据集信息未在README中详细描述。

github 收录

TCIA

TCIA(The Cancer Imaging Archive)是一个公开的癌症影像数据集,包含多种癌症类型的医学影像数据,如CT、MRI、PET等。这些数据通常与临床和病理信息相结合,用于癌症研究和临床试验。

www.cancerimagingarchive.net 收录

MedDialog

MedDialog数据集(中文)包含了医生和患者之间的对话(中文)。它有110万个对话和400万个话语。数据还在不断增长,会有更多的对话加入。原始对话来自好大夫网。

github 收录