five

FineTuneBench|大型语言模型数据集|微调评估数据集

收藏
arXiv2024-11-11 更新2024-11-18 收录
大型语言模型
微调评估
下载链接:
https://github.com/kevinwu23/StanfordFineTuneBench
下载链接
链接失效反馈
资源简介:
FineTuneBench数据集由斯坦福大学创建,旨在评估商业化大型语言模型(LLMs)微调APIs在新知识注入和现有知识更新方面的效能。该数据集包含625个训练问题和1075个测试问题,覆盖新闻、虚构人物、医疗指南和代码更新四大领域。通过对比分析OpenAI和Google的五个前沿LLMs,包括GPT-4o和Gemini 1.5 Pro等,FineTuneBench揭示了微调服务在知识注入方面的显著不足。该数据集的创建过程基于最新新闻文章、虚构人物信息、医疗指南更新和代码框架变更,通过精心设计的问答对来测试模型的泛化能力。FineTuneBench的应用领域广泛,尤其适用于评估和改进LLMs在特定领域的知识更新和应用能力。
提供机构:
斯坦福大学
创建时间:
2024-11-11
AI搜集汇总
数据集介绍
main_image_url
构建方式
FineTuneBench数据集的构建基于对前沿大型语言模型(LLMs)在商业微调API下的知识注入能力的评估需求。该数据集包含四个领域的知识注入任务:最新新闻、虚构人物、医疗指南和代码更新。每个领域均包含训练问题和测试问题,旨在测试模型在摄取新信息和更新现有知识方面的有效性。数据集的生成过程包括从可靠来源收集最新信息,使用GPT-4o生成问题-答案对,并通过质量检查确保生成的内容符合标准。此外,数据集还包括对问题的重新表述和日期更改,以测试模型的泛化能力。
特点
FineTuneBench数据集的特点在于其多领域覆盖和严格的生成流程。数据集不仅涵盖了新闻、虚构人物、医疗和代码四个领域,还通过重新表述和日期更改等方式,增加了问题的复杂性和多样性,从而更全面地评估模型的知识注入能力。此外,数据集的生成过程严格遵循科学方法,确保每个问题和答案对的质量和可靠性。
使用方法
FineTuneBench数据集适用于评估和比较不同商业微调API在知识注入任务中的表现。用户可以通过该数据集对模型进行微调,并测试其在原始问题、重新表述问题和日期更改问题上的表现,以评估模型的记忆和泛化能力。数据集还提供了详细的训练和评估指南,帮助用户在不同领域和任务中进行系统的模型评估和优化。
背景与挑战
背景概述
随着大型语言模型(LLMs)在软件开发和医学等多样化领域的应用日益增多,确保这些模型包含最新和相关的知识变得至关重要。例如,软件开发者需要模型理解最新版本的代码,而医疗专业人员则需要可信赖的模型遵循当前的临床指南。此外,企业希望将这些模型适应内部使用,需要引入全新的知识,如员工信息或最新新闻。然而,目前大多数前沿模型是闭源的,用户无法直接应用模型微调技术。最近,一些公司通过商业API提供了对专有模型的监督微调,如OpenAI的微调UI和Google Vertex AI。这些服务为用户提供了一种适应闭源且计算成本高昂的前沿模型的途径。然而,这些微调服务是否能够实现知识注入,即学习新知识和更新知识的能力,尚不清楚。
当前挑战
FineTuneBench数据集旨在评估商业微调API在注入新知识和更新现有知识方面的有效性。主要挑战包括:1) 商业API提供的微调方法细节不明确,如Google Vertex AI允许用户指定‘适配器大小’,而OpenAI未提供任何细节;2) 缺乏统一的基准来评估这些方法并进行比较;3) 用户在超参数优化方面受到限制,默认值的建议可能不足以使模型适应新知识和更新知识。此外,模型在记忆原始问题后,在回答重新表述的问题或日期改变的问题时表现不佳,表明存在过度拟合问题。总体而言,当前商业微调服务在实现可靠知识注入方面存在显著不足。
常用场景
经典使用场景
FineTuneBench数据集的经典使用场景主要集中在评估商业微调API在向大型语言模型(LLMs)注入新知识和更新现有知识方面的有效性。通过分析包括GPT-4o和Gemini 1.5 Pro在内的五个前沿LLMs,该数据集在两个关键设置中测试了这些模型的能力:一是吸收新信息,如最近的新闻事件和新的人物简介;二是更新现有知识,如更新的医疗指南和代码框架。
解决学术问题
FineTuneBench数据集解决了当前学术界在理解商业微调API如何有效注入新知识和更新现有知识方面的关键问题。通过提供一个系统化的评估框架和数据集,该研究揭示了现有模型在通过微调学习新信息方面的显著不足,平均泛化准确率仅为37%。在更新现有知识方面,如整合医疗指南更新,商业微调API的能力更为有限,平均泛化准确率仅为19%。这些发现强调了当前商业微调服务在实现可靠知识注入方面的主要缺陷。
衍生相关工作
FineTuneBench数据集的引入激发了一系列相关研究工作,特别是在知识注入和模型微调领域。例如,一些研究探索了通过多适配器模型将知识注入BERT的方法,以及比较了继续预训练与检索增强生成(RAG)在模型如Llama-2-7B和Mistral-7B中的有效性。此外,Chen等人的研究探讨了在浅层选择性微调Llama-2-7B以实现知识注入。这些工作都是在FineTuneBench数据集的基础上进行的,进一步推动了LLMs在知识注入和更新方面的研究。
以上内容由AI搜集并总结生成
用户留言
有没有相关的论文或文献参考?
这个数据集是基于什么背景创建的?
数据集的作者是谁?
能帮我联系到这个数据集的作者吗?
这个数据集如何下载?
点击留言
数据主题
具身智能
数据集  4099个
机构  8个
大模型
数据集  439个
机构  10个
无人机
数据集  37个
机构  6个
指令微调
数据集  36个
机构  6个
蛋白质结构
数据集  50个
机构  8个
空间智能
数据集  21个
机构  5个
5,000+
优质数据集
54 个
任务类型
进入经典数据集
热门数据集

中国区域交通网络数据集

该数据集包含中国各区域的交通网络信息,包括道路、铁路、航空和水路等多种交通方式的网络结构和连接关系。数据集详细记录了各交通节点的位置、交通线路的类型、长度、容量以及相关的交通流量信息。

data.stats.gov.cn 收录

N-MNIST (Neuromorphic-MNIST)

简要说明 Neuromorphic-MNIST (N-MNIST) 数据集是原始基于帧的 MNIST 数据集的尖峰版本。它由与原始 MNIST 数据集相同的 60 000 个训练样本和 10 000 个测试样本组成,并以与原始 MNIST 数据集(28x28 像素)相同的视觉比例捕获。 N-MNIST 数据集是通过将 ATIS 传感器安装在电动云台装置上并让传感器在 LCD 监视器上查看 MNIST 示例时移动来捕获的,如本视频所示。可以在下面的论文中找到对数据集及其创建方式的完整描述。如果您使用数据集,请引用本文。果园,G。科恩,G。贾亚万特,A。和 Thakor, N. “Converting Static Image Datasets to Spiking Neuromorphic Datasets Using Saccades”,《神经科学前沿》,第 9 卷,第 437 期,2015 年 10 月

OpenDataLab 收录

AgiBot World

为了进一步推动通用具身智能领域研究进展,让高质量机器人数据触手可及,作为上海模塑申城语料普惠计划中的一份子,智元机器人携手上海人工智能实验室、国家地方共建人形机器人创新中心以及上海库帕思,重磅发布全球首个基于全域真实场景、全能硬件平台、全程质量把控的百万真机数据集开源项目 AgiBot World。这一里程碑式的开源项目,旨在构建国际领先的开源技术底座,标志着具身智能领域 「ImageNet 时刻」已到来。AgiBot World 是全球首个基于全域真实场景、全能硬件平台、全程质量把控的大规模机器人数据集。相比于 Google 开源的 Open X-Embodiment 数据集,AgiBot World 的长程数据规模高出 10 倍,场景范围覆盖面扩大 100 倍,数据质量从实验室级上升到工业级标准。AgiBot World 数据集收录了八十余种日常生活中的多样化技能,从抓取、放置、推、拉等基础操作,到搅拌、折叠、熨烫等精细长程、双臂协同复杂交互,几乎涵盖了日常生活所需的绝大多数动作需求。

github 收录

YouTube-English

该数据集包含从各种YouTube频道提取的英语音频片段以及相应的转录元数据。数据用于训练自动语音识别(ASR)模型。数据来源于YouTube频道,处理过程包括下载、分割和保存音频及元数据。数据集总结部分详细列出了每个频道的视频数量、持续时间和占总数据集的百分比。

huggingface 收录

PrimerBank

PrimerBank is a public resource for PCR primers. These primers are designed for gene expression detection or quantification (real-time PCR). PrimerBank contains over 306,800 primers covering most known human and mouse genes.

国家生物信息中心 收录