24小时内、200美元复制RLHF过程,斯坦福开源「羊驼农场」模拟器

机器之心报道DJz致力于为用户收集丰富的生活经验知识

编辑:小舟、马梓文DJz致力于为用户收集丰富的生活经验知识

平替不止模型,RLHF也有平替了。

2 月底,Meta 开源了一个大模型系列 LLaMA(直译为羊驼),参数量从 70 亿到 650 亿不等,被称为 Meta 版 ChatGPT 的雏形。之后斯坦福大学、加州大学伯克利分校等机构纷纷在 LLaMA 的基础上进行「二创」,陆续推出了 Alpaca、Vicuna 等多个开源大模型,一时间「羊驼」成为 AI 圈顶流。开源社区构建的这些类 ChatGPT 模型迭代速度非常快,并且可定制性很强,被称为 ChatGPT 的开源平替。DJz致力于为用户收集丰富的生活经验知识

然而,ChatGPT 之所以能在文本理解、生成、推理等方面展现出强大的能力,是因为 OpenAI 为 ChatGPT 等大模型使用了新的训练范式 ——RLHF (Reinforcement Learning from Human Feedback) ,即以强化学习的方式依据人类反馈优化语言模型。使用 RLHF 方法,大型语言模型可与人类偏好保持对齐,遵循人类意图,最小化无益、失真或偏见的输出。但 RLHF 方法依赖于大量的人工标注和评估,通常需要数周时间、花费数千美元收集人类反馈,成本高昂。DJz致力于为用户收集丰富的生活经验知识

现在,推出开源模型 Alpaca 的斯坦福大学又提出了一种模拟器 ——AlpacaFarm(直译为羊驼农场)。AlpacaFarm 能在 24 小时内仅用约 200 美元复制 RLHF 过程,让开源模型迅速改善人类评估结果,堪称 RLHF 的平替。DJz致力于为用户收集丰富的生活经验知识

DJz致力于为用户收集丰富的生活经验知识

AlpacaFarm 试图快速、低成本地开发从人类反馈中学习的方法。为了做到这一点,斯坦福的研究团队首先确定了研究 RLHF 方法的三个主要困难:人类偏好数据的高成本、缺乏可信赖的评估、缺乏参考实现。DJz致力于为用户收集丰富的生活经验知识

为了解决这三个问题,AlpacaFarm 构建了模拟注释器、自动评估和 SOTA 方法的具体实现。目前,AlpacaFarm 项目代码已开源。DJz致力于为用户收集丰富的生活经验知识

DJz致力于为用户收集丰富的生活经验知识

GitHub 地址:DJz致力于为用户收集丰富的生活经验知识

https://github.com/tatsu-lab/alpaca_farmDJz致力于为用户收集丰富的生活经验知识

论文地址:DJz致力于为用户收集丰富的生活经验知识

https://tatsu-lab.github.io/alpaca_farm_paper.pdfDJz致力于为用户收集丰富的生活经验知识

如下图所示,研究人员可以使用 AlpacaFarm 模拟器快速开发从人类反馈数据中学习的新方法,也能将已有 SOTA 方法迁移到实际的人类偏好数据上。DJz致力于为用户收集丰富的生活经验知识

DJz致力于为用户收集丰富的生活经验知识

模拟注释器DJz致力于为用户收集丰富的生活经验知识

AlpacaFarm 基于 Alpaca 数据集的 52k 指令构建,其中 10k 指令用于微调基本的指令遵循模型,剩余的 42k 指令用于学习人类偏好和评估,并且大部分用于从模拟注释器中学习。该研究针对 RLHF 方法的注释成本、评估和验证实现三大挑战,逐一提出解决方法。DJz致力于为用户收集丰富的生活经验知识

首先,为了减少注释成本,该研究为可访问 API 的 LLM(如 GPT-4、ChatGPT)创建了 prompt,使得 AlpacaFarm 能够模拟人类反馈,成本仅为 RLHF 方法收集数据的 1/45。该研究设计了一种随机的、有噪声的注释方案,使用 13 种不同的 prompt,从多个 LLM 提取出不同的人类偏好。这种注释方案旨在捕获人类反馈的不同方面,如质量判断、注释器之间的变化性和风格偏好。DJz致力于为用户收集丰富的生活经验知识

该研究通过实验表明 AlpacaFarm 的模拟是准确的。当研究团队使用 AlpacaFarm 训练和开发方法时,这些方法与使用实际人类反馈训练和开发的相同方法排名非常一致。下图显示了由 AlpacaFarm 模拟工作流和人类反馈工作流产生的方法在排名上的高度相关性。这一特性至关重要,因为它说明从模拟中得出的实验结论在实际情况下也有可能成立。DJz致力于为用户收集丰富的生活经验知识

DJz致力于为用户收集丰富的生活经验知识

除了方法层面的相关性,AlpacaFarm 模拟器还可以复制奖励模型过度优化等定性现象,但以此针对代理奖励(surrogate reward)的持续 RLHF 训练可能会损害模型性能。下图是在人类反馈 (左) 和 AlpacaFarm (右) 两种情况下的该现象,我们可以发现 AlpacaFarm 最初捕获了模型性能提升的正确定性行为,然后随着 RLHF 训练的持续,模型性能下降。DJz致力于为用户收集丰富的生活经验知识

DJz致力于为用户收集丰富的生活经验知识

评估DJz致力于为用户收集丰富的生活经验知识

在评估方面,研究团队使用与 Alpaca 7B 的实时用户交互作为指导,并通过结合几个现有公共数据集来模拟指令分布,包括 self-instruct 数据集、anthropic helpfulness 数据集和 Open Assistant、Koala 和 Vicuna 的评估集。使用这些评估指令,该研究比较了 RLHF 模型与 Davinci003 模型的响应(response)情况,并使用一个分值度量 RLHF 模型响应更优的次数,并将这个分值称为胜率(win-rate)。如下图所示,在该研究的评估数据上进行的系统排名量化评估表明:系统排名和实时用户指令是高度相关的。这一结果说明,聚合现有的公开数据能实现与简单真实指令相近的性能。DJz致力于为用户收集丰富的生活经验知识

DJz致力于为用户收集丰富的生活经验知识

参考方法DJz致力于为用户收集丰富的生活经验知识

对于第三个挑战 —— 缺少参考实现,研究团队实现并测试了几种流行的学习算法 (如 PPO、专家迭代、best-of-n 采样)。研究团队发现在其他领域有效的更简单方法并不比该研究最初的 SFT 模型更好,这表明在真实的指令遵循环境中测试这些算法是非常重要的。DJz致力于为用户收集丰富的生活经验知识

DJz致力于为用户收集丰富的生活经验知识

根据人工评估,PPO 算法被证明是最有效的,它将模型与 Davinci003 相比的胜率从 44% 提高到 55%,甚至超过了 ChatGPT。DJz致力于为用户收集丰富的生活经验知识

这些结果表明,PPO 算法在为模型优化胜率方面是非常有效的。需要注意的是,这些结果是特定于该研究的评估数据和注释器得出的。虽然该研究的评估指令代表了实时用户指令,但它们可能无法涵盖更具有挑战性的问题,并且并不能确定有多少胜率的改进来源于利用风格偏好,而不是事实性或正确性。例如,该研究发现 PPO 模型产生的输出要长得多,并且通常为答案提供更详细的解释,如下图所示:DJz致力于为用户收集丰富的生活经验知识

DJz致力于为用户收集丰富的生活经验知识

DJz致力于为用户收集丰富的生活经验知识

总的来说,使用 AlpacaFarm 在模拟偏好上训练模型能够大幅改善模型的人类评估结果,而不需要让模型在人类偏好上重新训练。虽然这种迁移过程比较脆弱,并且在效果上仍略逊于在人类偏好数据上重新训练模型。但能在 24 小时内,仅用 200 美元就复制出 RLHF 的 pipeline,让模型迅速提升人类评估性能,AlpacaFarm 这个模拟器还是太香了,是开源社区为复刻 ChatGPT 等模型的强大功能做出的又一努力。DJz致力于为用户收集丰富的生活经验知识

参考链接:DJz致力于为用户收集丰富的生活经验知识

https://crfm.stanford.edu/2023/05/22/alpaca-farm.htmlDJz致力于为用户收集丰富的生活经验知识

也许你还喜欢

pr如何压缩视频大小操作步骤图文详

接下来要讲解的是pr压缩视频大小,以下是解决方案。

wmv用什么播放器合适?给您推荐几款

我们都知道,电脑上的视频文件有各种各样的格式,其中就包括WMV格式。那么,遇到WMV格式的视

更多网站资源丰富的搜索平台介绍

分享8个资源超级丰富的网站,涵盖了各种影视、音乐、壁纸、电子书等类型的资源内容,几乎

电动机接线图最新分享

以下分享10+年电工常用的41例接线方法,都是经过实践项目验证,并且可以直接拿来使用,一起

免费网络推广渠道以及方法详细介绍

今天,小编就为大家盘点全网十大优质渠道,帮助您轻松实现产品营销和项目推广。

epub电子书下载网站强力推荐

分享8个免费电子书网站,epub格式的书籍类型全面,能帮你找到90%的好书,而且下载方便,不需要

微信拍一拍好友图文教程详解

微信如何“拍一拍”好友呢?今天就教大家如何操作使用方法步骤。

鹅鸭杀由于网络问题无法进入房间

鹅鸭杀不显示游戏房间、无法加入房间是游戏网络不适合本地网络的原因,鹅鸭杀作为一款海

传统制造企业有必要建设增材制造中

在我们日常娱乐和日常工作中,我们如果想将FLV格式视频转换为MP4文件该怎么办呢?今天就

验证码无法显示怎么办图文介绍

验证码图片有些时候不能显示,那我们怎么办呢?下面将为大家讲解关于验证码无法显示的解决