近期,LLaMA 显示出惊人的 zero-shot 和 few-shot 能力,仅需较少的 13B 参数即可在大多数 benchmarks 上显著优于 GPT-3(175B),而 LLaMA-65B 可与 PaLM-540B 相当。LLaMA 的出现重新定义了 Large Language Models (LLMs) 的 “Large”,明显降低了 competitive LLMs 的规模。


(资料图片仅供参考)

紧接着, Stanford Alpaca 借助 self-instruct 的方式生成的 52K English Instruction-Fine Tuning (IFT) 数据对 LLaMA-7B 进行了微调,赋予了其可观的 instruction-following 能力。相比于 GPT-4 训练和 inference 阶段巨大资源消耗和时间成本,或许较小版本的 LLMs 才是通向 AGI 的一个更好的 solution。

然而,目前在 LLM 上的 IFT 的研究仍然面临着以下三个挑战:

1、即便对仅有 7b 大小的 LLM 进行微调,依然对计算资源有着较高的要求;

2、用于指令微调的开源数据集较少,缺少相关资源的整合工作;

3、缺少统一的平台,可以轻松切换不同的 LLMs 和不同类型的 IFT 数据,以进行系统性的研究和对比;

为了便于研究者们在 LLMs 上做系统的 IFT 研究, Alpaca-CoT 项目结合了相关的近期前沿技术,具有以下优势:

1、结合了 low-rank adaptation (LoRA), PEFT 等技术来降低计算资源需求。

2、持续更新和维护了一个大规模的 IFT 数据集合(见下图)。这些数据已被统一格式,包含了中文、multi-language、Chain-of-Thought、code、story generation 等。

3、集成了多种 LLMs (如 LLaMA, ChatGLM 和 Bloom) 并统一了调用接口,可通过超参轻松切换,后续将持续集成更多 LLMs。

Alpaca-CoT 吸引了大批具有相同兴趣的开源爱好者和 LLM 研究者,不断注入最新的 LLM-IFT 技术。

机器之心最新一期线上分享邀请到了中国科学院信息工程研究所博士生佀庆一,为大家分享他们近期的开源项目Alpaca-CoT。

分享主题:Alpaca-CoT: 多接口统一的轻量级LLM指令微调平台

分享嘉宾:佀庆一,中国科学院信息工程研究所博士生,感兴趣于视觉问答、OOD鲁棒性、LLM和VLP等方向,曾在ACL, EMNLP, IJCAI, MM等顶会上发表多篇论文。

分享摘要:为了加速复现 ChatGPT 的进程,降低研究者们上手 LLM-IFT 相关研究的门槛,该项目团队开源了 Alpaca-CoT 项目,搭建了数据、LLMs 多接口统一的 LLM-IFT 研究平台。在本次分享中,将系统地分享目前项目以及 LLM-IFT 研究方向所涉及到的相关概念和技术,以及对未来的展望。

相关链接:

1)SOTA!模型平台项目主页链接:

https://sota.jiqizhixin.com/project/alpaca-cot

3)代码仓库:

https://github.com/PhoebusSi/Alpaca-CoT

加群看直播
直播间: 关注机器之心机动组视频号,北京时间 4 月 17 日 19:00 开播。
交流群:本次直播设有 QA 环节,欢迎加入本次直播交流群探讨交流。
如群已超出人数限制,请添加机器之心小助手:syncedai2、syncedai3、syncedai4 或 syncedai5,备注「Alpaca-CoT」即可加入。
如果你也有最新工作希望分享或提交你感兴趣的内容方向,随时告诉我们吧: https://jiqizhixin.mikecrm.com/fFruVd3
机器之心 · 机动组
机动组是机器之心发起的人工智能技术社区,聚焦于学术研究与技术实践主题内容,为社区用户带来技术线上公开课、学术分享、技术实践、走近顶尖实验室等系列内容。 机动组也将不定期举办线下学术交流会与组织人才服务、产业技术对接等活动,欢迎所有 AI 领域技术从业者加入。

推荐内容