星外工多多 [切换] 客服微信  城市合伙人 收藏  消息  免费找工作 | 企业免费招人 | 雇主免费招人   登陆/注册  
 
   
 请输入关键词:
事业单位招聘 广州 上海 北京 深圳 重庆 杭州 成都 海南
当前位置:星外智问>>chatGPT相关>>chatGPT新闻
QLoRA 的新方法可以在单个 GPU 上微调大型语言模型

2023年6月2日 阅读 1519 次 

有一种名为 QLoRA 的新方法可以在单个 GPU 上微调大型语言模型。目前已经有研究人员用它来训练 Guanaco,这是一个性能效果99% 接近ChatGPT的聊天机器人。

华盛顿大学的研究人员提出了微调大型语言模型的方法 QLoRA。该团队利用 QLoRA 发布了 Guanaco,这是一个基于Meta 的 LLaMA模型的聊天机器人系列。最大的 Guanaco 变体具有650亿个参数,在与GPT-4的基准测试中实现了ChatGPT ( GPT-3.5-turbo )99% 以上的性能。

微调大型语言模型是提高其性能和训练的最重要技术之一。然而,这个过程对于大型模型来说计算量非常大,例如 LLaMA65B ,在这种情况下需要超过780GB 的 GPU RAM。虽然开源社区使用各种量化方法将16位模型简化为4位模型,从而大大减少了推理所需的内存,但类似的方法还没有用于微调。

通过 QLoRA,该团队展示了一种方法,允许将 LLaMA 等模型量化为4位,并添加LORA模型,然后通过反向传播进行训练。通过这种方式,该方法可以实现4位模型的微调,并将650亿参数模型的内存需求从超过780



  返回顶部
一分钟创建简历!星外工多多,个人/企业全免费!让天下没有难找的工作!
微信交流群 [星外工多多] 微信公众号 [星外工多多] 客服
【星外工多多】【工多多】是合法的注册商标是超大型免费招聘平台 更新历史   《用户服务协议》和《隐私政策》
Copyright © 2004-2024 GongDuoDuo.Com Corp., All rights reserved.
广州市星外信息科技有限公司 保留所有权利 本网站为 星外® 期下网站之一 人力资源许可证 国家工业和信息化部粤ICP备05000912号-2