设置
  • 日夜间
    随系统
    浅色
    深色
  • 主题色

10万美元训出Llama-2级大模型!全华人打造新型MoE,贾扬清SD前CEO围观

发布时间: 来源: 量子位

消费级GPU即可微调Hh9速刷资讯——每天刷点最新资讯,了解这个世界多一点SUSHUAPOS.COM

“只需”10万美元,训练Llama-2级别的大模型。Hh9速刷资讯——每天刷点最新资讯,了解这个世界多一点SUSHUAPOS.COM

尺寸更小但性能不减的MoE模型来了:Hh9速刷资讯——每天刷点最新资讯,了解这个世界多一点SUSHUAPOS.COM

它叫JetMoE,来自MIT、普林斯顿等研究机构。Hh9速刷资讯——每天刷点最新资讯,了解这个世界多一点SUSHUAPOS.COM

性能妥妥超过同等规模的Llama-2。Hh9速刷资讯——每天刷点最新资讯,了解这个世界多一点SUSHUAPOS.COM

10万美元训出Llama-2级大模型!全华人打造新型MoE,贾扬清SD前CEO围观Hh9速刷资讯——每天刷点最新资讯,了解这个世界多一点SUSHUAPOS.COM

△贾扬清转发Hh9速刷资讯——每天刷点最新资讯,了解这个世界多一点SUSHUAPOS.COM

要知道,后者可是数十亿美元级别的投入成本。Hh9速刷资讯——每天刷点最新资讯,了解这个世界多一点SUSHUAPOS.COM

10万美元训出Llama-2级大模型!全华人打造新型MoE,贾扬清SD前CEO围观

JetMoE发布即完全开源,且学术界友好:仅使用公开数据集和开源代码,用消费级GPU就能进行微调。Hh9速刷资讯——每天刷点最新资讯,了解这个世界多一点SUSHUAPOS.COM

不得说,大模型的打造成本,真的比人们想的要便宜更多了。Hh9速刷资讯——每天刷点最新资讯,了解这个世界多一点SUSHUAPOS.COM

Ps. Stable Diffusion前老板Emad也点了赞:Hh9速刷资讯——每天刷点最新资讯,了解这个世界多一点SUSHUAPOS.COM

10万美元训出Llama-2级大模型!全华人打造新型MoE,贾扬清SD前CEO围观

10万美刀实现Llama-2性能

JetMoE启发于ModuleFormer的稀疏激活架构。Hh9速刷资讯——每天刷点最新资讯,了解这个世界多一点SUSHUAPOS.COM

(ModuleFormer,一种基于稀疏专家混合(SMoE)的模块化架构,可提高大模型效率和灵活性,去年6月提出)Hh9速刷资讯——每天刷点最新资讯,了解这个世界多一点SUSHUAPOS.COM

它的注意力层中仍然使用了MoE:Hh9速刷资讯——每天刷点最新资讯,了解这个世界多一点SUSHUAPOS.COM

80亿参数的JetMoE一共有24个区块,每块包含2个MoE层,分别是注意力头混合 (MoA) 和MLP专家混合 (MoE)。Hh9速刷资讯——每天刷点最新资讯,了解这个世界多一点SUSHUAPOS.COM

每个MoA和MoE层又有8个专家,每次输入token激活2个。Hh9速刷资讯——每天刷点最新资讯,了解这个世界多一点SUSHUAPOS.COM

10万美元训出Llama-2级大模型!全华人打造新型MoE,贾扬清SD前CEO围观

JetMoE-8B使用公开数据集中的1.25T token进行训练,学习率5.0 x 10-4,全局batch size为4M token。Hh9速刷资讯——每天刷点最新资讯,了解这个世界多一点SUSHUAPOS.COM

具体训练方案遵循MiniCPM(来自面壁智能,2B模型就能赶超Mistral-7B)的思路,共包含两阶段Hh9速刷资讯——每天刷点最新资讯,了解这个世界多一点SUSHUAPOS.COM

第一阶段使用线性预热的恒定学习率,用来自大规模开源预训练数据集的1万亿个token进行训练,这些数据集包括RefinedWeb、Pile、Github data等等。Hh9速刷资讯——每天刷点最新资讯,了解这个世界多一点SUSHUAPOS.COM

10万美元训出Llama-2级大模型!全华人打造新型MoE,贾扬清SD前CEO围观

第二阶段则使用指数学习率衰减,用2500亿个token训练来自第一阶段数据集和超高质量开源数据集的token。Hh9速刷资讯——每天刷点最新资讯,了解这个世界多一点SUSHUAPOS.COM

10万美元训出Llama-2级大模型!全华人打造新型MoE,贾扬清SD前CEO围观

最终,团队使用96×H100的GPU集群,花费2周时间、约8万美元搞定JetMoE-8B。Hh9速刷资讯——每天刷点最新资讯,了解这个世界多一点SUSHUAPOS.COM

更多技术细节将在不久后发布的技术报告上揭露。Hh9速刷资讯——每天刷点最新资讯,了解这个世界多一点SUSHUAPOS.COM

而在推理过程中,由于JetMoE-8B仅具有22亿个激活参数,因此计算成本大大降低——Hh9速刷资讯——每天刷点最新资讯,了解这个世界多一点SUSHUAPOS.COM

同时,它还收获了不错的性能表现。Hh9速刷资讯——每天刷点最新资讯,了解这个世界多一点SUSHUAPOS.COM

如下图所示:Hh9速刷资讯——每天刷点最新资讯,了解这个世界多一点SUSHUAPOS.COM

JetMoE-8B在8个评测基准上获得了5个sota(包括大模型竞技场Open LLM Leaderboard),超过LLaMA-13B、LLaMA2-7B和DeepseekMoE-16B。Hh9速刷资讯——每天刷点最新资讯,了解这个世界多一点SUSHUAPOS.COM

10万美元训出Llama-2级大模型!全华人打造新型MoE,贾扬清SD前CEO围观

在MT-Bench基准上得分6.681,也超过了130亿参数的LLaMA2、Vicuna等模型。Hh9速刷资讯——每天刷点最新资讯,了解这个世界多一点SUSHUAPOS.COM

10万美元训出Llama-2级大模型!全华人打造新型MoE,贾扬清SD前CEO围观

作者介绍

JetMoE一共4位作者,分别是:Hh9速刷资讯——每天刷点最新资讯,了解这个世界多一点SUSHUAPOS.COM

  • Yikang Shen

MIT-IBM Watson Lab研究员,研究方向NLP。Hh9速刷资讯——每天刷点最新资讯,了解这个世界多一点SUSHUAPOS.COM

本硕毕业于北航,博士经历于Yoshua Bengio创办的Mila研究机构。Hh9速刷资讯——每天刷点最新资讯,了解这个世界多一点SUSHUAPOS.COM

  • 国振 (Gavin Guo)

MIT博士在读, 研究方向为3D成像的数据高效机器学习。Hh9速刷资讯——每天刷点最新资讯,了解这个世界多一点SUSHUAPOS.COM

UC伯克利本科毕业,去年夏天作为学生研究员加入MIT-IBM Watson Lab,导师为Yikang Shen等人。Hh9速刷资讯——每天刷点最新资讯,了解这个世界多一点SUSHUAPOS.COM

  • 蔡天乐

普林斯顿博士在读生,本科毕业于北大应用数学和计算机科学,目前也是Together.ai 的兼职研究员,与Tri Dao合作。Hh9速刷资讯——每天刷点最新资讯,了解这个世界多一点SUSHUAPOS.COM

  • Zengyi Qin

MIT博士在读,同时在创业,MyShell的AI研发主管。Hh9速刷资讯——每天刷点最新资讯,了解这个世界多一点SUSHUAPOS.COM

这家公司刚刚融资了1100万美元,投资者包括Transformer的作者。Hh9速刷资讯——每天刷点最新资讯,了解这个世界多一点SUSHUAPOS.COM

10万美元训出Llama-2级大模型!全华人打造新型MoE,贾扬清SD前CEO围观

传送门:
https://github.com/myshell-ai/JetMoEHh9速刷资讯——每天刷点最新资讯,了解这个世界多一点SUSHUAPOS.COM
参考链接:
https://twitter.com/jiayq/status/1775935845205463292Hh9速刷资讯——每天刷点最新资讯,了解这个世界多一点SUSHUAPOS.COM

3月18日是第24个“全国爱肝日”。今年活动的主题是,“早防早筛,远离肝硬化”。重庆多所医院开展义诊咨询活动,通过普及肝病的防治知识,让民众主动筛查、规范治疗、定期随访,提高大众爱肝护肝意识, 在今天的故宫,工作人员使用的数字化办公平台名叫“内务辅”,这款应用的开发者,是与故宫博物院合作的钉钉(中国)信息技术有限公司(以下简称“钉钉”)。3月18日,故宫博物院与钉钉战略合作签约仪式在故 记者3月21日从安徽农业大学获悉,该校生命科学学院韩毅教授课题组与国内外专家合作,发现了植物避盐性的关键基因。该研究对于提高植物耐盐性,帮助盐碱地下的农作物稳产具有重要理论指导意义。相 3月22日消息,xiaomi集团的卢伟冰在微博上表示,xiaomiCivi 4 Pro有可能是2024年最轻薄的电话。这款电话的厚度仅为7.45mm,重量为179.3g。尽管拥有超轻薄的机身,但Civi 4 Pro仍搭载了一块容量为4700mAh 回望一加去年的整体节奏,如果要用一个词来总结其数字系列和Ace系列的概况,那就是“卷”!从外观质感、内存性能到整机体验,与友商的相互竞争中,一加表现的都比较强势,搭配清晰的产品定位策略和稳扎稳打 作为月之暗面的创始人,杨植麟常把他的AGI梦想形容为“登月计划”,长文本就是这个伟大计划的第一步。但现在,随着Kimi的爆火出圈,赛道瞬间变得拥挤,24小时内,阿里、360、百度紧急“出手”,纷 。

本文链接:10万美元训出Llama-2级大模型!全华人打造新型MoE,贾扬清SD前CEO围观http://www.sushuapos.com/show-2-4591-0.html

声明:本网站为非营利性网站,本网页内容由互联网博主自发贡献,不代表本站观点,本站不承担任何法律责任。天上不会到馅饼,请大家谨防诈骗!若有侵权等问题请及时与本网联系,我们将在第一时间删除处理。

上一篇: 超巧 全智贤 宋慧乔在机场撞型,她眼睛都会笑(超巧全智贤宋慧乔在机场撞型)

下一篇: 最懂AI的诺奖经济学得主去世,大模型关键技术受他研究启发

热门资讯

推荐资讯

  • 日榜
  • 周榜
  • 月榜