设置
  • 日夜间
    随系统
    浅色
    深色
  • 主题色

压缩算法为大语言模型“瘦身”

发布时间: 来源: 科技日报

 bjL速刷资讯——每天刷点最新资讯,了解这个世界多一点SUSHUAPOS.COM

科技日报北京11月21日电 (记者刘霞)据美国科学促进会旗下网站19日报道,美国普林斯顿大学和斯坦福大学团队开发出一种新压缩算法CALDERA,能精简大型语言模型(LLM)的海量数据,为LLM“瘦身”。这项算法不仅有助保护数据隐私、节约能源、降低成本,还能推动LLM在手机和笔记本电脑上高效使用。bjL速刷资讯——每天刷点最新资讯,了解这个世界多一点SUSHUAPOS.COM

团队举例称,当人们使用ChatGPT时,请求会被发送到OpenAI公司的后端服务器进行处理。这一过程不仅成本高昂、能耗巨大,通常还很慢。如果用户想要使用消费级图形处理单元运行LLM,就需要对这些LLM进行压缩。bjL速刷资讯——每天刷点最新资讯,了解这个世界多一点SUSHUAPOS.COM

CALDERA算法通过减少LLM冗余并降低信息层的精度来发挥作用。“瘦身”后的LLM更加精简,可在手机或笔记本电脑等设备上存储和访问,同时提供了与未压缩版本几乎一样准确而微妙的性能。bjL速刷资讯——每天刷点最新资讯,了解这个世界多一点SUSHUAPOS.COM

虽然CALDERA并非首个压缩LLM的算法,但其独特之处在于兼具“低精度”和“低排序”两种特性。其中,“低精度”减少了比特数,加快了数据存储和处理速度。而“低排序”则降低了LLM数据中的冗余。bjL速刷资讯——每天刷点最新资讯,了解这个世界多一点SUSHUAPOS.COM

团队表示,使用CALDERA压缩的LLM可能适用于那些对精度要求不是最高的场景。此外,用户可在智能手机或笔记本电脑等设备上对压缩后的LLM进行微调,这使其能根据特定需求调整模型来增强隐私,而无需与第三方共享敏感数据。bjL速刷资讯——每天刷点最新资讯,了解这个世界多一点SUSHUAPOS.COM

不过团队也提醒道,在智能手机或笔记本电脑上运行LLM,可能会占用设备内存。bjL速刷资讯——每天刷点最新资讯,了解这个世界多一点SUSHUAPOS.COM

12月11~15日,第32届Texas相对论天体物理学研讨会(Texas Symposium on Relativistic Astrophysics)在上海交通大学李政 中新网北京12月19日电 (记者 孙自法)施普林格·自然旗下专业学术期刊《自然-计算科学》最新发表一篇论文称,研 随着人们生活节奏的加快和对便捷食品需求的增加,预制菜产业正呈现强劲的发展势头。2月13日,《中共中央、国务院关于做 12月17日,由中国科学院大学马克思主义学院、中国科学院大学党史党建研究中心主办的“纪念毛泽东同志诞辰130周年学术研讨 12月16日,纪念姜维壮教授诞辰百年学术研讨会暨中国财税史研究院2023年年会在中央财经大学召开。在会上,与会者深切缅怀我 “忙”,已经成为很多科研人员的常态,他们忙着很多事,唯独很难静下心来忙学问。 中国科学院院士刘忠范将很多被迫忙碌 。

本文链接:压缩算法为大语言模型“瘦身”http://www.sushuapos.com/show-11-14336-0.html

声明:本网站为非营利性网站,本网页内容由互联网博主自发贡献,不代表本站观点,本站不承担任何法律责任。天上不会到馅饼,请大家谨防诈骗!若有侵权等问题请及时与本网联系,我们将在第一时间删除处理。

上一篇: 谷歌可能被迫出售Chrome,OpenAI考虑推出浏览器

下一篇: 新理论首次精确定义单光子形状

热门资讯

推荐资讯

  • 日榜
  • 周榜
  • 月榜