美国开放人工智能研究中心(OpenAI)首席执行官山姆·奥特曼等人认为,人工智能(AI)将从根本上改变世界经济,拥有强大的计算芯片供应能力至关重要。芯片是推动AI行业发展的重要因素,其性能和运算能力直接影响着AI技术的进步和应用前景。
英国《自然》杂志网站在近日的报道中指出,工程师正竞相开发包括图形处理单元(GPU)等在内的尖端芯片,以满足未来AI的计算需求。
GPU加快机器学习运算速度
GPU是英伟达公司标志性的计算机芯片。传统中央处理单元(CPU)按顺序处理指令,而GPU可并行处理更多指令,因此可分布式训练程序,从而大大加快机器学习的运算速度。
2022年,英伟达公司Hopper超级芯片在MLPerf上击败了包括图像分类和语音识别在内所有类别的竞争对手。MLPerf是国际上最权威、最有影响力的AI基准测试之一,被誉为“AI界奥运会”。
今年3月,英伟达正式展示了性能更优异的新一代AI芯片Blackwell。它拥有2080亿个晶体管,是英伟达首个采用多芯片封装设计的GPU。随着技术发展,GPU变得越来越大,如果不能更大,就把更多GPU组合在一起,变成更大的虚拟GPU。Blackwell就是在同一个芯片上集成了两个GPU,新架构将通过芯片与芯片间的连接技术,一步步构建出更大型AI超算集群。
如果要训练一个拥有1.8万亿个参数的GPT模型,需要8000块Hopper芯片,耗能15兆瓦,历时3个月。如果使用Blackwell芯片,只需2000块,耗能4兆瓦,就能在同样的时间内完成任务。
AI芯片市场持续增长,英伟达目前供应了其中80%以上的产品。2023年,该公司售出55万块Hopper芯片。近日,该公司市值首次突破3万亿美元,超越苹果,仅次于微软,成为全球市值第二高的公司。
多种芯片竞相涌现
尽管GPU一直是AI革命的核心,但它们并非是唯一“主角”。随着AI应用的激增,AI芯片的种类也在激增,现场可编程门阵列(FPGA)可谓“一枝独秀”。
FPGA是一种在计算和数字电路领域广泛应用的硬件设备。它以独特的可编程性和灵活性,成为嵌入式系统、高性能计算处理等多种应用的理想选择。
这就像搭建乐高积木,工程师可将FPGA电路一个接一个地构建到他们能想象的任何设计中,无论是洗衣机传感器还是用于引导自动驾驶汽车的AI。不过,与拥有不可调节电路的AI芯片(如GPU)相比,FPGA运行速度相对更慢、效率更低。但FPGA对处理某些任务(如粒子对撞机产生的数据)很有用。英伟达加速计算集团产品营销总监戴维·萨尔瓦托指出,FPGA的易编程性也对原型设计很有帮助。
张量处理单元(TPU)则是谷歌公司专为神经网络机器学习而定制的芯片,旨在执行矩阵计算和张量操作。TPU作为谷歌深度学习框架TensorFlow的加速器于2016年首次推出,其设计目标是提供低功耗、高效能的矩阵运算,以满足大规模机器学习和神经网络训练的需求。TPU在性能与能效之间取得了良好平衡。它们的功耗相对较低,这对于大规模数据中心和在移动设备上的应用至关重要。
此外,元宇宙平台也在独立开发自己的芯片。谷歌、英特尔和高通成立了UXL基金会,用以开发一套支持多种AI加速器芯片的软件和工具,以此对抗英伟达的GPU。
当然,GPU等AI芯片的兴起并不意味着传统CPU的终结,两者互相取长补短已成大势所趋。例如,有一个版本的Blackwell芯片就让GPU与CPU携手;世界上最强大的超级计算机之一、位于美国田纳西州橡树岭国家实验室的“前沿”也依赖CPU和GPU的结合,来执行高性能计算。
考虑到过去十年芯片领域翻天覆地的变化,工程师们可能很难预测芯片的未来。将来可能会研制出使用光而非电子的光学芯片,或量子计算芯片,而进一步提升芯片性能,将加速AI在科学领域的应用。
美国开放人工智能研究中心(OpenAI)首席执行官山姆·奥特曼等人认为,人工智能(AI)将从根本上改变世界经济,拥有强大的计算芯片供应能力至关重要。芯片是推动AI行业发展的重要因素,其性能和运算能力直接影响着AI技术的进步和应用前景。
英国《自然》杂志网站在近日的报道中指出,工程师正竞相开发包括图形处理单元(GPU)等在内的尖端芯片,以满足未来AI的计算需求。
GPU加快机器学习运算速度
GPU是英伟达公司标志性的计算机芯片。传统中央处理单元(CPU)按顺序处理指令,而GPU可并行处理更多指令,因此可分布式训练程序,从而大大加快机器学习的运算速度。
2022年,英伟达公司Hopper超级芯片在MLPerf上击败了包括图像分类和语音识别在内所有类别的竞争对手。MLPerf是国际上最权威、最有影响力的AI基准测试之一,被誉为“AI界奥运会”。
今年3月,英伟达正式展示了性能更优异的新一代AI芯片Blackwell。它拥有2080亿个晶体管,是英伟达首个采用多芯片封装设计的GPU。随着技术发展,GPU变得越来越大,如果不能更大,就把更多GPU组合在一起,变成更大的虚拟GPU。Blackwell就是在同一个芯片上集成了两个GPU,新架构将通过芯片与芯片间的连接技术,一步步构建出更大型AI超算集群。
如果要训练一个拥有1.8万亿个参数的GPT模型,需要8000块Hopper芯片,耗能15兆瓦,历时3个月。如果使用Blackwell芯片,只需2000块,耗能4兆瓦,就能在同样的时间内完成任务。
AI芯片市场持续增长,英伟达目前供应了其中80%以上的产品。2023年,该公司售出55万块Hopper芯片。近日,该公司市值首次突破3万亿美元,超越苹果,仅次于微软,成为全球市值第二高的公司。
多种芯片竞相涌现
尽管GPU一直是AI革命的核心,但它们并非是唯一“主角”。随着AI应用的激增,AI芯片的种类也在激增,现场可编程门阵列(FPGA)可谓“一枝独秀”。
FPGA是一种在计算和数字电路领域广泛应用的硬件设备。它以独特的可编程性和灵活性,成为嵌入式系统、高性能计算处理等多种应用的理想选择。
这就像搭建乐高积木,工程师可将FPGA电路一个接一个地构建到他们能想象的任何设计中,无论是洗衣机传感器还是用于引导自动驾驶汽车的AI。不过,与拥有不可调节电路的AI芯片(如GPU)相比,FPGA运行速度相对更慢、效率更低。但FPGA对处理某些任务(如粒子对撞机产生的数据)很有用。英伟达加速计算集团产品营销总监戴维·萨尔瓦托指出,FPGA的易编程性也对原型设计很有帮助。
张量处理单元(TPU)则是谷歌公司专为神经网络机器学习而定制的芯片,旨在执行矩阵计算和张量操作。TPU作为谷歌深度学习框架TensorFlow的加速器于2016年首次推出,其设计目标是提供低功耗、高效能的矩阵运算,以满足大规模机器学习和神经网络训练的需求。TPU在性能与能效之间取得了良好平衡。它们的功耗相对较低,这对于大规模数据中心和在移动设备上的应用至关重要。
此外,元宇宙平台也在独立开发自己的芯片。谷歌、英特尔和高通成立了UXL基金会,用以开发一套支持多种AI加速器芯片的软件和工具,以此对抗英伟达的GPU。
当然,GPU等AI芯片的兴起并不意味着传统CPU的终结,两者互相取长补短已成大势所趋。例如,有一个版本的Blackwell芯片就让GPU与CPU携手;世界上最强大的超级计算机之一、位于美国田纳西州橡树岭国家实验室的“前沿”也依赖CPU和GPU的结合,来执行高性能计算。
考虑到过去十年芯片领域翻天覆地的变化,工程师们可能很难预测芯片的未来。将来可能会研制出使用光而非电子的光学芯片,或量子计算芯片,而进一步提升芯片性能,将加速AI在科学领域的应用。
日本《朝日新闻》近日发表题为《深海之光——极端环境是创意宝库》的文章,作者是樱井林太郎,编译如下:在被称为最后未开垦地的深海,有着低温、高压、黑暗等极限环境。能否从这些极限环 自2019年以来,科学家已经在国际空间站上培育出了包括人类大脑、心脏和乳房在内的多个类器官模型。这些类器官通常利用人类干细胞培育而成,在一系列化学生长物质的帮助下,干细胞可发育成类似人体 3月19日,记者从中国科学院海洋研究所了解到,该所研究团队在国际上首次发布了银鲳的高质量染色体水平参考基因组。相关研究论文近日在线发表于《自然》子刊《科学数据》。银鲳广泛分布于西北太 那些在吃完一顿饱饭后不久就在冰箱里翻找零食的人,可能不是胃口好,而是因为寻找食物的神经元过度活跃的缘故。美国加州大学洛杉矶分校心理学家在老鼠大脑中发现了一个回路:即使它们不饿,也会让它 AI芯片巨头低调赚钱 骆轶琪 在过去一年半导体行业下行周期中,除了英伟达以GPU霸主身份实现业绩快速成长之外,另一些主营虽非GPU,但是立足于AI定制芯片市场的半导体巨头也低调实现了稳健的成长性。 据Gartne 联合国政府间气候变化专门委员会(IPCC)最新发布的评估报告显示,全球温升预计在2021年至2040年内达到1.5℃。报告指出,自IPCC第五次评估报告发布以来,全球减缓气候变化的政策和法律不断增多,但实施 。本文链接:尖端芯片给AI装上“超级引擎”http://www.sushuapos.com/show-2-6961-0.html
声明:本网站为非营利性网站,本网页内容由互联网博主自发贡献,不代表本站观点,本站不承担任何法律责任。天上不会到馅饼,请大家谨防诈骗!若有侵权等问题请及时与本网联系,我们将在第一时间删除处理。
上一篇: 外骨骼机器人通过模拟学习提升性能
下一篇: 开创性实验测量地球自转对量子纠缠的影响