C114门户论坛百科APPEN| 举报 切换到宽版

亚星游戏官网

 找回密码
 注册

只需一步,快速开始

短信验证,便捷登录

搜索

军衔等级:

亚星游戏官网-yaxin222  大元帅

注册:2007-12-101610
发表于 2024-2-22 10:49:47 |显示全部楼层
今天国内AI科技圈、AI炒股圈,都被一则消息振奋了,“大模型最快推理芯片的一哥换人了,不再是英伟达了”。


海外企业Groq基于自研芯片推出的推理加速方案,速度比英伟达的GPU快了十倍,成本却降低为十分之一,一来一去,百倍提升。难怪大家会兴奋。


由于Groq不再采用HBM,而是利用SRAM来加速,于是资本市场也把SRAM当了宝贝,相关上市企业股价快速上涨。


那么,Groq凭什么这么惊奇呢?SRAM就这么好用?


我翻看了Groq发布的论文,凭着仅存一点点的计算机原理,大概理了一点思绪。


1、首先,Groq的产品设计场景,主要是“推理”阶段,而英伟达目前产品在大模型训练阶段更好用。因此,Groq的方案更突出“实时”。


2、其次,这还是一个“专用VS通用”的故事。


在AI领域,为什么GPU能打败CPU呢?因为CPU就像一位教授,懂得多、能写会算做事讲逻辑;而GPU呢,就像高中生,虽然懂得不多,但架不住人多、又能并行运行。如果只是解二元方程的话,那一百个高中生、同时计算,肯定比一个教授要高效得多。


于是,GPU在AI领域,利用并行计算的优势,大获全胜。


但是,GPU也还算个多面手。从下游客户就能看出来,游戏宅男们希翼买到英伟达的显卡,数字货币的矿工们也希翼买到英伟达显卡,搞气象科学的、搞AI的也都希翼买到英伟达的显卡。多需求也必然会带来一些功能设计、计算资源的冗余浪费。


那么,再来一个专门、只用于机器学习的芯片,岂不是更加高效?


这就是GOOGLETPU(TensorProcessing Unit)芯片的思路。Tensor来自于GOOGLETensorFlow深度学习框架,突出了TPU为深度学习而生。


Groq的创始人就来自于GOOGLE,设计并实现了第一代TPU芯片的核心元件。他们团队根据TPU的经验进行了进一步优化,于是有了LPU(Language Processing Unit),专为AI计算提供高确定性的低延迟和高性能。


我看到他们这个先容的时候,仿佛面前站着一排人在说:就是要让你牛逼,谁也拦不住。


3、核心问题是,为什么LPU会更高效呢?这里就涉及到指令调取等常识了。复杂的我不讲,主要也是已经不懂了。说些大致的原理。


A、计算有两个必不可少的步骤:读取数据+实行指令。


而LPU就是为机器学习设计的。所以,预先就把机器学习高频需要的指令,进行了定制,有一套适用于机器学习的指令集架构ISA。


知道客户要什么就准备什么,肯定比什么都准备要高效。


B、其次,把深度学习的数据操作流程,拆解为了更微小的操作,并通过不同的硬件排列,实现了功能交替。


主要功能硬件包括矩阵单元MXM、用于逐点运算的vector单元、用于数据重塑的SXM单元、以及存储器单元。而这里的存储用的是SRAM。


Groq将这个方式称之为“链条化(chaining)”。可以粗暴理解为,GPU还要解二元方程,LPU把二次方程进一步拆解,有人专门做合并、有人做计算。或者说,像福特汽车设计了流水线一样,效率大幅提升。


相比而言,英伟达的GPU采用的HBM技术,也是为了加快读取数据、处理数据的速度。但数据存在DRAM里,再调取到GPU里,就会产生时延。


C、LPU采用的SRAM,比英伟达采用的DRAM要快得多。


SRAM中文是静态随机存取存储器,DRAM就是动态存储器。SRAM是用触发器来存储信息,而且不需要对数据进行刷新,也可以同时送“行、列”地址。而DRAM是用电容存储数据,需要刷新来保持数据,不然数据会丢失。行、列地址也是分两次送的。


所以,结果就是,SRAM运行速度要显著快于DRAM。


为什么LPU采用SRAM,而英伟达采用DRAM呢?我的理解是,还得回到开头的那句话:场景不一样啊。


Groq面向未来AI大爆发后的“推理”阶段,用户是实时交互的,数据也是实时的,数据进、数据出的,采用高速存储合适。


而英伟达目前是应用于训练,训练必然有大量数据,且对实时要求没那么高。那用成本更低的DRAM也是合适的。


D、Groq强调,友商是通过“Hardware-defined硬件定义”的方法来实现大规模互联网络,而大家是靠“Software-definedApp定义”的思路,基于tensor streaming processing (TSP) 实现大规模互联。通过App预先设计,可以使得硬件更高效、可控。

E、所以最终效果就是,Groq的芯片,相当于多个功能单元组成一个大的计算单元;而友商则是把小型计算单元,复制多次。


还是用造车举例子就是,LPU就是流水线工厂,100个员工分几组,每个组、每个人职能明确、配合娴熟;而友商是100个员工,每个人都擅长多个环节、都会造一辆车。福特流水线,已经证明了专业、细分、分工的有效性。


因此,LPU对于LLM大语言模型而言,非常适合。


4、LPU引起的热烈讨论,是不是也反映了一个趋势:简单、专用的,打败复杂、通用的。把一件事情做到极致,就已经完美了。

计算,越来越专业、垂直;但大模型,却又是在往通用、多模态发展。未来如何演绎,应该会非常精彩。希翼中国玩家们不缺席、上舞台,也有机会站C位。

举报本楼

本帖有 2 个回帖,您需要登录后才能浏览 登录 | 注册
您需要登录后才可以回帖 登录 | 注册 |

手机版|C114 ( 沪ICP备12002291号-1 )|联系大家 |网站地图  

GMT+8, 2024-11-6 13:46 , Processed in 0.457375 second(s), 16 queries , Gzip On.

Copyright © 1999-2023 C114 All Rights Reserved

Discuz Licensed

回顶部
XML 地图 | Sitemap 地图