找回密码
 立即注册
搜索

人工智能不止靠GPU Graphcore如何在AI范畴“另辟蹊径”?

在过去短短的几年里,人工智能运用的大盛行推进了整个半导体市场的蓬勃发展,根据Global Market Insights的数据,在2026年,全球AI芯片组市场有望打破700亿美元大关。但市场的火热也意味着对芯片的更高要求,而出生于英国布里斯托的明星企业Graphcore,正在作为AI芯片范畴的后起之秀,重塑整个行业的格局。

英国半导体之父、Arm结合创始人Hermann Hauser曾说过:“在计算机历史上只出现过三次革命,第一次是20世纪70年代的CPU,第二次是20世纪90年代的GPU,第三次就是IPU”。Hermann Hauser爵士口中的IPU,就是Graphcore率先提出的为AI计算而生的Intelligence Processing Unit。

截至去年12月份,Graphcore的估值已高达27.7亿美元,投资方既有像红杉资本这样的金融投资者,也有像微软、戴尔、三星等战略投资者。如今的Graphcore在欧洲、美洲、亚洲均设有办公室,办公室在英国布里斯托、伦敦、剑桥,挪威奥斯陆,美国的帕拉奥托,中国的北京、深圳和上海,德国慕尼黑,日本东京和韩国首尔等都有所分布。值得一提的是,Graphcore中国成立于2019年,而且取了一个颇有意境的名字:拟未。

Graphcore的产业投资方基本分为三个产业方向:数据中心、移动设备与自动驾驶,这并不难了解,在全球范围之内,这三个方向都属于“走得最快”的产业之列。以数据中心为例,互联网的数据经过AI和算法可以转换成各种各样的商业方式,产业AI则是用AI来“武装”各种各样的产业,数据中心在其中发挥着至关重要的作用。不只是整个AI落地的前沿阵地,行业才能也要依托数据中心的才能作为支撑,这也是Graphcore近年来极为关注数据中心行业的缘由之一。

“IPU比GPU更擅长做并行处理。”Graphcore高级副总裁兼中国区总经理卢涛在接受采访时表示,“这也是IPU与GPU最大的差异化特点之一,IPU有一千多个处理器内核,另一方面,IPU与GPU的内存架构也大不相反,GPU是层次化的内存结构,片内有一个大概二三十兆的片内缓存,片外是高速的显存,IPU全部在片内,此外我们每一颗芯片都有900M的处理器内存储,假如要扩展成集群,IPU-Link可以很方便地做芯片间的协同。”



Graphcore高级副总裁兼中国区总经理卢涛

这样的内存架构使得IPU在面对长短期记忆人工神经网络(LSTM)和循环神经网络(RNN)这样的算法时,相比GPU拥有宏大的优势。另一方面,由于AI很多底层运算就是矩阵的乘法运算,假如算法模型不是用稠密的卷积,而是较为稀疏的卷积,例如EfficientNet,那么模型在GPU上运转的结果也不会太好,这并不是算法本身的缺陷,而是GPU的架构不符合算法的特点,反而IPU在这样的算法上会有很高的精度和功能表现。

Graphcore提供的产品次要包括三个部分:专为AI设计的IPU处理器、Poplar SDK和开发工具,以及IPU系统,例如由IPU-M2000堆叠的IPU-POD系统,以及与浪潮、戴尔等OEM厂商适配完成的IPU服务器。去年7月,Graphcore推出了第二代IPU和用于大规模系统级产品IPU-Machine:M2000(IPU-M2000),全新的IPU在823平方毫米的芯片上集成了594亿个晶体管,1472个完全并行的处理器内核和近9000个独立的并行处理器线程,900MB的超高速处理器内存储,系统级功能较第一代IPU提升八倍以上。作为一款即插即用的机器智能刀片式计算单元,IPU-M2000采用了7纳米工艺,由Poplar软件栈提供支持,可以带来1PetaFLOPS的AI计算才能,并经过公用IPU内置了AI横向扩展网络架构。值得一提的是,上个月Graphcore参加了在天津举行的第五届世界智能大会,这也是基于第二代IPU(MK2 IPU)构建的MK2全线产品在中国的初次亮相。



Graphcore展台

虽然Graphcore在诸如车联网、智慧城市与智能批发等范畴上都有所规划,但都有全体的策略,即关注与其计算才能相关的垂直范畴,建立相关行业的才能,再“以点带面”地打破。正如卢涛谈到的那样:“在车这一范畴做的运用未必能代表在互联网这一范畴里做的运用,在互联网这一范畴做的运用未必能代表在金融这一范畴里做的运用。我们全体的策略很注重头部的运用。AI的运用非常行业化、非常场景化。以车联网举例,在一些机器视觉的才能方面,Graphcore有一些低时延的优势,‘点云’是一个相对稀疏化的数据结构,这也是Graphcore所擅长做的东西,目前相关的工作正在稳步推进。我不断讲‘我们俯视星空,但是脚踏实地’,脚踏实地就是要找头部的合作伙伴,做了典型案例落地之后,我们再‘以点带面’地铺开”。

芯片圈里人尽皆知的理想是:NVIDIA仰仗CUDA,创造了一个弱小的软件生态。Graphcore的Poplar可以用来对标CUDA的软件栈,再往上则是PopLibs,这一层对标的是GPU的cnDNN和cuBLAS。“我们开源了Poplar计算图库(PopLibs),这是NVIDIA没有做到的,此外,针对TensorFlow、PyTorch这层,我们也在做对PaddlePaddle的支持和运用的开发,但只仰仗我们本人的力气显然是不够的,因此我们在积极地建设本人的生态系统,与生态系统合作伙伴严密合作。软件是明天GPU最大的护城河,也是用户从GPU迁到别的平台上的最大阻力。我们最近也在做一些工作,希望可以尽量降低用户在移植工作上的工作量。这是我们当前软件全体的策略:开放、开源,然后拥抱社区。”卢涛表示。

AI照旧火热,CPU会持续存在,GPU也会持续创新,他们在某些AI计算义务上都是不可或缺的,或者说是最好的选择。但是摩尔定律失效、AI计算和数据爆炸等趋向催生出的新市场,一定是宏大且多样性的。这也给了Graphcore更多的机会。

在将来,AI势必会有更强的算力需求,持续推出功能微弱的处理器是必然的选择,卢涛以为,“半导体在过去几十年很重要的一个产品逻辑和商业逻辑,就是要保持一个很波动的迭代速度。我们目前在很积极地研发我们后面的一些产品。将来我们也是希望能保持一个比较波动的迭代周期交往前推进。基本上我们最后也是会像‘一代量产、一代研发、一代架构’这样的一个过程。”

正如Graphcore中文名字的含义那样,Graphcore的目的是构建一个先进的计算平台,协助创新者完成下一个打破,做面向将来的事情。

(7703825)

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有帐号?立即注册

x
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册