"); //-->
编译 | 高歌
编辑 | Panken
芯东西11月11日报道,曾造出世界最大芯片的美国AI芯片明星创企Cerebras Systems,最新宣布完成2.5亿美元(约合16亿人民币)F轮融资。此次融资由Alphawave Ventures和阿布扎比增长基金(ADG)领投。截至本轮融资,Cerebras的融资总额已达7.2亿美元(约合46亿人民币),公司估值超过40亿美元(约合256亿人民币)。
2019年8月,Cerebras的首颗晶圆级芯片WSE一问世便轰动全球科技圈,它由一整片晶圆制成,在46225mm²面积上集成了1.2万亿个晶体管。其2021年推出的二代WSE-2更进一步,采用7nm制程,创下集成2.6万亿个晶体管的新纪录。相比之下,被业界视作云端AI芯片标杆的英伟达A100 GPU,同样采用7nm制程,总共有540亿个晶体管。接下来,Cerebras计划将此次融资用于扩大其全球业务和工程师团队,以及设计下一代基于台积电5nm节点的处理器。创业伙伴再上路投资人称正在重新定义AI的可能性
Cerebras Systems位于美国加利福尼亚州,由Andrew Feldman、Gary Lauterbach等人创建于2015年。Andrew Feldman和Gary Lauterbach分别是Cerebras Systems的首席执行官和首席技术官,两人的合作时间已经超过12年。Andrew Feldman有着斯坦福大学的MBA学位,曾多次作为公司高管完成了收购和上市。Gary Lauterbach则是行业中著名的计算机架构师,曾担任SPARC Ⅲ和UltraSPARC Ⅳ微处理器的首席架构师。2007年,Andrew Feldman和Gary Lauterbach就一起创办了微型服务器公司SeaMicro。2012年,SeaMicro被AMD以3.34亿美元收购,两人也一起加入了AMD。Andrew Feldman在AMD做了两年半的副总裁。
Cerebras Systems创建至今已完成了6轮融资,总金额达7.2亿美元。早在2016年,Cerebras Systems完成了第一笔6450万美元的融资;次年1月,Cerebras Systems拿下2500万美元的B轮融资;6个月后,再次筹集6000万美元;2018年11月,完成8800万美元的D轮融资。随着不断地融资,Cerebras Systems也从价值2.45亿美元的公司成为了新的AI芯片独角兽。Twitter、为Snap提供资金的Benchmark,传奇芯片设计师、AMD前CTO Fred Weber、著名非营利实验室OpenAI的AI科学家、AlexNet的联合创建者Ilya Sutskever等业界知名机构或大牛都对其进行了投资。2019年,Cerebras Systems完成了E轮融资,公司估值约为24亿美元。如今,新的F轮融资为该公司又筹集了2.5亿美元的资金,而这相当于Cerebras Systems大约6%的股份,其估值已超过40亿美元。据科技媒体AnandTech报道,这2.5亿美元的融资将会支撑Cerebras未来2-3年的布局,包括在5nm节点上设计芯片和新的内存扩展方案等。目前Cerebras Systems在美国桑尼维尔、美国圣地亚哥、加拿大多伦多、日本东京等地拥有约400名员工,并希望到2022年底扩大到600人,主要增加工程师人数并专注于产品的全栈开发。Alphawave Ventures的联合创始人兼董事长Rick Gerson称:“Cerebras Systems正在重新定义人工智能的可能性,并在加快制****和生命科学等几个领域的创新方面有着一流的表现。我们很自豪能与Andrew和Cerebras的团队合作,支持他们将高性能AI计算引入全球新市场和地区。”二代处理器具有2.6万亿个晶体管性能提升超1倍
2019年,Cerebras Systems发布了其第一代WSE芯片,这款芯片具有40万个内核和1.2万亿个晶体管,使用台积电16nm工艺制程。今年4月,Cerebras Systems推出了第二代处理器WSE-2,具有破纪录的2.6万亿个晶体管(市场上最大的GPU只有540亿个晶体管)和85万颗AI优化内核,大小类似餐盘,采用台积电的7nm工艺。相比于第一代WSE处理器,WSE-2在AI内核数量、晶体管数量、密度、内存带宽等参数上都有着一倍以上的提升。
和当下的很多芯片不同,Cerebras Systems的WSE-1和WSE-2并不是用晶圆上的一小部分制成,而是将整个直径为300mm的晶圆加工成1颗芯片。虽然这种芯片体积较大,但是由于晶体管和内核的数量、互连优势,相比同等算力的GPU集群,其功耗和所占空间都更小。传统的GPU集群如果想要达到同等算力,需要数十个几架承载数百甚至数千个GPU芯片。而CS-2只有26英寸高,是标准数据中心机架的1/3。Cerebras Systems的技术也在医****、天文、科研等多个领域发挥出了作用。无论是美国阿贡国家实验室、劳伦斯利弗莫尔国家实验室、匹兹堡超算中心、爱丁堡大学超算中心等科研机构还是葛兰素史克、东京电子器件等厂商都成为了Cerebras Systems的忠实客户。
参数规模提升100倍还在云端提供深度学习服务
今年8月24日,Cerebras Systems还推出了世界上首个具备脑规模的AI解决方案。人脑包含约100万亿个突触结构,而此前最大的人工智能硬件集群大约只有1万亿参数,类似于同等数量的突触,仅有人脑规模的1%。而Cerebras Systems单一的CS-2支持超过120万亿参数,在规模上达到了人脑水平,推动了AI神经网络技术的发展。阿贡国家实验室副主任Rick Stevens谈道:“Cerebras 的发明将提高100倍的参数容量,它有可能改变行业。我们将首次能够探索大脑大小的模型,开辟了广阔的研究和洞察的新途径。”该解决方案包括四项核心技术,代号分别为Weight Streaming、MemoryX、SwarmX和Sparsity。Weight Streaming可以让AI模型参数存储在芯片外,同时提供与芯片相同的训练和推理性能的能力,简化了工作负载分配模型。MemoryX是一种新的内存扩展技术,可实现2.4 PTAB的高性能内存,支持120万亿的参数模型。SwarmX是一种高性能、AI优化的通信互连结构,可以互连多达1.63亿个AI内核,跨越192个CS-2系统协同工作,训练单个神经网络。Sparsity可以让用户选择模型的重量稀疏程度,减少模型处理所需的FLOP算力和时间。9月16日,美国深度学习云服务商Cirrascale Cloud Services宣布采用CS-2系统和WSE-2处理器。在其应用中,8GPU服务器比CS-2系统训练自然语言处理NLP BERT模型的时间慢9.5倍。而在训练精度上,用户需要超过120个GPU才能匹配单个CS-2系统的训练精度。
结语:Cerebras Systems开拓巨型芯片路线获认可
需要指出的是,Cerebras Systems的WSE系列芯片并非单纯的放大芯片尺寸。大尺寸芯片需要芯片企业在互连、芯片封装、散热等方面都有着独特的技术和解决方案,这些技术方案也体现在了Cerebras Systems脑规模AI解决方案中。虽然其芯片的尺寸较大,无法用于PC、移动设备等领域,但Cerebras Systems也向我们展示了巨型芯片的广阔应用前景,其产品可以在超算、云端等机构或企业的方案占据一席之地。而新一轮的融资代表了资本对这一技术路线的认可。来源:Cerebras Systems、AnandTech
*博客内容为网友个人发布,仅代表博主个人观点,如有侵权请联系工作人员删除。