AI推理与训练平台及AI芯片公司:Cerebras Systems Inc.(CBRS)

美股百科
美股百科
管理员
8389
文章
1
粉丝
新股次新股 半导体公司 人工智能及机器学习220,139
AI推理与训练平台及AI芯片公司:Cerebras Systems Inc.(CBRS) | 美股之家 - 港股美股开户投资百科全书

Cerebras Systems Inc.(Nasdaq:CBRS)创立于2016年,总部位于美国加州Sunnyvale,全职雇员708人,是一家美国人工智能(AI)公司,在桑尼维尔、圣地亚哥、多伦多以及印度班加罗尔设有办事处,致力于构建用于复杂 AI 深度学习应用的计算机系统。

AI推理与训练平台及AI芯片公司:Cerebras Systems Inc.(CBRS)

Cerebras Systems Inc.(CBRS)美股百科

Cerebras Systems 主要通过本地部署硬件和基于云的解决方案提供高性能 AI 产品与服务。客户也可以采用混合模式:在本地进行模型训练,然后在生产环境中使用我们的推理云,从而利用可随需求扩展的灵活算力资源。Cerebras Systems 通过直销与合作伙伴相结合的方式,覆盖快速增长的 AI 市场。

本地部署硬件解决方案: Cerebras Systems 向希望对数据和 AI 基础设施拥有最高安全控制的领先机构销售硬件平台,满足其在本地进行高性能 AI 计算的需求。每套系统均将软硬件高度集成,并配套可续订的软件订阅服务,持续提供更新与升级。

云及其他服务:Cerebras Systems 还通过 Cerebras Cloud 以及合作伙伴云平台提供高性能 AI 计算能力,包括 Amazon Web Services Marketplace、Microsoft Marketplace、IBM watsonx Model Gateway、OpenRouter、Hugging Face 以及 Vercel AI Gateway。这些服务使客户无需承担建设或维护本地基础设施的资本支出,也无需处理训练或推理软件的复杂运维,即可充分利用Cerebras的 AI 超级计算能力。客户通常可以在几分钟内开始使用我们的云资源。

Cerebras Systems 核心创新在于打造了全球首个且唯一实现商业化的晶圆级处理器,即 Wafer-Scale Engine(WSE)。公司表示,该处理器的尺寸是 Nvidia B200 芯片的 58 倍,其内存带宽则是由两颗独立芯片组成的 NVIDIA B200 封装的 2625 倍。

自2015年成立以来,Cerebras 始终在 AI 计算领域不断突破边界,引领创新前沿。如今,Cerebras 已成为全球速度最快的 AI 推理与训练平台。医疗研究、密码学、能源以及智能体 AI(Agentic AI)等各领域的机构正采用公司的 CS-2 和 CS-3 系统,构建本地部署的超级计算机;与此同时,全球各地的开发者与企业也能通过 Cerebras 按需付费的云服务,尽享 Cerebras 强大的计算能力。

截至2025年12月31日的12个月,Cerebras Systems Inc. 营收达5.1亿美元。

Cerebras Systems Inc.(CBRS)技术百科

Cerebras 的 Wafer Scale Engine(WSE)是一种单芯片、晶圆级集成处理器,集计算、存储和互连架构于一体。WSE-1 为 Cerebras 首代 AI 计算机 Cerebras CS-1 提供算力支持。CS-1 是一款 19 英寸机架式设备,专为数据中心中的 AI 训练和推理工作负载设计。CS-1 配备一个 WSE 主处理器,拥有 40 万个计算核心,并配备 12 条 100Gb 以太网连接用于数据的输入和输出。WSE-1 集成了 1.2 万亿个晶体管、40 万个计算核心以及 18GB 内存。

2021 年 4 月,Cerebras 发布基于第二代晶圆级引擎(WSE-2)的 CS-2 AI 系统,该芯片采用台积电 7 纳米工艺制造。该系统高度为 26 英寸,可容纳于标准数据中心机架的三分之一空间。Cerebras WSE-2 拥有 85 万个核心和 2.6 万亿个晶体管。WSE-2 将片上 SRAM 扩展至 40GB,内存带宽提升至每秒 20PB,总互连带宽达到每秒 220Pb。

2021 年 8 月,公司发布了一种可将多个集成电路(通常称为“芯片”)连接成高度互联神经网络的系统,使单一系统能够支持超过 120 万亿参数的 AI 模型。

2022 年 6 月,Cerebras 创下单设备训练最大 AI 模型的记录。公司表示,这是首次通过单台 CS-2 系统(仅使用一块 Cerebras 晶圆)即可训练高达 200 亿参数的模型。Cerebras CS-2 系统能够训练多十亿参数级别的自然语言处理模型,包括 GPT-3XL(13 亿参数),以及 GPT-J 6B、GPT-3 13B 和 GPT-NeoX 20B,同时显著降低软件复杂度和基础设施要求。

2022 年 9 月,Cerebras 宣布可将其芯片拼接在一起,构建出目前规模最大的 AI 计算集群。晶圆级集群最多可连接 192 台 CS-2 AI 系统,而由 16 台 CS-2 系统组成的集群可构建一个拥有 1360 万核心的自然语言处理计算系统。该新型晶圆级集群的关键在于完全采用数据并行方式进行训练,这也是当前 AI 工作的主流方法。

2022 年 11 月,Cerebras 发布超级计算机 Andromeda,该系统由 16 颗 WSE-2 芯片组成,形成一个拥有 1350 万个 AI 优化核心的集群,最高可提供 1 Exaflop 的 AI 计算能力,即每秒至少进行 10 的 18 次运算。整个系统功耗为 500 千瓦,远低于同类 GPU 加速超级计算机。

同样在 2022 年 11 月,Cerebras 宣布与 Cirrascale Cloud Services 达成合作,为其 Cerebras AI Model Studio 提供按模型计费的固定费率计算服务。据称,该服务在成本上较市场同类云服务降低约一半,同时速度最高提升至 8 倍。

2023 年 7 月,Cerebras 与阿联酋公司 G42 联合发布 Condor Galaxy,这是由 9 台互联超级计算机构成的全球最大 AI 训练网络。首台系统 Condor Galaxy 1(CG-1)具备 4 exaFLOPs(FP16)算力和 5400 万核心。2023 年 11 月发布的 Condor Galaxy 2(CG-2)同样具备 4 exaFLOPs 算力和 5400 万核心。

2024 年 3 月,双方启动建设 Condor Galaxy 3(CG-3),该系统算力可达 8 exaFLOPs,并拥有 5800 万个 AI 优化核心。

同样在 2024 年 3 月,Cerebras 发布第三代晶圆级芯片 WSE-3,采用 5 纳米工艺,集成 4 万亿个晶体管和 90 万个 AI 优化核心,是 CS-3 计算机的基础。2024 年 6 月,公司宣布与 Dell Technologies 合作,共同构建用于生成式 AI 的计算基础设施。

2024 年 8 月,Cerebras 发布其 AI 推理服务,并宣称其速度为全球最快,在许多情况下比基于主流技术——Nvidia H100“ Hopper”图形处理单元(GPU)的系统快 10 至 20 倍。

截至 2024 年 10 月,在运行最新 Llama 3.2 模型时,Cerebras 在推理性能方面的优势进一步扩大。8 月至 10 月期间,其 AI 推理性能提升约 3.5 倍,进一步拉开了与本地部署或 Cerebras 云平台运行的 CS-3 系统之间的性能差距。

2025 年 3 月,Cerebras 宣布在美国和欧洲新增 6 个数据中心,使推理能力提升 20 倍,达到每秒超过 4000 万 tokens。

2025 年 4 月,Meta 宣布与 Cerebras 合作,为新的 Llama API 提供支持,使开发者能够获得最高 18 倍于传统 GPU 方案的推理速度。2025 年 5 月,Cerebras 表示在 Llama 4 推理中,其性能超过 NVIDIA Blackwell,在 4000 亿参数的 Llama 4 Maverick 模型上实现每用户超过 2500 tokens/秒的速度,性能提升超过一倍。

2025 年 5 月,Cerebras 发布 Qwen3-32B,这是一款面向高效智能推理与高性能表现的开源权重大语言模型。2025 年 7 月,公司进一步发布 Qwen3-235B,在其推理云平台上支持完整的 13.1 万上下文长度。

Cerebras Systems Inc.(CBRS)产品部署

1、CS-1

2020 年,葛兰素史克 (GSK) 开始在其伦敦 AI 中心使用 Cerebras CS-1 AI 系统,用于神经网络模型,以加速遗传和基因组研究并减少药物发现所需的时间。GSK 研究团队能够增加他们可以生成的编码器模型的复杂性,同时减少训练时间。其他制药行业客户包括阿斯利康,该公司使用 Cerebras CS-1 系统将 GPU 集群上的训练时间从两周缩短到两天。GSK 和 Cerebras 最近于 2021 年 12 月共同发表了关于表观基因组语言模型的研究。

Argonne National Laboratory 自 2020 年以来一直使用 CS-1 进行 Covid-19 研究和癌症肿瘤研究,该研究基于世界上最大的癌症治疗数据库。在 CS-1 上运行的一系列用于预测癌症药物对肿瘤反应的模型与 GPU 基线相比,在 CS-1 上实现了数百倍的速度提升。

2020 年 11 月,Cerebras 和国家能源技术实验室 (National Energy Technology Laboratory,NETL) 展示了 Cerebras 的 CS-1 系统在科学计算工作负载上的破纪录性能。在计算流体动力学的关键工作负载上,CS-1 比焦耳超级计算机快 200 倍。

劳伦斯利弗莫尔国家实验室(Lawrence Livermore National Lab)的拉森(Lassen)超级计算机在机密和非机密领域都采用了 CS-1,用于物理模拟。匹兹堡超级计算中心 (Pittsburgh Supercomputing Center,PSC) 也将 CS-1 融入其 Neocortex 超级计算机,用于双重 HPC 和 AI 工作负载。爱丁堡大学(University of Edinburgh)的超级计算中心 EPCC 也部署了 CS-1 系统,用于基于 AI 的研究。

2021 年 8 月,Cerebras 宣布与 Peptilogics 合作开发肽疗法的 AI。

2、CS-2

2022 年 3 月,Cerebras 宣布公司已在 TotalEnergies 位于 Houston 的设施中部署其 CS-2 系统,这是其在能源行业首次公开披露的客户。同时,Cerebras 还宣布已在 nference 部署 CS-2 系统,该公司是一家利用自然语言处理技术分析海量生物医学数据的初创企业。CS-2 将用于训练 Transformer 模型,这些模型旨在处理大量非结构化医疗数据,从而为医生提供新的洞见,并提升患者的康复效果和治疗水平。

2022 年 5 月,Cerebras 宣布美国国家超级计算应用中心(NCSA)已在其 HOLL-I 超级计算机中部署 Cerebras CS-2 系统。同时还宣布,德国 Leibniz Supercomputing Centre(LRZ)计划部署一套包含 CS-2 系统和 HPE Superdome Flex 服务器的新型超级计算机。该系统预计将在当年夏季交付给 LRZ,这将是 CS-2 在欧洲的首次部署。

2022 年 10 月,美国国家核安全管理局(U.S. National Nuclear Security Administration)宣布将资助一项研究,探索将 Cerebras 的 CS-2 系统应用于核武库维护相关计算。该多年期合同将通过 Sandia National Laboratories、Lawrence Livermore National Laboratory 和 Los Alamos National Laboratory 执行。

2022 年 11 月,Cerebras 与美国国家能源技术实验室(NETL)在科学计算任务中取得创纪录性能。Cerebras 展示其 CS-2 系统在场方程建模方面的速度最高可达到 NETL 的 Joule 超级计算机的 470 倍。

2022 年 HPC-Based COVID-19 Research 戈登贝尔特别奖获奖项目(该奖项旨在表彰利用高性能计算推动对新冠疫情理解的卓越研究)使用了 Cerebras 的 CS-2 系统开展研究,通过将大语言模型应用于 COVID-19 变异分析。

Cerebras 与阿联酋科技集团 G42 合作部署其 AI 超级计算机,用于开发聊天机器人以及分析基因组和预防性医疗数据。2023 年 7 月,G42 同意支付约 1 亿美元购买首批(最多可达 9 台)Cerebras 超级计算机,每台计算能力可达 4 exaflops。2023 年 8 月,Cerebras、Mohamed bin Zayed University of Artificial Intelligence 以及 G42 旗下公司 Inception 联合推出大语言模型 Jais。

Mayo Clinic 在 2024 年 J.P. Morgan Healthcare Conference 上宣布与 Cerebras 合作,并披露其将基于 Cerebras 生成式 AI 计算能力开发的首个基础模型。该解决方案将结合基因组数据与去标识化的患者记录及医学证据,探索预测患者对不同治疗方案反应的能力,从而提升疾病管理水平,初期将应用于类风湿性关节炎。该模型未来有望成为支持其他疾病诊断与治疗的通用原型。

2024 年 5 月,Cerebras 与 Sandia National Laboratories、Lawrence Livermore National Laboratory、Los Alamos National Laboratory 以及美国国家核安全管理局的研究人员合作开展分子动力学模拟。该研究模拟了 80 万个原子的相互作用,并以飞秒级时间步长进行计算。在 Cerebras WSE-2 上,每一步计算仅需微秒级时间。尽管该速度仍比真实物理过程慢 9 个数量级,但相比 Frontier 超级计算机仍快 179 倍,这一成果将原本需要一年的计算时间缩短至仅两天。

3、CS-3

2024 年 3 月,Cerebras 发布了 CS-3 以及第三代晶圆级引擎 WSE-3,代表其技术的最新进展。该系统性能较 CS-2 提升约 2 倍,并拥有 90 万个计算核心。一个 CS-3 集群能够在仅一天时间内完成类似 Llama2-70B 这样的 AI 模型训练。WSE-3 还被《TIME Magazine》评选为 2024 年最佳发明之一。

2025 年 1 月,Cerebras 宣布支持 DeepSeek 的 R1 70B 推理模型(该模型为蒸馏后的 Llama 3.3 70B 模型,并非完整的 R1 模型),并在位于美国的数据中心中基于最新的 Cerebras 硬件运行。

2025 年 4 月,Cerebras 与加拿大光子技术公司 Ranovus 宣布获得来自 DARPA 的合同,旨在解决计算瓶颈问题。

同样在 2025 年 4 月,Cerebras 与 ZS 宣布建立平台合作关系,将 Cerebras 的 CS-3 系统直接集成至 ZS 的 MAX.AI 平台,从而打造一个超高性能环境,用于大语言模型(LLMs)及智能体 AI(agentic AI)的微调、训练与部署。

4、Cerebras Inference

Cerebras 的 AI 推理服务宣称是全球最快的,在许多场景下,其速度比采用主流技术——Nvidia 的 H100“ Hopper”图形处理单元(GPU)构建的系统快 10 至 20 倍。

2025 年 1 月,Cerebras 宣布将支持 DeepSeek 的 R1 70B 推理模型,推理速度可达每秒 1600 tokens,公司表示该速度比使用 GPU 的任何 R1 提供商快 57 倍。

2025 年 2 月,Cerebras 与 Mistral AI 宣布建立合作关系,并帮助这家法国 AI 公司实现速度纪录。Mistral 推出了一款名为 Le Chat 的应用,据称可实现每秒生成 1000 个词的响应速度。Cerebras 表示,其计算能力为该性能提供了底层支持。

同样在 2025 年 2 月,Cerebras 宣布与 Perplexity AI 达成合作,目标是提供近乎即时的 AI 搜索结果,其速度此前被认为难以实现。此次合作围绕 Perplexity 新推出的 Sonar 模型展开,该模型运行在 Cerebras 芯片上,推理速度达到每秒 1200 tokens,使其成为当前最快的 AI 搜索系统之一。Cerebras 正借助这一势头,试图确立自身作为高速 AI 推理领域首选供应商的地位。

Cerebras Systems Inc.(CBRS)历史百科

Cerebras 成立于 2015 年,创始人包括 Andrew Feldman、Gary Lauterbach、Michael James、Sean Lie 和 Jean-Philippe Fricker。这五位创始人曾共同在 SeaMicro 工作,该公司由 Feldman 和 Lauterbach 于 2007 年创立,后来于 2012 年以 3.34 亿美元的价格卖给了 AMD

2016 年 5 月,Cerebras 在由 Benchmark、Foundation Capital 和 Eclipse Ventures 领投的 A 轮融资中获得了 2700 万美元。

2016 年 12 月,B 轮2500万美元融资由 Benchmark 领投,SV Angel 和 Eclipse Ventures 领投。

2017 年 1 月,Cerebras 完成 6000 万美元 C 轮融资,由 Sequoia Capital、Foundation Capital、Benchmark、Eclipse Ventures、Altimeter Capital等共同投资。

2018 年 11 月,Cerebras 完成 8100 万美元 D 轮融资,成为独角兽。本轮投资者包括 Altimeter、VY Capital、Coatue、Foundation Capital、Benchmark 和 Eclipse。

2019 年 8 月 19 日,Cerebras 宣布其晶圆级引擎 (WSE)。

2019 年 11 月,Cerebras 完成 2.72 亿美元 E 轮融资,估值为 24 亿美元。

2020 年,该公司宣布在日本设立办事处并与东京电子器件公司建立合作伙伴关系。

2021 年 4 月,Cerebras 宣布基于该公司的晶圆级引擎二 (WSE-2) 推出 CS-2,该引擎拥有 850,000 个核心。2021 年 8 月,该公司宣布了其大脑规模技术,可以运行具有超过 120 万亿个连接的神经网络。

2021 年 11 月,Cerebras 宣布已在 F 轮融资中筹集了 2.5 亿美元,公司估值超过 40 亿美元。F 轮融资由 Alpha Wave Ventures 和阿布扎比增长基金 (Abu Dhabi Growth Fund,ADG) 领投,Eclipse Ventures、Empede Capital和Azure Ventures Group跟投。

2022年8月,Cerebras公司在加利福尼亚州山景城的计算机历史博物馆受到了表彰。该博物馆将WSE-2芯片——迄今为止制造的最大计算机芯片——加入其永久收藏,并为其揭幕了一个新的展示。这标志着在将晶体管作为集成部件制造的历史上取得了一个"划时代"的成就。

2022 年 8 月,Cerebras 宣布在印度班加罗尔开设新办事处。

2023年7月,Cerebras 获得来自IPOSharks和Vishal Rao(个人)的二级市场融资。

2024年8月3日,据外媒披露,英伟达的竞争对手、人工智能芯片制造商Cerebras Systems已秘密申请在美国首次公开募股 (IPO),最快2024年10月上市,准备挑战行业巨头英伟达( Nvidia)。

2025年9月30日,Cerebras 宣布已完成 11 亿美元的 G 轮融资,估值达 81 亿美元。本轮融资由Atreides Management和Fidelity领投,Tiger Global Management、Benchmark、Valor Equity PartnersAltimeter Capital等跟投。

2026年2月4日,Cerebras 完成 Atreides Management、FidelityTiger Global Management 领投的H轮10亿美金融资,Benchmark、CoatueValor Equity Partners等跟投。

Cerebras Systems Inc.(CBRS)美股投资

2024年9月30日,设计和生产半导体和超级计算机并提供人工智能服务的 Cerebras Systems 公司周一向美国证券交易委员会(SEC)提交了 IPO 申请,希望通过首次公开募股筹集最多 8 亿美元的资金。Cerebras Systems 计划在纳斯达克上市,股票代码为 CBRS。CitiBarclaysUBS Investment BankWells Fargo Securities、Mizuho Securities 和 TD Cowen 是该交易的联席账簿管理人。定价条款尚未披露。

2025年10月3日,Cerebras Systems 公司于周五撤回了首次公开募股 (IPO) 计划。

2026年4月17日,从事半导体及超级计算机设计与制造、并提供人工智能服务的 Cerebras Systems 公司于周五向美国证券交易委员会(SEC)提交了首次公开募股(IPO)申请;据我们估算,此次募资规模有望高达 20 亿美元。公司计划以股票代码“CBRS”在纳斯达克交易所上市。摩根士丹利、花旗集团、巴克莱银行、瑞银投资银行、瑞穗证券以及道明证券将担任此次发行的联席账簿管理人。目前尚未披露具体的定价条款。

参考资料:

  1. 公司官网
  2. 美股百科
  3. 更多资讯
2026年,盈透证券(IBKR)支持中国人开户。盈透证券优势包括:1)美国本土运营,No CRS;2)超强夜盘,支持24小时交易10,000+只标的;3)账户内闲置资金,自动获取3+%利息收入;4)支持美债交易。

author avatar
美股百科 总编辑
Michael.Y,1982 年生,2004 年毕业于上海财经大学。自毕业以来,他长期投身自媒体与内容创作领域,同时深耕全球宏观经济、科技创新与金融市场研究。
QQ群:249342519
加群验证:美股之家
weinxin
249342519
微信号已复制
微信公号:美港股百科全书
微信搜:mggbkqs
weinxin
mggbkqs
公众号已复制
 最后更新:2026-4-18
美股百科
  • 本文由 美股百科 发表于2024年9月24日
  • mg21.com原创发布,未经授权,严禁转载。mg21.com是一个独立的第三方信息网站,与文中所列公司无任何关联,也未获得其认可或赞助,本文信息来源于公开资料,Logo版权归原公司所有。本站不对文中信息的准确性和及时性负责。本文旨在信息传播与分享,不构成任何证券、金融产品或工具的邀约、招揽、建议、意见或任何保证,美股之家不为任何公司、券商、金融产品背书。投资有风险,客户应衡量自己所能承受的风险独立作出投资判断,如有疑问,请向独立专业人士咨询。免责声明
评论  2  访客  2
    • 美股百科
      美股百科 9

      Cerebras Systems Inc. 是一家美国人工智能 (AI) 公司,在开发先进的人工智能硬件和软件解决方案方面取得了重大进展。Cerebras Systems Inc. 在桑尼维尔和圣地亚哥、多伦多、东京和印度班加罗尔设有办事处。Cerebras 为复杂的 AI 深度学习应用构建计算机系统。

      Cerebras Systems 创新的核心是该公司于 2019 年推出的晶圆级引擎 (WSE)。WSE 是世界上最大的计算机芯片,专为复杂的 AI 和深度学习应用而设计。Cerebras 不断迭代这项技术,其最新芯片是 2024 年推出的 WSE-3,它基于 5nm 工艺,拥有令人印象深刻的 4 万亿个晶体管。

      Cerebras Systems 构建 AI 系统来为处理器供电、冷却和提供数据。Cerebras Systems 使用熟悉的 ML 框架(如 PyTorch)开发软件,将这些系统连接到行业领先的超级计算机中,这些超级计算机易于使用,即使是最复杂的 AI 工作也是如此。客户使用Cerebras Systems的超级计算机来训练行业领先的模型。Cerebras Systems使用这些超级计算机以其他商业技术无法实现的速度运行推理。

      Cerebras Systems在本地和通过云端向客户提供这些 AI 功能。AI 计算包括训练和推理。在训练方面,与同一代领先的 8 路 GPU 系统相比,Cerebras 的许多客户已经实现了 10 倍以上的训练解决方案时间,并制作了他们自己的最先进模型。在推理方面,Cerebras 提供的输出生成速度比顶级 CSP 的基于 GPU 的解决方案快 10 倍以上,这是对领先开源模型的基准测试。这使得 AI 应用程序能够实时交互,并开发出更智能、更强大的 AI 代理。它可加快开发速度,并消除使用数千个 GPU 时所需的复杂分布式计算工作。

      • 美股百科
        美股百科

        Cerebras 提供一系列产品和服务: 

        CS-2 AI System:CS-2 于 2021 年 4 月发布,基于第二代 WSE-2 芯片。它具有 850,000 个内核、40 GB 的片上 SRAM 和 2.6 万亿个晶体管。
        CS-3 Computer:Cerebras 系列的最新产品,采用 WSE-3 芯片。它专为 AI 训练和推理任务而设计。
        推理服务(Inference Service):Cerebras 于 2024 年 8 月推出,声称这是世界上最快的推理服务,其性能远远超过基于 GPU 的解决方案。

      匿名

      发表评论

      匿名网友
      确定