高加索AV无码,99尹人网毛,韩日337p99,一级a片久久无,97色区综合,激情日韩在线一二三,日韩精品久久精品草比,婷婷久久91,亚洲天堂艹比

訂閱
糾錯(cuò)
加入自媒體

撕開英偉達(dá)的算力圍城

圖片

“AI 行業(yè)正在使用一個(gè)‘錯(cuò)誤的工具’。”

當(dāng) Cerebras 創(chuàng)始人 Andrew Feldman 拋出這個(gè)論斷時(shí),英偉達(dá)正憑借 GPU 統(tǒng)治著萬億級(jí)市場(chǎng)。

Andrew Feldman是否在口出狂言?Cerebras 用一塊餐盤大小、擁有 900,000 個(gè)核心的晶圓級(jí)引擎 WSE-3,試圖用“一顆芯片即一個(gè)集群”的解決方案來回答這個(gè)問題。

Cerebras 相信,深度學(xué)習(xí)的核心瓶頸從未在算力本身,而在于數(shù)據(jù)跨越芯片邊界時(shí)撞上的那堵內(nèi)存墻。

2026 年 3 月,Oracle 在財(cái)報(bào)分析師會(huì)議上主動(dòng)提及正在部署 Cerebras 芯片,將其與 Nvidia、AMD 并列為核心加速器供應(yīng)商,這一“順帶點(diǎn)名”被業(yè)內(nèi)視為 Cerebras 進(jìn)入超大型企業(yè)采購(gòu)視野的重要信號(hào)。

01

叫板英偉達(dá),Cerebras做對(duì)了什么?

Cerebras由Andrew Feldman(前SeaMicro聯(lián)合創(chuàng)始人,后被AMD收購(gòu))于2016年創(chuàng)立。

Cerebras 推出的WSE-3 是迄今規(guī)模最大的人工智能芯片,面積達(dá) 46,255 平方毫米,集成 4 萬億個(gè)晶體管。它憑借 90 萬個(gè) AI 優(yōu)化內(nèi)核 提供 125 PFLOPS 的 AI 算力,晶體管數(shù)量是英偉達(dá) B200 的 19 倍,算力更是其 28 倍。

圖片

同時(shí),WSE-3配備44GB片上SRAM與21PB/s的內(nèi)存帶寬,徹底打破了傳統(tǒng)內(nèi)存瓶頸。其晶圓級(jí)互聯(lián)架構(gòu)可提供27PB/s的內(nèi)部帶寬,速度是最新一代NVLink的206倍。

WSE 最多可將 2048 套系統(tǒng)組合在一起,提供 256 EFLOPS 的 AI 算力。AI 開發(fā)者可以訓(xùn)練參數(shù)規(guī)模高達(dá) 24 萬億的模型,而無需處理多 GPU 調(diào)度和并行策略帶來的復(fù)雜問題。

傳統(tǒng) GPU(如 B200)必須不斷從片外的 HBM 內(nèi)存中讀取數(shù)據(jù),這受限于 HBM 的帶寬,這也是AI大模型爆發(fā)帶動(dòng)HBM存儲(chǔ)迅速發(fā)展的重要原因——通過強(qiáng)化片外存儲(chǔ)的傳輸能力,被動(dòng)緩解算力與存儲(chǔ)分離帶來的性能瓶頸。

Cerebras 將 44GB 的高速內(nèi)存直接放在 90 萬個(gè) AI 核心旁邊,無需再通過片外鏈路調(diào)取數(shù)據(jù),從物理架構(gòu)上消除數(shù)據(jù)往返傳輸延遲。

2026 年1 月,Cerebras 與OpenAI 簽署多年合作協(xié)議,承諾為 OpenAI 提供 750 兆瓦的推理算力,部署規(guī)模將分階段在 2026 至 2028 年間落地,合同總價(jià)值逾 100 億美元,被官方稱為“全球最大規(guī)模高速AI推理部署”。OpenAI官方公告指出,此次合作的核心目的之一是降低ChatGPT實(shí)時(shí)響應(yīng)的推理延遲。

2026 年3 月 13 日,AWS 宣布與 Cerebras 建立多年合作,將 Cerebras CS-3 系統(tǒng)部署于 AWS 數(shù)據(jù)中心,通過 Amazon Bedrock 提供推理服務(wù)。官方新聞稿顯示,這是首次有主流超大規(guī)模云平臺(tái)在自有數(shù)據(jù)中心內(nèi)部署非 GPU AI 加速器。

AWS計(jì)算服務(wù)副總裁David Brown表示:“這種分離式架構(gòu)讓每個(gè)系統(tǒng)各盡其長(zhǎng),結(jié)果將是比今天任何方案都快一個(gè)數(shù)量級(jí)的推理性能。”

行業(yè)分析機(jī)構(gòu) Futurum 在其評(píng)析中指出,這一合作“是標(biāo)志性的新階段——推理架構(gòu)正在獨(dú)立,專用芯片將取代單體 GPU 部署,用于延遲敏感型任務(wù)。”

02

用面積換性能,真無敵了嗎?

Artificial Analysis 的測(cè)評(píng)表示,Cerebras CS-3 在Meta Llama 4 Maverick(400B 參數(shù))模型上達(dá)到 2,522 tokens/秒,超過英偉達(dá) Blackwell B200 的1,038 tokens/秒,領(lǐng)先幅度約 2.4 倍。對(duì)比Llama 3.1 8B小模型,差距更顯著:Cerebras可達(dá)約1,800 t/s,而英偉達(dá)H100約為90 t/s,相差約20倍。

按 token 計(jì)費(fèi)的云服務(wù),DeepSeek V3 在Cerebras 上的定價(jià)為輸入 $0.20/百萬 tokens、輸出 $0.50/百萬 tokens,綜合價(jià)格極具競(jìng)爭(zhēng)力。截至2025年9月,Cerebras已在北美、歐洲擴(kuò)建至五個(gè)新數(shù)據(jù)中心,并同步在AWS Marketplace上線,進(jìn)入企業(yè)級(jí)采購(gòu)渠道。

AI 行業(yè)正在從“訓(xùn)練為主”轉(zhuǎn)向“推理為主””,而推理對(duì)延遲極為敏感。ChatGPT 等對(duì)話 AI、多步驟智能體(Agentic AI)、實(shí)時(shí)代碼生成等場(chǎng)景,都對(duì) tokens/秒有嚴(yán)苛要求。AI 推理市場(chǎng)規(guī)模預(yù)計(jì)將從 2025 年的 1,062 億美元增長(zhǎng)至 2030 年的 2,550 億美元,CAGR 約19%。

這項(xiàng)測(cè)評(píng)展示了 Cerebras 在推理領(lǐng)域速度與成本上的顯著優(yōu)勢(shì),但要得出“完全碾壓”的結(jié)論還為時(shí)過早。

英偉達(dá)最強(qiáng)大的武器并非硬件,而是極其成熟的CUDA 生態(tài)。開發(fā)者在轉(zhuǎn)向 Cerebras 時(shí)需適配專有編譯器,且目前對(duì)動(dòng)態(tài)控制流等高級(jí) AI 特性的支持尚不完整,這種遷移成本是企業(yè)決策時(shí)的核心障礙。全球數(shù)以百萬計(jì)的AI工程師在CUDA上深度訓(xùn)練,遷移至Cerebras平臺(tái)存在學(xué)習(xí)成本。分析指出,AWS Bedrock集成的戰(zhàn)略意義之一,正是通過托管服務(wù)降低工程師直接接觸底層硬件差異的必要性——如果開發(fā)者無需修改代碼就能使用Cerebras,生態(tài)差距的影響將大幅減小。

CS-3 單系統(tǒng)功耗高達(dá) 50kW,遠(yuǎn)超單臺(tái) GPU 服務(wù)器。對(duì)于空間和電力受限的傳統(tǒng)數(shù)據(jù)中心來說,部署此類設(shè)備面臨物理基礎(chǔ)設(shè)施的制約。

同時(shí),在加速數(shù)據(jù)通信上,英偉達(dá)并未坐以待斃。除了 Blackwell 的快速迭代,英偉達(dá)還通過收購(gòu)?fù)评沓鮿?chuàng)公司 Groq 的核心資產(chǎn),以及推出 NIM 推理微服務(wù)來鞏固其在推理市場(chǎng)的地位。

Groq 的芯片為L(zhǎng)PU(Language Processing Unit),主要面向LLM 等推理場(chǎng)景,從架構(gòu)上追求“快速、可預(yù)測(cè)、低成本”的大模型推理,而不是通用訓(xùn)練 + 圖形渲染。許多 LLM 推理場(chǎng)景下,單位 token 的計(jì)算成本和能耗都顯著低于傳統(tǒng) GPU 集群(原因是高片上帶寬、少外存訪問、推理專用指令流)。

基于 Tensor Streaming Processor(TSP)架構(gòu),硬件盡量去掉緩存、多級(jí)亂序等導(dǎo)致不確定性的機(jī)制,讓編譯器可以靜態(tài)安排每條指令和每一跳數(shù)據(jù)路徑,實(shí)現(xiàn)“流水線裝配線式”的可預(yù)測(cè)執(zhí)行。

第一代 LPU 約有 230 MB 片上 SRAM、80 TB/s 內(nèi)部帶寬,遠(yuǎn)高于典型 GPU 的 HBM 外部帶寬(約 8 TB/s 量級(jí)),減少訪問外部?jī)?nèi)存的次數(shù),從而降低時(shí)延并提升能效。

對(duì)很多企業(yè)來說,訓(xùn)練成本是一次性投入,而推理(每天要跑的token 數(shù))才是真正長(zhǎng)期的資本支出,Groq 把長(zhǎng)期成本曲線壓低,使得大規(guī)模商用 LLM 服務(wù)更可持續(xù)。對(duì)于英偉達(dá)來說,收購(gòu)Groq是在“訓(xùn)練卡賣一次”的模式之外,增加了英偉達(dá)在“長(zhǎng)期推理成本優(yōu)化”的抓手。簡(jiǎn)單來說,英偉達(dá)能在 TCO 和能效上給出更有競(jìng)爭(zhēng)力的推理方案,而不僅依賴堆更多 GPU。

03

Cerebras的風(fēng)險(xiǎn)

從產(chǎn)品角度來看,Cerebras選擇將整個(gè)300mm晶圓做成一顆芯片,這同時(shí)意味著任何一處缺陷都可能導(dǎo)致芯片報(bào)廢,Cerebras在良率控制上承擔(dān)了極高的制造風(fēng)險(xiǎn)。相對(duì)來說,傳統(tǒng)GPU的小芯片可通過“切割丟棄缺陷區(qū)”規(guī)避。

在商業(yè)模式上,Cerebras必須應(yīng)對(duì)客戶集中度風(fēng)險(xiǎn)。

雖然Cerebras官方表示有許多頭部客戶在使用自家產(chǎn)品,如Notion將Cerebras集成為其實(shí)時(shí)企業(yè)搜索功能的底層推理引擎,面向數(shù)百萬企業(yè)用戶,Cerebras也成為OpenAI最新安全模型的最快推理提供商,使AI安全策略的實(shí)時(shí)判斷成為可能——在內(nèi)容審核、文檔分類、智能體護(hù)欄等場(chǎng)景,實(shí)現(xiàn)了“先審后發(fā)”的實(shí)時(shí)安全檢測(cè)。

從營(yíng)收來看,阿聯(lián)酋G42貢獻(xiàn)了2024年H1高達(dá)87%的營(yíng)收。對(duì)應(yīng)一份$14.3億的合同承諾。雖然新合同不斷到來,但若G42出現(xiàn)任何地緣政治變化(美國(guó)對(duì)阿聯(lián)酋AI芯片出口管制趨嚴(yán)等),將對(duì)營(yíng)收造成重大沖擊。雖然G42已被移出Cerebras投資者名單,但其仍是最大單一客戶。

從交貨壓力來看,雖然拿下了許多大訂單,但Cerebras的產(chǎn)能卻不一定能到位。隨著OpenAI750MW算力部署、AWS合作相繼到位,Cerebras在2026-2028年間將面臨極大的產(chǎn)能擴(kuò)張壓力。公司已將Series H資金的重要部分用于美國(guó)本土制造產(chǎn)能擴(kuò)充,但實(shí)際交付時(shí)間線仍是最大的執(zhí)行不確定性。

04

寫在最后

想撕開英偉達(dá)算力圍城的企業(yè)不只Cerebras,“非GPU AI芯片”賽道上還有一家明星企業(yè)SambaNova。SambaNova的創(chuàng)新性也是想解決GPU的內(nèi)存墻問題。但解法截然不同。SambaNova的核心思路是用可重配置的數(shù)據(jù)流架構(gòu)(RDU)+三級(jí)內(nèi)存,在標(biāo)準(zhǔn)芯片上實(shí)現(xiàn)接近單片大芯片的效率。

三級(jí)內(nèi)存包括SRAM(片上,極速,小容量)、HBM(高帶寬內(nèi)存,中速大容量)、DDR(低速超大容量)。三級(jí)內(nèi)存使 SambaNova 系統(tǒng)可承載遠(yuǎn)超片上SRAM大小的模型(單機(jī)架3TB內(nèi)存),同時(shí)通過“算子融合”(operator fusion)減少內(nèi)核調(diào)用次數(shù),大幅降低延遲。測(cè)評(píng)顯示,SambaNova SN40L在Llama 3.3 70B上相對(duì)Nvidia H200實(shí)現(xiàn)了低批量9倍、高批量4倍的速度提升,同時(shí)能耗效率提升5.6–2.5倍。

SambaNova 的低功耗是其在電力受限數(shù)據(jù)中心的核心賣點(diǎn)。2021年 — Series D由SoftBank Vision Fund 2領(lǐng)投,估值$50億,但2025年開始出現(xiàn)關(guān)于SambaNova尋找買家的新聞,英特爾曾經(jīng)提出16億美元的收購(gòu)要約,但后續(xù)談判失敗。

曾經(jīng)站在同一起跑線的兩家企業(yè)正面對(duì)不同的資本熱情,Cerebras市場(chǎng)估值超200億美元,但SambaNova正在尋找新的融資方。

英偉達(dá)的圍城仍在,一名 AI 創(chuàng)業(yè)公司 CTO 曾評(píng)價(jià)三家公司表述最能說明問題:“我們對(duì) SambaNova和 Cerebras 都做了基準(zhǔn)測(cè)試。兩家在推理速度上都比英偉達(dá)快。但我們整個(gè)代碼庫(kù)都基于 CUDA,工程師都懂 CUDA,云預(yù)算已經(jīng)包含了與英偉達(dá)談好的折扣。切換意味著重寫代碼、重新培訓(xùn)員工、重新談合同——為了大約 30% 的性能提升,這筆賬不合算。”

在贏者通吃的市場(chǎng)里,好10%遠(yuǎn)遠(yuǎn)不夠——你需要好10倍,并且有清晰的市場(chǎng)采用路徑。

       原文標(biāo)題 : 撕開英偉達(dá)的算力圍城

聲明: 本文由入駐維科號(hào)的作者撰寫,觀點(diǎn)僅代表作者本人,不代表OFweek立場(chǎng)。如有侵權(quán)或其他問題,請(qǐng)聯(lián)系舉報(bào)。

發(fā)表評(píng)論

0條評(píng)論,0人參與

請(qǐng)輸入評(píng)論內(nèi)容...

請(qǐng)輸入評(píng)論/評(píng)論長(zhǎng)度6~500個(gè)字

您提交的評(píng)論過于頻繁,請(qǐng)輸入驗(yàn)證碼繼續(xù)

  • 看不清,點(diǎn)擊換一張  刷新

暫無評(píng)論

暫無評(píng)論

    人工智能 獵頭職位 更多
    掃碼關(guān)注公眾號(hào)
    OFweek人工智能網(wǎng)
    獲取更多精彩內(nèi)容
    文章糾錯(cuò)
    x
    *文字標(biāo)題:
    *糾錯(cuò)內(nèi)容:
    聯(lián)系郵箱:
    *驗(yàn) 證 碼:

    粵公網(wǎng)安備 44030502002758號(hào)

    崇义县| 鞍山市| 台东县| 长宁县| 南皮县| 中超| 武宣县| 甘孜县| 苍梧县| 高安市| 抚远县| 库车县| 年辖:市辖区| 海晏县| 荣成市| 吉木萨尔县| 汝城县| 朔州市| 汝州市| 林周县| 辽阳县| 平顶山市| 东至县| 宾阳县| 黑龙江省| 含山县| 开化县| 建德市| 临漳县| 霍林郭勒市| 蒙山县| 新宁县| 确山县| 武平县| 灯塔市| 三江| 加查县| 姚安县| 兴业县| 永春县| 共和县|