v2.172.9876.785296 安卓免費版
v5.695 最新版
v9.369.9772 IOS版
v2.715.6520.472255 安卓漢化版
v4.940.3536.811256 IOS版
v5.576.3312.159537 IOS版
v5.20.9870 安卓免費版
v2.485 IOS版
v5.259.1197.399655 安卓漢化版
v4.518.954 IOS版
v7.737.8482.562074 安卓免費版
v8.533.2459 安卓版
v8.434 PC版
v8.438 安卓版
v3.675.4291 最新版
v4.756.3248.339134 安卓版
v3.872.949.27300 安卓最新版
v8.389.3980.29154 安卓版
v2.327 PC版
v7.138.6116 PC版
v5.400.7618.318836 安卓版
v6.158.2720.176819 安卓最新版
v2.452.5719.841245 安卓版
v8.440.9166 安卓免費版
v6.817.6527.576299 安卓漢化版
v8.406.7500.798205 IOS版
v5.481.8364.443870 PC版
v8.820.4227.724715 安卓版
v7.162.6666.731209 安卓版
v8.897.6123.29199 IOS版
v4.246.5395.995799 PC版
v4.68.7913 最新版
v9.81.3278.341563 PC版
v3.673.1062.181527 安卓版
v9.879.2344 安卓版
v7.457 最新版
v3.55.4697 安卓免費版
v8.201.2037.756048 安卓最新版
v8.74.2243.587975 安卓漢化版
v6.30.4613 IOS版
v7.620.3950.706720 安卓版
v8.55.4744.530315 安卓免費版
v5.148 安卓免費版
v4.827.6498 PC版
v5.359.7485.342138 安卓免費版
v3.787.5499.485432 安卓免費版
v8.210.13.891284 安卓版
v8.447.9570.873504 IOS版
v3.194.3323 安卓漢化版
v4.356.9279.833725 安卓漢化版
v1.828.6343.68400 PC版
v9.348 IOS版
v6.763 安卓免費版
v4.417.5565.723175 安卓免費版
v8.854.9473 安卓漢化版
v2.758 安卓免費版
v4.130.4018.293723 最新版
v2.487.2371.47443 安卓版
v6.529.9907 安卓免費版
v2.832 安卓版
v7.433.9278.199571 IOS版
v5.960.4660.696641 安卓漢化版
v5.784.1772.95548 安卓最新版
v5.577 安卓版
v1.522 安卓漢化版
v6.872.5462 安卓最新版
v3.194.7204 安卓版
v5.163 IOS版
v3.240 IOS版
v1.537 安卓漢化版
v9.489 最新版
v6.339.2852 安卓免費版
v9.765.7814.513029 最新版
v5.268 安卓漢化版
v8.456.1619 IOS版
v8.451.3037.290020 PC版
v1.146.688.848665 安卓最新版
v2.49 IOS版
v2.888 安卓漢化版
v5.54 安卓免費版
91AV视频观看
最近,OpenAI又传出购置芯片的新闻,但采购工具却并非英伟达或谷歌。
据相识,这笔订单落在了晶圆级芯片公司Cerebras身上,协议总金额凌驾100亿美元、对应最高约750兆瓦算力容量,并将分阶段在2026—2028年落地。
众所周知,恒久以来,OpenAI的焦点训练系统一直建设在英伟达GPU之上。但最近一段时间里,OpenAI一直在实验把算力“鸡蛋”放进多个篮子里。
去年6月,有媒体披露称OpenAI妄想通过Google Cloud租用芯片,为包括ChatGPT在内的产品提供部分推理算力。
这一算力供应战略上爆发转变背后,是美国AI工业的两大阵营相互作用下的效果:一边是以英伟达为焦点的GPU生态,另一边是近年来崛起的谷歌阵营TPU(谷歌自研的AI专用加速芯片)生态。
在大模子爆发初期,英伟达险些是算力的唯一中心:从训练到推理,从芯片到CUDA生态,行业别无其他选择。
但在已往两年,这种“绝对焦点”职位最先松动。一方面GPU供应恒久主要、价钱高企;另一方面超大模子推理负载激增,催生对专用加速器与替换架构的现实需求,也为其他算力蹊径留下切口。
在这一配景下,谷歌的TPU蹊径逐渐成型。通过把TPU与Gemini、VertexAI的节奏深度绑定,谷歌逐步搭建起一套“从芯片到模子、云效劳”的一体化供应系统。?
Cerebras则是OpenAI在两大阵营之外插入的一枚筹码:它主打晶圆级芯片的手艺蹊径,主打低延迟推理与特定负载的吞吐优势。这家公司也一直被各路机构视为美股潜在IPO标的。
在英伟达和谷歌两大阵营的“楚河汉界”之间,头部AI企业们在“站队”与“相助”间一直交织。
01
两大基座阵营,既要“合纵”也要“连横”
只管在AI算力国界泛起了“两大阵营”分解的征象,但在已往一年里,英伟达仍是市场的绝对主力:IDC在2025年二季度的统计显示,英伟达在AI算力厂商份额占比约85.2%。
只是在AI工业中,“盟友”与“仇人”的界线往往并不清晰,但仍能在头部企业身上,窥探到一丝生态上的偏好。
英伟达的主力相助同伴中,微软和AWS(亚马逊云效劳)一连把英伟达新品作为云端算力主力;与此同时,谷歌也在加速把TPU打造成更“可迁徙”的选项,并通过刷新对PyTorch等主流框架的支持、与包括Meta在内的企业/开发者社区协作,降低外部使用门槛。
以微软为例,凭证Omdia的估算,2024年微软采购了约48.5万块英伟达Hopper系列GPU,险些是其竞争敌手的两倍之多,显示出它在AI基建领域与英伟达的细密关系。
2025年11月,微软与数据中心运营商IREN签署了一份约97亿美元的条约,其中包括约莫58亿美元的英伟达GB300芯片与相关装备,用于进一步扩展Azure的AI盘算能力。
不止云厂商,一众大模子企业也是英伟达的基本盘,马斯克此前曾体现xAI的Colossus超算在2025年已安排约20万块英伟达GPU,用于训练Grok系列模子,并妄想进一步扩容。
不过,只管英伟达的GPU系统虽然市场份额高达八成以上,但其高本钱与软件生态锁定,也让一些头部用户最先追求新的供应链渠道。
另一边,谷歌TPU在某些推理与训练场景上拥有更低本钱的优势,并且与云效劳深度整合,这使得市场近年来对其兴趣一直增添。
几周前,曾有媒体披露Meta正在评估在2027年后引入谷歌自研芯片的可能性,相关相助规;虼锸诿涝,这使TPU有时机成为英伟达之外的一个主要替换样本。
类似的选择也泛起在Anthropic身上。去年10月,Anthropic宣布将大幅扩大与Google Cloud的相助,妄想使用多达一百万颗TPU芯片、总价值抵达数十亿美元的算力资源,来训练和效劳下一代Claude模子,并预计在今年实现凌驾1吉瓦的盘算能力上线。
Google Cloud CEO库里安称,“Anthropic大幅扩大使用TPU,反应了团队多年来在使用TPU时视察到的强劲价钱性能比和效率。”
不过,Anthropic和谷歌的相助离不开资源面配景。谷歌既是Anthropic的早期投资者,也是其最主要的云算力提供方之一。果真信息显示,谷歌已累计向Anthropic投资凌驾30亿美元,持有约14%股权。
Anthropic CFO Krishna Rao此前曾体现:“Anthropic与Google有恒久同伴关系,这次扩展有助于一连增添界说前沿AI所需的算力。”
通过加大对TPU的使用,Anthropic在本钱与算力供应上获得更高确定性,同时也加深了与谷歌在云基础设施层面的恒久相助关系。
不过,AI工业国界中,纵然是资真相助同伴之间,也可能泛起产品和营业上的竞争。字母AI在近期的《争取AI制高点,谷歌和Anthropic必有一战》一文中曾总结,“若是Anthropic使用谷歌的TPU训练出了远超Gemini的模子,那谷歌在应用层的竞争将变得越发难题。”
正是在这一现实之下,“合纵连横”最先成为AI基建名堂中的要害逻辑。算力层面,面临英伟达在GPU与生态上的恒久主导,谷歌以TPU、云效劳和资源关系拉起稳固相助网络,模子公司也借此获得更可控的算力与本钱,此为“合纵”。
但这种结盟并不会延伸到产品前台。进入模子与应用层,竞争重新回到零和博弈:Gemini、Claude、ChatGPT在前端要面临正面厮杀,“连横”随之泛起,即在基础设施上交织相助,但在产品上又各自为战。
英伟达与谷歌两大阵营并存,恰恰放大了这种合纵连横的结构。不过,提及这一国界的形成以及两条路径之争的起源,还要追溯到AI爆发前的10年。
02
GPU与TPU之争,源自“前AI时代”
在天生式AI成为全球焦点之前,英伟达已提前十余年结构算力生态。
2006年CUDA宣布,使GPU首次成为可被通用编程挪用的并行盘算平台,开发者得以绕开硬件细节直接释放算力潜能。随后,PyTorch、TensorFlow等主流框架相继围绕CUDA构建,GPU也从图形加速器演变为AI训练与推理的事实标准底座。
CUDA的价值不止“让GPU可编程”,更在于打造了独家软件生态这一壁垒。
英特尔前CEO帕特·基辛格,在去年接受采访时直言,英伟达真正的护城河在于“CUDA以及NVLink这样的软件和互连系统”,而不但仅是简单代GPU的性能优势。
这一系统优势在2012年迎来爆发点,多伦多大学的Alex Krizhevsky等人使用两块英伟达GPU在ImageNet挑战赛上训练出AlexNet并一举夺魁,展示了大规模神经网络与GPU并行盘算连系的重大潜力,成为行业关注的里程碑事务。
但在深度学习浪潮爆发的同时,大规模神经网络对算力效率和能耗也提出新要求。此时,谷歌意识到,依赖通用GPU在大规模推理和训练时,保存着本钱高且功耗大等问题。
于是,从2015年起,谷歌最先研发TPU——一种面向神经网络推理负载的定制芯片。彼时的目的还不是今天的通用AI盘算,而是支持搜索、翻译和广告等焦点营业中的深度学习模子,在数据中心内以更低能耗、更稳固时延完成大规模推理使命。
2018年,谷歌将TPU正式引入Google Cloud,对外开放使用,试图证实TPU在云端的现实价值。ResNet-50等模子的测试数据显示,TPU上训练可显著缩短时间并降低本钱,使原本需要数天的使命在更短周期内完成。
不过,在几年后的天生式AI爆发初期,英伟达迅速成为了谁人最大赢家。2020—2022年,大模子训练从研究走向工程化,A100等GPU依附成熟的软件生态和稳固供应,成为各大云厂商和模子公司的默认选择。
TPU的转折点,泛起在算力需求一连放大之后。2023年起,随着大模子推理负载激增、电力与本钱压力上升,谷歌TPU因在单位能耗和价钱性能比上的优势最先受到行业重视,逐步获得更普遍接纳。
字母AI在此前的报道《AI在美国“与民争电”》中曾披露,AI数据中心的惊人能耗,已经迫使美国AI企业亲自下场,投身能源基础设施建设。因此,TPU的能耗和本钱优势,无疑是吸引诸多AI企业用户的主要因素。
另一方面,为降低开发者迁徙门槛,谷歌近年显着加大了TPU的软件生态投入。去年,曾有多家外媒披露,谷歌正推进代号为TorchTPU的内部项目,焦点目的是提升TPU对PyTorch的原生支持能力。
据相识,该项目与Meta的需求亲近相关,部分软件组件可能开源,以缩小TPU与英伟达GPU在主流开发情形中的使用差别。
事实上,以谷歌为代表的TPU生态的生长,一定水平上也宏观层面,对冲了英伟达一直占有绝对主导职位的担心。
“让一家企业成为全球AI未来的守门人是危险的,会带来严重的经济危害。”美国参议员伊丽莎白·沃伦,曾这样呼吁美国司法部启动对英伟达反垄断视察。
尤其关于OpenAI这样的头部模子公司而言,“合纵联横”的算力名堂,无疑比依赖简单手艺蹊径更具战略弹性。
03
OpenAI的“摇晃”和“押注”
在大模子爆发期,OpenAI就与对英伟达的算力系统牢牢捆绑在一起。果真信息显示,在GPT-3时代,OpenAI曾动用约3,600台HGXA100效劳器、近3万块英伟达GPU举行训练。
这种细密的关系一直一连到今天,去年年底,OpenAI宣布和英伟达睁开新一轮相助,妄想安排至少10吉瓦的英伟达算力系统,这些系统将包括数百万块英伟达GPU,用于训练并运行下一代模子。首批算力预计将在今年下半年上线。
不过,这种细密捆绑背后,OpenAI也在探索“去中心化”的行动。尤其是随着近年来模子规模与推理负载急剧上升,新的算力供应路径迫在眉睫。
去年6月,有媒体披露称OpenAI最先通过Google Cloud租用TPU,为包括ChatGPT在内的产品提供部分推理算力,希望借此降低推理本钱。这是OpenAI首次妄想批量使用非英伟达芯片。
OpenAI讲话人随后称“公司现在仅处于对部分谷歌TPU的早期测试阶段,尚无妄想举行大规模安排。”
但这份相对榨取的回应,仍难以掩饰OpenAI追求供应链平衡的意图。Forrester高级剖析师Charlie Dai此前指出,OpenAI最先测试TPU,反应出“随着推理本钱一直上升,AI提供商正实验在英伟达GPU之外,寻找更具本钱控制能力的专用计划”。
而在几个月后,OpenAI在10月宣布与AMD签署协议,将在未来几年安排最高6吉瓦的AMD GPU资源,妄想从今年下半年最先落地,进一步做实了上述看法。
时间来到2026年头,近期,Cerebras也被纳入OpenAI的算力“鸡蛋篮”。外媒报道称,双方签署了一项多年期协议,总额凌驾100亿美元,对应最高750兆瓦算力,并将分阶段交付至2028年。
OpenAI在通告中由高管Sachin Katti讲话,称其算力战略是构建一个“Resilient Portfolio”(有韧性、抗危害的算力组合),按差别负载匹配差别系统;在这一组合中,Cerebras以“低时延推理”能力施展补位作用。
值得关注的是,在手艺蹊径上,Cerebras走的是另一条路:把整片硅晶圆直接做成一颗“晶圆级芯片”(WSE-3)。
Cerebras一颗芯片面积约4.6万平方毫米,是英伟达主流数据中心GPU(约800平方毫米)的数十倍,集成约4万亿晶体管和90万个焦点,并将盘算与存储高度集中在统一器件内,从而镌汰GPU集群中常见的跨卡通讯瓶颈。
而在资源层面,这桩相助背后有一个无法忽视的配景:OpenAI首席执行官奥特曼,此前以小我私家身份投资过Cerebras。
另一边,OpenAI的结构并未止步于引入外部算力替换计划。去年以来,多家外媒披露OpenAI已在内部组建芯片团队,并与博通睁开相助,推进自研AI加速器芯片,研发重点是围绕自身模子系统,优化推理负载与系统级效率。
奥特曼曾在和博通的相助通告中体现:“通过开发我们自己的加速器(芯片),可以将我们在最前沿模子和产品设计中学到的履历直接嵌入硬件,从而释放更强盛的能力。”
而在谷歌TPU和其他供应商之间的摇晃,一定水平上也映射出OpenAI关于谷歌这位竞争敌手态势的小心。
苹果在近期宣布与谷歌告竣多年相助,将用Gemini模子升级Siri与Apple Intelligence。毫无疑问,这一相助将强化谷歌在与OpenAI竞赛中的位置,牢靠其在移动端AI入口的生态影响力。
更久远地看,美国AI算力工业名堂并非纯粹的阵营间的商战,而是一条可跨越的“楚河汉界”。在基础设施层,英伟达与谷歌划分修建起两套稳固运转的算力基座,成为企业绕不开的恒久投入偏向。
但这条“界线”并不料味着割裂。对模子公司而言,算力是必需“合纵”的底座,而产品与模子竞争才是真正的战场。越是头部玩家,越需要在底层结盟、在上层博弈。
作为模子侧的头部玩家,OpenAI的多路径结构,正是这一现状的缩影:既要依托英伟达的强盛生态,但也不可一连单点依赖。同时最先结构自研算力,为下一轮算力与模子竞赛预留空间。
2026年,美国AI工业的“楚河汉界”之间,“合纵连横”的戏码仍将继续上演。
相关版本
多平台下载
审查所有0条谈论>网友谈论
一级做a爱黑人又硬又粗视频
免费九九99视频
永久免费A片在线看视频一
久久免费国产精品
namprikk在线观看
黑人与禽交xxxx
刹那抓住未来抽插 茄子喷水
18禁网站污
女生大白兔奶糖和男生生产牛奶
欧美一区亚洲
操操网av
国模激情私拍aV在线
91黄片视频了
欧美变态柔术XXXX
黄色无码视频c
国产激情视频免费的
看国产国语对白精品黄片视频
伽罗太华流白色分泌物
欧美熟妇一区二区在线观看
无遮挡黄黄黄十八禁视频免费
亚洲 欧美 中文日韩一区
抖音肖雅婷和榜一
操操操操操操操干干干干干干
班主任脱丝袜自慰流白浆
tobu8-HD1002022
一级A片免费视频在线观看
女人18毛片A级毛片一本九到
脏脏的宝库
超碰网站在线观看
国产精品久久久久久三级精品
色永久免费视频入口
欧美激情精品久久久久久
狼友推荐网址
别揉了…湿了动漫
久热精品在线视频
藤原yuki瓜在线观看
国际av国内aⅴ
18岁一下观看免费黄色网站