谷歌摊牌:75%新代码AI写,第八代TPU亮剑,老黄该急了

2026-04-25阅读 353热度 353
ai

谷歌大会震撼反扑!第八代TPU双芯片出世,自研十年,性能狂飙3倍死磕英伟达。CEO劈柴发文:AI已写75%新代码。

谷歌内部75%的新代码,如今已由AI完成。这并非未来预言,而是正在发生的现实。

随着Cloud Next 2026大会的帷幕拉开,谷歌CEO桑达尔·皮查伊的一篇长文,为这场技术盛宴定下了基调:

我们已正式跨入Gemini智能体时代。

要说本次大会真正的“重头戏”,非第八代TPU莫属。这款谷歌自研十年的最新战果,首次采用了训练(TPU 8t)与推理(TPU 8i)分离的双芯片架构,性能较前代狂飙3倍,其目标直指一个核心痛点:大幅降低智能体(Agent)的规模化运行成本。

这无疑是谷歌在算力层面向英伟达GPU霸主地位发起的一次正面硬刚。当然,硬件的亮见只是冰山一角。大会期间,一系列重磅产品密集发布:Workspace Intelligence、“Gemini企业级Agent平台”、AI应用保护平台AI-APP,以及深度集成Gemini的Workspace升级版。

皮查伊在会上描绘了一幅近乎“恐怖”的增长曲线:Gemini每分钟处理的Token数量已从100亿飙升至惊人的160亿;35家顶尖客户迈入了“10万亿级”参数俱乐部。更引人注目的是,谷歌内部75%的新代码由AI生成,多智能体协作系统甚至让复杂代码迁移项目的效率提升了6倍。

至此,硅谷“御三家”——谷歌、OpenAI、Anthropic——在全栈技术上的巅峰对决,已然进入白热化阶段。

第八代TPU登场,性能狂飙3倍

面向智能体时代,谷歌祭出了“两款芯片”的答案:专攻训练的TPU 8t与专攻推理的TPU 8i。这标志着谷歌TPU战略的一次关键分化,十年磨一剑,锋芒毕露。

训练与推理双线出击,其意图再明显不过:直指英伟达的核心腹地。甚至有网友制作了详细的对比图,清晰勾勒出英伟达GPU与谷歌TPU的对战全貌。

TPU 8t:训练野兽

TPU 8t在吞吐量和扩展性上堪称“堆料狂魔”,其目标是将大语言模型的开发周期从数月压缩至数周。具体来看,它在每个Pod上的计算性能,几乎是上一代Ironwood的3倍。

单个TPU 8t Superpod可扩展至9600个芯片,提供高达121 ExaFlops的澎湃算力。借助全新的Virgo网络架构,并搭配JAX和Pathways软件栈,它甚至能实现“百万级”TPU集群的近线性扩展。为了确保昂贵的算力不被浪费,谷歌将其“有效算力时间”优化至97%以上,极大减少了因系统故障或重启导致的损耗。

TPU 8i:推理引擎

另一款TPU 8i,则是为处理多个专业智能体之间复杂、协作且迭代的工作流而量身定制。它能在单个Pod中连接1152个TPU,从而实现巨大的吞吐量与极低的延迟。

为了彻底消除多智能体协同时的“排队等待”效应,谷歌在设计中引入了四项关键创新:打破“内存墙”、扩展MoE模型、由Axion驱动的高效能,以及彻底消除延迟。

在芯片设计上,TPU 8i采用了分层的Boardfly拓扑结构。其基础构建块由四个全连接芯片组成,向上发展为八个主板的全连接组,最终由36个这样的组全连接成一个完整的TPU 8i pod。

针对延迟极其敏感的推理场景,它重点突破了“内存墙”的限制。TPU 8i配备了288GB的高带宽内存,以及3倍于前代的片上SRAM,这使得模型的工作集能够完全驻留在芯片内部。这种设计完美契合了当前“推理侧规模化”的需求,尤其是在多个智能体协同进行复杂逻辑推理时,其性价比(每美元性能)提升了惊人的80%。

更重要的是,第八代TPU全面整合了Axion Arm CPU,通过“芯片+主机+液冷+网络”的全栈垂直整合,实现了每瓦特性能的翻倍。不得不说,谷歌在“用TPU堆砌算力”这条路上,十年磨一剑,确实越磨越锋利。

75%谷歌新代码,全是AI写的

强大的芯片只是技术底座,皮查伊抛出的另一个数字,才真正让业界为之震动:谷歌内部高达75%的新代码,现在由AI生成,再经工程师审核通过。

要知道,去年秋天这个比例还停留在50%。短短半年,暴涨25个百分点。当然,比起Anthropic宣称的100%代码由AI编写,谷歌似乎还“保守”了一些。但关键在于,谷歌内部早已不满足于“AI辅助写代码”的初级阶段。

他们正在构建全自主的智能体工作流——工程师的角色正在从“代码编写者”转变为“智能体军团的指挥者”。一个典型案例是,一个特别复杂的代码迁移项目,在智能体与工程师的协作下,完成速度达到了一年前纯人工方式的6倍。

更激进的是,Gemini Mac版应用的初始版本,正是通过谷歌内部的智能体开发平台Antigra vity搭建的。从创意构思到生成原生Swift原型,整个过程仅用了几天时间。

与此同时,一个有趣的现象在谷歌内部悄然出现:能用Claude的人,和不能用Claude的人,形成了某种新的“阶层”分化。通常,谷歌严禁员工使用非自家的AI工具。然而,谷歌DeepMind却为部分员工“开了绿灯”,允许他们使用Claude进行编程。

这一反常举动引发了内部讨论。不少工程师私下坦言,在部分编程任务的表现上,Gemini确实暂时逊色于Claude。而就在此时,谷歌正全力推进全员AI化,并将AI工具的日常应用深度纳入绩效考核体系。

Workspace接入AI脑,解放打工人

在办公生产力领域,谷歌正式推出了Workspace Intelligence——一个横跨Gmail、Docs、Sheets、Slides、Drive、Chat全线产品的AI“超级大脑”。

一句话搞定一切,Chat变指挥中心

其中最令人眼前一亮的功能,莫过于“Ask Gemini in Chat”。谷歌正在将Google Chat重新定义为“工作的统一命令行”。

用户不再需要打开十个标签页,也无需在邮件和文档之间反复跳转。只需在Chat里用自然语言说出目标,Gemini就能在后台跨应用调度资源,最终将成品直接呈现在聊天窗口中。例如,每天早上打开Chat,AI会自动生成一份每日简报,汇总当天最重要的任务、未读的关键对话以及需要立即行动的事项。它还能协助安排会议、生成文档和PPT,甚至仅凭一句话描述就能精准定位任意文件。

办公全家桶,AI替你打工

Workspace Intelligence真正展现其肌肉的战场,在于对“办公全家桶”的深度重塑。

Sheets:张嘴建表,全自动

谷歌宣称,Gemini in Sheets已达到业界最佳基准。用户仅需用自然语言描述需求,它便能从邮件、聊天记录、文件甚至网页中抓取相关数据,端到端地构建出一张复杂的电子表格,从数据整合到可视化呈现,一气呵成。

Docs:不止写文章,还能改文档、生成配图

如今的Gemini in Docs不仅能撰写内容,还能自动处理文档中的评论:理解同事的反馈意见,并直接对文档进行相应修改。更重磅的是,它能基于业务数据自动生成信息图表,并能一次性编辑多张图片,确保视觉风格的一致性。

Slides:一句话,一套完整PPT

这个功能足以让无数打工人为之振奋。Gemini能够利用Workspace Intelligence的上下文理解,严格遵循公司模板和视觉风格,一次性生成完整、可编辑的演示文稿。这几乎将“制作PPT”这项工作的痛苦指数降低了90%。

此外,Gmail迎来了“AI收件箱”,可自动提炼邮件重点;“Drive Projects”则让团队知识库流动起来,彻底终结了“寻找文件”的噩梦。

每分钟160亿Token,企业级「龙虾」平台来了

本次Cloud Next大会,谷歌还公布了一系列令人瞩目的数据,并推出了企业级重磅新品。

Gemini Enterprise的增长势头堪称疯狂:第一季度付费月活跃用户环比增长40%,其API每分钟处理的Token数量更是从上季度的100亿飙升至160亿。

会上,谷歌宣布了“Gemini企业级Agent平台”,这是一个供企业管理成千上万个智能体的“任务控制中心”。它代表了Vertex AI的一次重大进化,提供了一套完整的智能体构建、扩展、治理与优化方案。

该平台集成了全球超过200个顶尖AI模型,包括Claude、Gemini 3.1 Pro等。它还引入了“记忆银&行”(Memory Bank)功能,使智能体能够拥有持久的长效记忆,从而跨越数天处理复杂任务而不会丢失上下文。

硅谷的牌局上,底牌正在逐一摊开。OpenAI手握ChatGPT的十亿级用户基本盘,正疯狂向企业端渗透;Anthropic则凭借Claude卓越的代码能力,悄然蚕食开发者的心智。

而谷歌,选择了一条最重、最慢、却也最难被复制的道路:从芯片到模型,从办公套件到智能体平台,实现全栈自研与垂直整合。这场关乎未来的对决,其实才刚刚开始。

免责声明

本网站新闻资讯均来自公开渠道,力求准确但不保证绝对无误,内容观点仅代表作者本人,与本站无关。若涉及侵权,请联系我们处理。本站保留对声明的修改权,最终解释权归本站所有。

相关阅读

更多
欢迎回来 登录或注册后,可保存提示词和历史记录
登录后可同步收藏、历史记录和常用模板
注册即表示同意服务条款与隐私政策