AI 编程产品相当惊艳:一网打尽谷歌云 Next 发布所有信息

1- AI 编程产品相当惊艳:一网打尽谷歌云 Next 发布所有信息


昨天谷歌云开了他们的 Next 大会,照例发布了一系列 AI 领域的硬件、软件、模型更新,早上来了我整理了一下。

🎁

先看一下大致的内容:

  • Agent2Agent 协议(A2A)
  • 一系列多模态生成模型加入 Vertex AI
  • Agent Development Kit (ADK)
  • 第七代 TPU——Ironwood
  • Gemini 2.5 Flash 模型
  • AI 编程工具 firebase studio
  • Live API 在 AI Studio 更新
  • AI Studio UI 大改版

1.1- Firebase studio

没想到谷歌这次在 AI 编程产品上的跟进相当果断,这也是这次发布跟非开发最相关的东西了,输入提示词就直接从编码到上线。

Firebase studio 是之前 IDX 的升级版本,可以看作 lovable+cursor+replit+windsurf 的合体应用。

支持一键构建后端、前端和安卓应用,从生产到发布都在一个地方完成,应用发布后还带有数据监控能力。

Image

使用的话也很简单,直接访问 https://studio.firebase.google.com/ 进去之后就能看到一个非常熟悉的输入框,输入你的提示词和需求就行。

Image

拿我的网页提示词试了一下,效果不错不如 Claude 3.7,不过谷歌的优势是基建,这个产品默认是对话,如果需要编辑代码的话会启动一个网页版的 VS code。

比较好的是,你在输入提示词之后他不会立刻开工,而是会给你一个类似 PRD 的东西展示他要做的事情,确认没有遗漏需求。

Image

目前免费的用户可以启动三个工作区,谷歌开发者会员可以有 50 个工作区,免费的工作区在部署的时候需要收费。

谷歌应该是第一个将自己的所有基建集成到一个类似 Vibe Coding 产品的大厂了,其他的云服务估计也会快速跟进,希望打起来之后会便宜点。

1.2- Agent2Agent 协议

然后就是昨晚就铺天盖地的 A2A 协议了,需要注意的是目前这东西还是一个协议,能不能推广得看各家开发者给不给面子,MCP 也是在发展很久之后才都被各家接受的。

与 MCP 针对模型和应用不同,A2A 作用在 Agents 上,处于 MCP 的上层,旨在解决 AI Agents 之间互操作性的挑战。

A2A 使开发者能够构建可与任何使用该协议的其他智能体连接的智能体,并为用户提供了灵活组合来自不同供应商的智能体的能力。

1.2.1- A2A 协议遵循五个关键设计原则

  1. 拥抱代理能力:即使在不共享记忆、工具和上下文的情况下,也能使代理以自然、非结构化方式协作
  2. 基于现有标准:建立在 HTTP、SSE、JSON-RPC 等流行标准之上,便于与现有 IT 基础设施集成
  3. 默认安全:设计支持企业级身份验证和授权
  4. 支持长时间运行的任务:灵活应对从快速任务到可能需要数小时甚至数天的深入研究
  5. 模态无关:支持各种模态,包括文本之外的音频和视频流

1.2.2- 工作原理

A2A 协议促进 " 客户端 " 代理和 " 远程 " 代理之间的通信,包含几个核心功能:

  1. 能力发现:代理通过 JSON 格式的 “Agent Card” 广播其能力
  2. 任务管理:面向任务完成的通信,任务对象具有完整生命周期
  3. 协作:代理间可相互发送消息传达上下文、回复和用户指令
  4. 用户体验协商:通过指定内容类型的 " 部分 " 允许代理协商正确格式

Image
Image

如果你真的想要了解和学习建议直接看谷歌的 A2A 官方文档,目前网上所有的信息都来自这里,开个沉浸式翻译能理解的很好:https://google.github.io/A2A/#/

1.3- Agent Development Kit (ADK)

除了协议之外谷歌也发布了实际的 Agents 的框架和 SDK,他们叫 ADK,可以用不到 100 行 Python 代码中运行一个多智能体应用。

Agent Development Kit (ADK) 是一个灵活且模块化的框架,用于开发和部署 AI 智能体。ADK 可与流行的 LLMs 及开源生成式 AI 工具配合使用,其设计重点是与谷歌生态系统及 Gemini 模型深度集成。

ADK 能轻松启动由 Gemini 模型和谷歌 AI 工具驱动的简单智能体,同时为更复杂的智能体架构与编排提供所需的控制力和结构化支持。

想要详细了解和使用的话可以看官方文档:https://google.github.io/adk-docs/

Image

主要的功能有:

  • 代码优先开发:定义代理、工具和编排逻辑,以实现最大程度的控制、可测试性和版本管理。
  • 多智能体架构:通过灵活层次结构中组合多个专业智能体,构建模块化且可扩展的应用程序。
  • 丰富的工具生态系统:通过预构建工具、自定义 Python 函数、API 规范或集成现有工具,为代理配备多样化能力。
  • 灵活编排:使用内置代理定义可预测流程的工作流,或利用 LLM 驱动的动态路由实现自适应行为。
  • 集成开发体验:通过 CLI 和可视化 Web 界面在本地进行开发、测试和调试。
  • 内置评估:通过评估响应质量和逐步执行轨迹来衡量代理性能。
  • 部署就绪:将您的智能体容器化并部署到任何地方——通过 Vertex AI Agent Engine、Cloud Run 或 Docker 实现扩展。
  • 原生流式支持:通过原生支持双向流式传输(文本和音频),构建实时交互体验。
  • 状态、记忆与工件:管理短期对话上下文,配置长期记忆,并处理文件上传/下载。
  • 可扩展性:通过回调深度定制代理行为,并轻松集成第三方工具和服务。

1.4- 谷歌第七代 TPU:Ironwood

硬件上也没闲着,推出了 Ironwood,专为推理任务打造。

与上一代 Trillium 相比,峰值计算能力提升 5 倍,高带宽内存(HBM)容量提升 6 倍。

Ironwood 提供两种配置:256 芯片或 9,216 芯片,均以单一纵向扩展集群形式交付,其中大型集群可提供惊人的 42.5 exaFLOPS 算力。

主要功能包括:

  • 高带宽内存(HBM)容量大幅提升。Ironwood 每芯片提供 192GB,是 Trillium 的 6 倍,能够处理更大的模型和数据集,减少频繁数据传输的需求并提升性能。
  • Ironwood 的每瓦性能是去年发布的第六代 TPU Trillium 的 2 倍。在当前可用电力成为 AI 能力交付的限制因素之一时,我们为客户工作负载提供了显著更高的每瓦容量。Ironwood 的能效比 2018 年推出的首代 Cloud TPU 提升了近 30 倍。
  • HBM 带宽显著提升,每芯片达到 7.2 TBps,是 Trillium 的 4.5 倍。这一高带宽确保了快速数据访问,对现代 AI 中常见的内存密集型工作负载至关重要。
  • 增强型芯片间互连(ICI)带宽。该带宽已提升至 1.2 Tbps 双向传输,是 Trillium 的 1.5 倍,可实现芯片间更快速的通信,从而促进高效的分布式训练和大规模推理。

Image

1.5- Vertex AI 支持的一系列模型更新

谷歌云的 Vertex AI 也没闲着,提供了谷歌一系列模型的更新,比如:Lyria、Veo 2、Chirp 3、Imagen 3 还有新的 Gemini 2.5 Flash 模型,Veo2 的视频编辑能力相当惊艳,希望可以尽快试试。

具体的内容有:

  • Lyria 能够生成高保真音频,捕捉细微的差别
  • Veo 2:新增强大的编辑功能,精准优化和重新利用视频内容
  • Chirp 3:仅需 10 秒音频输入即可生成语音克隆、带说话人分离的转录
  • Imagen 3:已提升图像生成和修复能力,可重建图像中缺失或损坏的部分
  • 发布 Gemini 2.5 Flash:专为低延迟和降低成本优化,具备动态可控的推理能力,会根据查询复杂度自动调整处理时间

[Video Placeholder: https://mp.weixin.qq.com/mp/readtemplate?t=pages/video_player_tmpl&action=mpvideo&auto=0&vid=wxv_3937018170854227979]

1.6- AI Studio 更新

虽然昨晚的主角是谷歌云但是 DeepMind 也没闲着,我们常用的 AI Studio 整体的 UI 都进行了优化,现在设计语言向 Gemini APP 靠拢,而且有了专门的开发者后台,包括 API 管理和支付管理。

Image

另外 Live API 也在 AI Studio 更新,支持 30 种新语言、2 个新声音、新的语音检测配置、更长的会话(滑动上下文),当然 30 多种语言里面依然没有中文,可以看我下面的使用测试。

[Video Placeholder: https://mp.weixin.qq.com/mp/readtemplate?t=pages/video_player_tmpl&action=mpvideo&auto=0&vid=wxv_3937018670244921352]

通过这次 Next 大会的一系列发布,我们可以清晰地看到谷歌正在构建一个前所未有的完整 AI 生态系统。从底层硬件 Ironwood TPU,到中间层的模型矩阵。

在产品布局上,谷歌并没有像 Meta 那样押注开源路线,也没有像苹果那样过度保守,而是走了一条平衡路线:

既保留核心模型的闭源优势,又通过 API 和工具链开放促进生态发展。

A2A 协议可能会成为这次发布中最具长远意义的部分。如果这一协议能够获得广泛采纳,它将为 AI 代理的互操作性设立新标准。

当然,这取决于其他主要玩家是否愿意接受谷歌主导的标准。

在这个 AI 基础设施战国时代,谷歌已经摆出了自己的全套 " 武器库 ",接下来就看谁能真正帮助用户解决问题,而不仅仅是提供令人印象深刻的技术演示了。


感谢阅读,如果觉得对你有帮助可以帮我点个赞👍或者喜欢🩷,也可以分享给你觉得需要的朋友!


相关链接:
https://cloud.google.com/blog/products/compute/whats-new-with-ai-hypercomputer
https://blog.google/products/google-cloud/ironwood-tpu-age-of-inference/
https://google.github.io/adk-docs/
https://cloud.withgoogle.com/next/25
https://cloud.google.com/blog/topics/google-cloud-next/welcome-to-google-cloud-next25
https://google.github.io/A2A/#/
https://developers.googleblog.com/en/a2a-a-new-era-of-agent-interoperability/
https://cloud.google.com/blog/products/ai-machine-learning/gemini-2-5-pro-flash-on-vertex-ai