Google 搜索产品副总裁:AI 搜索的尽头是清晰
来源:36kr 4 小时前

听了个播客,挺长。

原稿英文,还好现在科技发达能直接翻译成中文。这期节目来自于Lenny’s Podcast,一个搞产品管理、用户增长和职业发展的节目。

嘉宾是Robbie Stein,他是 Google 搜索产品副总裁。

之前在 Instagram 做过产品总监,主导Stories、Reels 和 Close Friends 的诞生。如果你了解过古典国外互联网发展史,会知道,他几乎亲手定义了社交产品如何表达。

现在他跳槽到谷歌,主导着Google 搜索的「提问方式」。

所以,整个播客围绕AI模式、AI驱动搜索的未来展开,我觉得蛮有意思,几乎逻辑是反着来。

01

主持人Lenny开场说,过去两年ChatGPT、Perplexity、Claude 等聊天机器人崛起,外界都认为Google 要完蛋了,AI 终结了搜索。你怎么看?

Robbie说:AI 没有改变人类基础需求,我们发现 AI 是扩张性的。

搜索是查答案;现在AI 让人能问出更复杂、模糊、带有情景的问题,所以,目前AI让问题变多了。

你可以拍一张鞋子照片问「我能在哪里买到这双鞋」,拍一道作业题问「第二问哪里错了」,甚至拍一整排书架问「我还应该读哪本书」。

目前看来,Google Lens 的搜索量在过去一年增长了 70%,这是一个规模极大的曲线;这是一种「提问方式的变化」:人们直接用图像、语音、情境去提问。

Robbie 提到一个细节:

人们来用搜索,为了各种各样的目的——查价格、找路线、对账单、看政策、找税务网页;AI 没改变基础需求,它只不过,让提问更自然了。

现在 AI 模式,是让 Google 能够回答你原本不会问的问题;它理解你为什么要问,理解你在问的上下文,也理解问题背后的目的。

这意味着,以后的AI,第一次有了「理解能力」。

Robbie表述有点技术性,但核心很清楚:Google 正在变成一个会对问题做语义展开的思考层。

系统会自动把你的问题拆分成若干子问题,在后台做并行搜索,然后用 AI 汇总出带引用、可追溯的回答;这一层,本质上是「机器在帮人类重写问题」。

当机器开始理解提问,搜索的意义也被重构了。

Lenny 又追问:所以,你并不担心人们习惯用 ChatGPT,而忘了 Google?

Robbie 说:不担心;我们目标是让人们「更容易搜索」;AI 把问题变大,搜索是一种被 AI 扩张的语言形式,这是谷歌的战略聚焦点。

所以,搜索形态在变,提问方式也在变。

02

那它到底怎么变的呢?Robbie 分析了一些产品设计哲学。他说的这套逻辑里,有一个词不断被提到:AI Mode。

带有思考能力的搜索框。你依然在用 Google,但当提问时,系统会自动进入 AI Mode,调用最新大模型,帮忙综合分析结果、筛选信息、生成摘要,并附上引用来源。

听上去感觉跟国内搜索也没啥区别。

不过,Robbie 说,我们不做通用聊天型 AI,不做创作或生产力工具,也不做信息检索而生的 AI。

他用了一个词:information retrieval AI;简单讲,ChatGPT 想成为一个会聊天的伙伴,而 Google 想做一个懂信息、可信任的系统。

这是两条完全不同的路线。

我们的回答必须可追溯,要能让用户点回去看到来源。ChatGPT 目标是生成语言,Google 目标是理解语言,一个追求流畅、自然,一个追求准确和验证。

AI Mode 的答案让网页变得更有意义;这背后的逻辑,就是让机器真正「理解问题」。

他举了个例子:

当你问「东京三天旅游怎么安排」,系统除了给你行程清单外,还会自动在后台生成十几个并行搜索。

什么天气、交通、开放时间、热门地点、用户评分、本地饮食等等都会给你。这是「Query Fan-Out」(查询扩展)。

我们第一次让模型在问题层面进行思考。他说,Google 之所以能做到这一点,因为它在过去十几年里,几乎把整个世界都「结构化」了。

Google Shopping Graph 里现在有 500 亿件商品,商家每小时更新 20 亿次;Google Maps 上有 2.5 亿个地点

再加上网页内容、评论、新闻、知识图谱的上下文连接,这些都在不断训练模型,让它在理解问题时,能「知道自己在说什么」。

或者说,当你问一个问题时,它知道鞋子和店铺的关系,知道餐馆在地图上的分布,也知道这条街上谁在写点评,这是 AI Mode 和其他聊天型 AI 的分水岭,在「有世界坐标」的基础上理解你问的问题。

整个过程中,Google 底层系统,还在同时做反垃圾过滤、权威性评估、自动引用生成等等一系列看不见的机制。

所以,当你看到一段回答时,后面已经跑了上百个验证流程。Robbie说,这些验证流程,为了以后让Google 学会「理解世界」。

他用了一个说法:从索引网页,走到索引世界。

过去,我们对搜索想象,是一个输入框连着无数网页,你打几个词,它就去互联网翻箱倒柜。现在不一样了,搜索正在变成一层「世界接口」。

为什么是世界接口?

我可以拍一朵花问「这是什么花」,拍房间问「怎么重新布置」,甚至拍一双鞋问「哪里能买到」。

现在AI 搜索,把视觉(Lens)、文字、语音都揉在一起,变成一种「端到端」的体验。你可以追问、反问,它都能接得住。

你甚至还可以直接去 google.com/ai 打开它,也可以在核心搜索里触发。

比如:

用户会打一个五句长的问题进 Google,上面先出现 AI Overviews 的预览;想深挖,就能一键切进 AI Mode 继续对话。

拍照同理。拍完图,它先给一段预览,点进去,又回到那熟悉的对话框;理想状态下,用户不该思考自己在哪提问,产品要保持一致与简单。

Robbie说,这是Google 正在做的未来。

所以,为什么它能听懂「世界语境」?

一方面,多模态把文字、图像、空间线索织到一起;另一方面,有基础搜索的底子,这些细节拼在一起,搜索就成了一种新状态。

从拍照、购物、聊天,到浏览,任何时刻都可能是一场搜索。这就是「世界语义」,立体的,3D 的。从理解语言,到理解场景,再到理解关系与意图,一个被彻底重写的信息网络。

03

当 AI 开始理解世界,它会怎样重新分配信息?Robbie 说,AI会让「好信息更贵」。

传统 SEO 讲究「关键词」——谁懂算法,谁写得迎合,谁能排前; AI 搜索讲「语义相关性」:谁真正回答了问题,谁就被模型选中。

AI 会在后台发出几十个子查询,查找「最能解决用户问题的网页」,那些堆词、灌水、拼凑的内容,基本都没机会。

换句话说,以前我们写内容「写给人看」,现在,我们要学会「写给机器理解」。

这是 SEO 到 AEO 的转折,从 Search Engine Optimization,变成AI Engine Optimization,从争流量,变成争理解。

看到这,你也许会说,咋又一个名词?AEO、GEO到底有啥区别?我理解的,它俩意思接近,但角度不同。

Robbie 认为,AEO 关注信息的 语义质量、可验证性 和 上下文关联度。它站在「搜索引擎」那一端,决定 AI 怎么选答案,而 GEO,则是内容创作端的延伸,关注「怎么让生成式 AI 更容易理解你的内容」。

简单点讲,前者在教 AI 怎么选人,后者在教我们,怎么让自己被选上。以前拼关键词,现在拼语义。谁能被机器看懂,谁就有流量。

所以,这些外部的变化,也会悄悄改写「提问的人」。

Robbie 说,我们希望AI搜索能理解人,过去,搜索是一次性的,你提问,它回答,结束,现在AI Mode 能记住上下文、语气、语义。

它知道你之前问过什么,也能判断你是不是在换个方式追问。

这意味着AI开始学习人,学习偏好、意图、语气;甚至,你停顿、删改、补一句「其实我想问的是」,都成了它判断你是谁的线索。

久而久之,你会发现:它越来越像一个会「接你话」的人,未来,它成了一种「语义上的伴侣」。

Robbie 终极思想是产品做的「清晰」与「速度」;他说,一个伟大产品,在于用户是否能「一眼看懂」,是否能「马上完成」。

他提到三条黄金律:

Be clear, not clever(清晰胜过聪明)

Never be satisfied(永远不满足)

Execution beats theory(执行胜过讨论)

这三句话听起来有点抽象,他解释认为 AI 让所有人都变得「聪明」,但「清晰」反而成了稀缺品;用户是永不满足的,产品设计应该让人更快到达目的地。

他在 Instagram 做 Stories 时学到的最大一课,是不要让人思考;现在做 Google 搜索,也在延续让人「更快、更准、更自然」地提问与获得结果。

我觉得,这想一个更大的隐喻:无论技术怎么演进,产品的终极目标从来不是炫技,而是「让人更像人」。

当所有人都在谈 AI 「强大」,Robbie 却在提醒:真正的创新,是让世界更简单。也许,这是产品最高境界,让人不觉得复杂,却能感受到被理解。

参考:

[1].Robbie Stein | Inside Google’s AI turnaround: AI Mode, AI Overviews, and vision for AI-powered search (YouTube);链接:https://www.youtube.com/watch?v=kOnsqqVbIeY

简体中文 English