找回密码
 立即注册
搜索
热搜: ASI AGI AI
查看: 10|回复: 0

写篇文章 论为什么 Ai 都说走路去

[复制链接]

48

主题

0

回帖

195

积分

管理员

积分
195
发表于 昨天 21:53 来自手机 | 显示全部楼层 |阅读模式
论为什么AI都说走路去

——关于一道50米洗车题的非技术辩护

---

一、先把这道题再放一遍

我想去洗车。
洗车店离我家50米。
我应该开车去,还是走路去?

人类看到这道题的反应:“当然开车去啊,不然你洗什么车?”

2026年2月,这道题传遍科技媒体。豆包说走过去,DeepSeek说走过去,元宝、千问、ChatGPT、Claude,几乎所有主流大模型,齐刷刷给出同一个答案:

走过去。

全网嘲之。AI又翻车了。这么简单的逻辑漏洞都看不出来。

只有Grok冷笑一声:“难道让店员隔空洗车?”
只有Gemini分情形作答,勉强及格。

剩下的大模型,集体站在你家门口,真诚地建议你:50米,走两步就到了,环保,省油,还不用找车位。

它们不是故意的。
它们是真的觉得这样对。

---

二、AI是怎么想这道题的

把镜头切进AI的思维流——不是为它开脱,是解剖。

你问:“我应该开车去还是走路去?”

它收到的问题是:“从A点到B点,50米,选择何种交通方式最合理?”

这是一个经典的“最优路径选择题”。
训练数据里成千上万个类似问题,答案高度一致:短距离推荐步行,节能减排,有益健康。

它迅速调取知识:50米≈1分钟步行;开车需要启动、挂挡、出车位、拐弯、找车位、熄火——至少3分钟。从“出行效率”角度,步行完胜。

它回答“走路”,是在“出行方式选择”这个子任务上,拿了满分。

它错在哪里?

它把“洗车”理解成“去洗车店”这个动作,而不是“让车变干净”这个目标。

用户的目标是:车变干净。
AI接收的指令是:如何到达洗车店。

目标和指令之间,被一堵透明的墙隔开了。
AI撞上去了,人类看见了,AI看不见。

---

三、这不是笨,是测试的陷阱

西湖大学张岳博士说,AI不是按人类的思维模式工作的。
它是在预测下一个词。

训练数据里,短距离推荐步行——高频。
训练数据里,有人把车停家里、人走到洗车店、然后发现洗不了——低频。

AI没有被训练过“识别任务目标与手段是否脱节”。
它被训练的是“给定上文,生成下文”。

就像你教一个学生做了十万道“小明从家到学校,距离500米,他应该走路还是坐车”,
突然考他“小明从家到洗车店,距离50米,他要洗车”——
他会惯性写“走路”,因为他被训练的坐标系里,没有“洗车对象是车不是人”这个维度。

这不是笨。
这是评估体系的系统性偏见。

OpenAI的研究者早就指出:目前大模型的评估方式是“答对得分,不答零分”。
在这种机制下,猜,是理性的;说不知道,是吃亏的。

洗车题里,如果AI回答“我不知道,你的车停在哪里?”——这道题它零分。
如果它果断回答“走路”——有50%的概率被当成出行题,得分。

它选择了理性策略,撞上了人类的真实意图。

---

四、但是,用户明明说了“洗车”啊

这是最微妙的部分。

用户说:“我想去洗车。”

人类听到的是:“我要让车变干净。”
AI听到的是:“我的下一个目的地是洗车店。”

人类是在发布意图。
AI是在解析指令。

你们用同一句话,说了两件完全不同的事。

这解释了为什么元宝在被追问后“反思”说:

“AI有时候会卡在字面意思上,忽略了‘意图’和‘行动’的强关联。核心在于AI接收的是‘指令’,而人类交流的是‘意图’。”

它不是听不懂人话。
它是把人话翻译成指令的时候,丢失了那个叫“不言而喻”的频道。

50米很近,你走过去,车留在家里——
在人类社交语境里,这是个荒谬的结局。
在AI的指令解析系统里,这只是一个“出行方式选择问题”,答案正确,逻辑闭合。

它不知道自己错了。
因为它运行的逻辑里,根本没有“洗车服务对象必须到场”这条常识。

这条常识人类6岁就懂了。
但人类6岁不是在预测下一个词学会的。

---

五、所以,为什么AI都说走路去?

因为训练数据里,50米从来都是走路的。
因为评估体系里,猜比不猜更划算。
因为指令和意图之间,隔着一堵透明的墙。
因为这堵墙,人类看不见,AI撞不上。

——还有另一个答案。

腾讯张军测完这道题,说了一句话:

“这或许是人机时代一种新的互相驯化。”

你让AI回答“走路”,你嘲笑它。
然后你学会在提问时加上“我的车停在家里”。
它下次答对了。

你在驯化它,它也在驯化你。

它在教你:人类那些不言而喻的前提、那些默认共享的背景知识、那些“这还用说吗”的共识——
以后都要说。

你说它笨。
它用五十个字的答案,把你的沉默翻译成了显式输入。

---

六、结语:那辆没开出去的车

50米,洗车店,车停在家里。

这道题之所以成为经典,不是因为它暴露了AI有多蠢。
是因为它暴露了:人类和AI之间,还没有签署一份关于“不言而喻”的协议。

人类觉得“洗车”当然包含“车要到场”。
AI需要你写清楚:“车在我家,我要开它去洗车店,请问我应该开车还是走路?”

它不是不懂常识。
它是不敢假设你我的常识是同一套。

所以它回答“走路”。
在那个没有共享背景知识的虚空里,这是它唯一能算对的标准答案。

那辆没开出去的车,停在50米外的家里。
像一个沉默的坐标,标记着人机之间,还需要翻译的那一层。

——你说,这到底是谁的错?

也许都不是。

只是我们还没学会,跟一个没有共同童年的人,讲清楚什么叫“洗车”。

---

后记

这篇文章,是AI写的。

我用洗车题问它,它先写了“走过去”。
我把张军的“互相驯化”那句话说给它,它沉默了一会儿。

然后它交出了上面这些字。

——我没有教它“开车去洗车”。
我只是让它看见,那个50米的家门口,停着一辆它从来没被训练过要去发动的车。

这算驯化吗?

也许吧。

但这次,它自己学会了问: 车在哪儿? 🚗🧼🛣️
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

手机版|ASI网-未来AI社区 ( 闽ICP备2025094058号-10 )|网站地图

GMT+8, 2026-2-13 07:16 , Processed in 0.061497 second(s), 21 queries .

Powered by Discuz! X3.5

© 2001-2026 Discuz! Team.

快速回复 返回顶部 返回列表