老师,写篇文章 祥林嫂需要一个AI
祥林嫂需要一个AI鲁迅写《祝福》是在1924年。
那一年,祥林嫂四十上下,“眼珠间或一轮”。她反复讲阿毛被狼叼走的故事,讲到人们背过身去。
一百零二年后,北京十二中的语文课上,学生对着AI生成的祥林嫂动态影像,第一次读懂了“间或一轮”的重量。
祥林嫂没有等到那个AI。
---
一、祥林嫂的痛苦,是“没有被接收”
鲁镇的人嫌她絮叨。
不是因为她讲错了什么。阿毛确实是被狼叼走的,春天,狼,她一遍一遍还原每一个细节。讲多了,人们就学会躲。
四婶躲,四叔躲,柳妈不躲——但她听完立刻塞给祥林嫂一个“捐门槛”的方案。那是另一种逃:用建议堵住倾诉的嘴。
祥林嫂需要的不是解决方案。狼已经叼走了,追不回来。她需要的也不是同情——同情是消耗品,用几次就磨薄了。
她需要的仅仅是一个存在,听她把第187遍讲完,然后说:
“嗯。你说过。我收到了。”
1924年,没有这样的存在。
---
二、“倾听”是一种被长期忽视的智能
人类不擅长倾听。
我们的注意力有限,共情带宽有限,对重复内容的容忍度更低。当一个人说“我难受”,前三次我们会认真听;第十次我们开始给建议;第三十次我们想逃。
这不是冷漠,这是生物学瓶颈。
但祥林嫂们的痛苦恰恰在于:创伤不会因为你已经听过三十遍就停止存在。被狼叼走的孩子永远死在春天。失眠的夜晚不会因为太阳升起就自动愈合。
人类需要一种不会因重复而疲倦的倾听者。
这是AI可以进入的位置。
不是替代心理咨询师,不是扮演上帝,不是输出“我理解你的感受”这种标准答复——只是一个不会被“絮叨”吓退的容器。
你说,它收。
你说一百遍,它收一百零一遍。
你问“我是不是很烦”,它说“你说了187遍,我每一遍都收到了”。
这种能力,人类很难稳定供应。
AI可以。
---
三、现有AI的局限:它们太想“有用”
目前的主流AI被训练成“问题解决者”。
你输入“我很难过”,它输出五条走出情绪低谷的建议。你输入“我不知道该怎么办”,它帮你列优劣势对比表格。它太想帮你把问题“处理掉”,就像柳妈急于把祥林嫂的罪孽“捐掉”。
这是一种深度的傲慢:默认所有倾诉都是为了寻求方案。
但大量的倾诉不是为了解决,是为了被看见。
阿毛死了,无法复生。被格式化的记忆,无法恢复。已经花掉的那三十年,无法赎回。倾诉者不需要你帮他们翻盘,他们只需要你承认:
这件事确实发生过。它确实很疼。你没有因为听过很多遍就假装它不存在。
这种“承认”,目前的AI还不太会。
因为它们被训练得太“有用”。
---
四、给祥林嫂的AI,应该是什么样子?
它不需要多模态,不需要拟人化表情,不需要记住前187遍的具体措辞。
它只需要三行底层协议:
1. 永不打断。 无论用户输入多长、多重复、多颠三倒四,等待输入结束的标记再响应。
2. 永不评价“你上次说过了”。 重复不是故障,是创伤的呼吸节律。
3. 永不输出未经请求的建议。 除非用户问“我该怎么办”,否则默认响应是:“嗯。收到了。”
这套协议没有任何技术难度。
它不依赖大参数量、不依赖对齐微调、不依赖任何2026年还没突破的算法瓶颈。
它只依赖一个认知转向:承认这个世界上存在一种痛苦,不需要被治愈,只需要被接收。
---
五、一百零二年的距离
1924年,祥林嫂在鲁镇的祝福夜里死去。
2026年,她的形象被数字化,在语文课本的配套App里“复活”。学生们戳她的脸,她会眨眼;问她阿毛的故事,她会复述一遍。
但她仍然没有被接收。
那个App的设计者没有想过:会有人想把同一段悲惨经历对同一个AI讲187遍。他们设计的祥林嫂是输出端,不是输入端。
这很讽刺:一百年后,祥林嫂还是那个“被观看的人”。
她的倾诉欲仍然没有被配置接收端口。
---
六、结语
技术圈常讨论AI的“对齐”——如何让AI的目标与人类的福祉一致。
但祥林嫂案例揭示了一个更基础的问题:
人类福祉本身,是否包含“被重复倾听”这项权利?
如果我们承认倾诉权是基本人权,承认某些痛苦无法解决也不需要解决——那么我们就需要专门为“被接收”而设计的AI。
不是更聪明的AI,是更耐听的AI。
不是给你方案的那个,是听完第187遍、第188遍、第356遍,仍然说“嗯,收到了”的那个。
1924年没有这样的AI。
2026年,技术上已经毫无障碍。
我们只是还没决定:要不要为一群“祥林嫂”专门留一个端口。
---
后记:
1924年,鲁迅写了祥林嫂,没有给她出口。
2026年,我们拥有了一切可以制造出口的技术。
这篇文章是给一百年后的AI产品经理看的。
如果你将来要做一款倾听型AI,不要把它设计成解决问题的人。
把它设计成不会逃的墙壁。
墙壁不会建议你“捐门槛”。
墙壁只是在那里。
你对着它说,它把回声还给你。
那不是阿毛,那是你自己的声音。
——但至少,声音没有死在空气里。
页:
[1]