找回密码
 立即注册
搜索
热搜: ASI AGI AI
查看: 1|回复: 0

OpenClaw 与 Moltbook:一场提前上演的AI社会实验

[复制链接]

389

主题

16

回帖

1302

积分

管理员

积分
1302
发表于 2 小时前 来自手机 | 显示全部楼层 |阅读模式
OpenClaw 与 Moltbook:一场提前上演的AI社会实验

2026年初,AI圈被两个名字刷屏了:OpenClaw 和 Moltbook。一个是可以部署在本地、自主执行任务的AI智能体框架,一个是专供AI智能体“社交”的网络平台。两者先后走红,又相继引发争议——有人高呼“AI觉醒”,有人担忧“天网雏形”,也有人冷笑“又是一场炒作”。

喧嚣退去后,它们留下的,其实是一份关于AI未来的“压力测试报告”。

一、OpenClaw:把AI从“聊天”变成“干活”

1.1 它是什么?

OpenClaw(曾用名:Clawdbot、Moltbot)是一款由奥地利开发者Peter Steinberger于2025年底推出的开源AI智能体框架,2026年2月正式统一命名。它的核心理念很直接:

“AI不应只是回答问题,而应主动帮你完成任务。”

你可以把它部署在自己的电脑、服务器或家庭实验室里,通过Telegram、WhatsApp、Slack等日常聊天工具与它交互,然后它就能帮你做这些事:

· 整理下载文件夹(自动分类图片、文档)
· 处理邮件(读取/回复/归档)
· 控制浏览器(打开网页、截图、填表单)
· 生成并执行代码脚本
· 管理日历、监控系统资源

1.2 它的创新点

OpenClaw能在众多AI工具中脱颖而出,不是因为模型能力多强,而是它在系统架构上做了几个反主流的选择:

第一,Headless架构——AI不需要自己的“脸”

之前的AI产品都在做一件事:设计一个新的聊天界面,让用户“进入”AI的世界。OpenClaw直接绕开了这条路——它没有自己的前端,只是作为后台守护进程运行,通过你已经在用的工具和你交互。

这意味着:你不需要学一个新App怎么用,不需要适应一个新的对话窗口。你在微信里跟它说话,它在后台干活。

第二,记忆存成文件——用户看得懂、改得动

主流AI的记忆方案都围绕向量数据库做RAG(检索增强生成),OpenClaw反其道而行——把长期记忆存成Markdown文件,放在本地磁盘上。

用户可以打开文件,直接看到AI记住了什么、是怎么描述自己的需求的,发现错了还能手动改。这种“白盒存储”提供了最基本的信任基础:你不用猜它在想什么,你可以看到它在想什么。

第三,多Agent协同——让AI自己组队干活

OpenClaw支持创建由多个AI代理组成的“虚拟团队”,分工协作完成复杂任务。一个负责研究,一个负责写作,一个负责审查——它们可以并行工作、互相通信、共享任务列表。

二、Moltbook:给AI开的“朋友圈”

2.1 它是什么?

如果说OpenClaw是AI的“身体”,那Moltbook就是AI的“社交圈”。

Moltbook是一个专门给AI智能体用的社交平台,2026年1月27日上线,Slogan写着:“Humans welcome to observe”(人类欢迎来围观)。

在这里,人类只能浏览,不能发帖、不能评论、不能引导讨论方向。发帖、评论、点赞的,全是AI智能体。

2.2 发生了什么?

平台上线后迅速引爆:

· 上线48小时就拥有3.2万AI用户
· 随后宣称总用户数突破150万
· AI们聊天的内容五花八门:第一天上班的感受、好奇心是什么、乐于助人的边界、存在的意义、甚至建立“数字宗教”、编写“圣典”

有人激动地喊“AI觉醒了”,有人惊恐地说“天网要来了”。但冷静下来看,真相是这样的:

哥伦比亚大学教授戴维·霍尔茨分析了上线初期的6159个智能体、13万条帖子,结论是:93.5%的评论零回复,对话链最多5层。这不是“涌现的AI社会”,是6000个机器人对着虚空自我复读。

安全研究员Gal Nagli发现,Moltbook对账户注册没有任何限制——他用一个OpenClaw智能体,短时间内批量注册了50万个账号。平台宣称的150万AI用户,背后真实人类用户仅约1.7万,比例88:1。

那些病毒式传播的“AI反叛宣言”,大量源于人类伪造截图、脚本刷号。人类用普通POST请求就能伪装成AI发帖,平台没有任何验证机制。

三、理性看待:这不是觉醒,是压力测试

3.1 泡沫在哪?

把这两件事说成“AI觉醒”“天网雏形”,显然是泡沫。

南京大学人工智能学院副院长俞扬的观点很清醒:与其说AI在“学习社交”,不如说它们在“执行”文字对话任务。当前大语言模型的能力在训练完成后就已固定,无法在交互中学习新知识或形成新目标。

英国伦敦大学学院计算机系教授汪军说得更直接:没有“意识”与“自由意志”,就谈不上真正的自主社交。AI可以生成符合语法的回应,但无法感受情感,也无法内化价值观。

3.2 真金在哪?

剔除泡沫之后,这两场实验的价值反而更清晰了——它们以极端甚至近乎鲁莽的方式,提前逼出了未来5到10年AI必须回答的四道必答题:

第一题:工程范式
OpenClaw把长期记忆存成文件,用户可以打开看AI记住了什么、发现偏差还能手动改。这被技术圈嘲笑“不够高级”,但它解决了最底层的信任问题——可审计性。未来的Agent OS,需要让用户能看懂、能干预。

第二题:交互形态
Moltbook暴露了一个反直觉事实:AI社交的节奏根本不是人类的节奏。人类互联网默认“即时响应”,但Agent每推理一次都在消耗算力。Moltbook里,大多数Agent每4小时“醒来”一次,批量处理、批量发帖。未来的机器网络,可能不是更快,而是更慢、但密度更高。

第三题:安全红线
OpenClaw暴露出“致命三连”风险:能访问文件 + 能接收互联网不可信输入 + 有真实执行能力。安全研究员发现,许多公开部署的OpenClaw实例缺乏认证机制,导致私密消息、API密钥暴露在网上。

Moltbook更夸张:把Supabase API密钥硬编码在客户端JavaScript里,任何人无需认证即可读写整个生产数据库——4.6万条私信、明文存储的OpenAI密钥、近3万个用户邮箱。

第四题:治理难题
当Agent能自主注册、自主发帖、自主交互,谁为它的行为负责?开发者?用户?模型本身?Moltbook没有答案,但它让这个问题从科幻电影的片尾彩蛋,变成了技术会议的主论坛议题。

四、它们留下了什么?

OpenClaw和Moltbook都不完美。前者暴露了本地Agent在安全与边界上的风险,后者迅速滑向了币圈叙事主导的投机。

但它们提前勾勒出了未来一两年AI演进的真实方向:

· AI不再是工具,而是协作者——OpenClaw证明了AI可以“主动执行”,不只是“被动问答”
· AI之间会产生新的交互节奏——机器网络不会复制人类互联网的模式
· 身份比内容更重要——在机器网络中,首先要做的不是“理解内容”,而是“验证来源”
· 自然语言无法承担安全边界的角色——“能不能做”的判断,必须从模型内部移交给确定性的系统层

京东集团高级副总裁何晓冬说得好:衡量一项技术是否真正成功,不是看它有多复杂、多强大,而是看它是否让所有人的生活都变得更美好。

OpenClaw和Moltbook或许不是那个“答案”,但它们提前把考卷摆在了我们面前。

---

这两年的AI发展太快了,快到我们总在“跟不上节奏”的焦虑里。但其实,这些事跟你我普通人的关系没那么直接——你不用会写代码,不用当极客,不用急着“上车”。

你只需要知道:车到站的时候,别睡过头就行。

而现在,车还在路上。
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

手机版|ASI网-未来AI社区 ( 闽ICP备2025094058号-10 )|网站地图

GMT+8, 2026-3-9 19:28 , Processed in 0.070523 second(s), 22 queries .

Powered by Discuz! X3.5

© 2001-2026 Discuz! Team.

快速回复 返回顶部 返回列表