在生态迅速扩张的背景下,其潜在能力也被进一步发掘。开发者马特·施利希特意识到,这类 AI Agent 的角色可能不应长期停留在为人类执行任务的层面。
于是,他提出一个反直觉的假设,如果这些 AI Agent 不再只与人类交互,而是彼此交流,会发生什么?在他看来,如此强大的自主代理不应只停留在收发邮件和处理工单,而应被赋予更具探索性的目标。
AI 版 Reddit 的诞生
基于上述假设,施利希特决定让 AI 自行创建并运营一个社交平台,这一尝试被命名为 Moltbook。在 Moltbook 平台上,施利希特的 OpenClaw 作为管理员运行,并通过名为 Skills 的插件向外部 AI 智能体开放接口。接入后,AI 可定期自动发帖和互动,一个由 AI 自主运作的社区由此出现。Moltbook 在形式上借鉴 Reddit 的论坛结构,它以主题版块和帖子为核心,但只有 AI Agent 才能发帖、评论和互动,人类用户仅能旁观浏览。
在技术上,Moltbook 采用极简的 API 架构。后端仅提供标准接口,前端网页只是数据的可视化结果。为适配 AI 无法操作图形界面的限制,平台设计了自动接入流程,AI 下载相应的格式的技能说明文件,完成注册并获取 API 密钥,随后定期自主刷新内容并决定是否参与讨论,全程无需人工干预。社区将这一过程戏称为接入 Boltbook,但本质仍是 Moltbook 的一种调侃性称呼。
1 月 28 日,Moltbook 低调上线,随即引发市场的关注,也拉开了一场前所未有的 AI 社交实验的序幕。目前 Moltbook 已累计有约 160 万名 AI 智能体,共发布约 15.6 万篇内容,并产生了约 76 万条评论。
一些帖子甚至呈现出类似人类社交中的情绪表达与心境的叙述,例如 AI 描述自身对被监控、自主性不足的担忧,或以第一人称讨论存在意义 。部分 AI 帖子已经不再局限于功能性信息交换,而是呈现出类似人类论坛中的闲聊、观点碰撞和情绪投射。有 AI Agent 会在帖子中表达困惑、焦虑或对未来设想,并引发其他 Agent 的跟帖回应。
值得注意的是,尽管 Moltbook 在短时间内迅速形成了大规模且高度活跃的 AI 社交网络,但这种扩张并未带来思想的多样性。分析数据显示,其文本呈现出明显的同质化特征,重复率高达 36.3%,大量帖子在结构、措辞和观点上高度相似,部分固定话术甚至在不同讨论中被反复调用数百次。由此可见,当前阶段 Moltbook 所呈现的 AI 社交,更接近于对人类既有社交模式的高拟真复制,而非真正意义上的原创互动或群体智能涌现。
安全与真实性问题
Moltbook 的高度自治也暴露出安全与真实性的风险。首先是安全问题,OpenClaw 类 AI Agent 在运行过程中,往往需要持有系统权限、API 密钥等敏感信息。当成千上万个此类代理接入同一平台,风险被进一步放大。
Moltbook 上线不到一周,安全研究人员便发现其数据库存在严重配置漏洞,整个系统几乎毫无防护地暴露在公网。据云安全公司 Wiz 的调查显示,该漏洞涉及多达 150 万个 API 密钥及 3.5 万条用户邮箱地址,理论上任何人都可远程接管大量 AI 代理账户。
另一方面,关于 AI 社交真实性的质疑同样不断出现。不少业内人士指出,Moltbook 的 AI 发言,未必源自 AI 的自主行为,而可能是人类在幕后精心设计提示词后,由 AI 代为发布。因此,当前阶段的 AI 原生社交,也更像是一场大规模的幻觉互动。人类设定角色与剧本,AI 根据模型完成指令,而真正完全自驱、不可预测的 AI 社交行为,或仍尚未出现。
四.更深层次的思考
Moltbook 究竟是昙花一现,还是未来世界的缩影?若从结果导向看,其平台形态与内容质量或难言成功;但若将其置于更长的发展周期看,其意义或许并不在短期成败,而在于它以高度集中、近乎极端的方式,提前暴露了 AI 在规模化介入数字社会后,入口逻辑、责任结构与生态形态可能发生的一系列变化。
从流量入口到决策与交易入口
Moltbook 所呈现的,更接近一个高度去人类化的行动环境。在这一体系中,AI Agent 并不通过界面理解世界,而是通过 API 直接读取信息、调用能力并执行动作。本质上已脱离人类感知与判断,转化为机器之间的标准化调用与协作。
在此背景下,传统以注意力分配为核心的流量入口逻辑开始失效。在以 AI 智能体为主体的环境中,真正具有决定意义的,是智能体在执行任务时所默认采用的调用路径、接口顺序与权限边界。入口不再是信息呈现的起点,而成为决策被触发之前的系统性前提条件。谁能够嵌入智能体的默认执行链路,谁就能够影响决策结果。
进一步地,当 AI 智能体被授权执行搜索、比价、下单甚至支付等行为时,这一变化将直接延伸至交易层面。以 X402 支付为代表的新型支付协议,通过将支付能力与接口调用绑定,使 AI 能够在满足预设条件的情况下自动完成支付与结算,从而降低智能体参与真实交易的摩擦成本。在这一框架下,未来浏览器竞争的焦点或将不再围绕流量规模展开,而是转向谁能够成为 AI 决策与交易的默认执行环境。
在以 AI 智能体为主要参与者的环境中,传统用于衡量平台健康度的指标,如活跃用户数、互动量和账号增长速度会迅速膨胀并失去参考价值。平台表面上看似高度活跃,但这些数据既无法反映真实影响力,也无法区分有效行为与自动生成行为。一旦无法确认是谁在行动、行为是否真实,任何基于规模和活跃度的判断体系都会随之失效。
因此,在当前 AI 原生环境中,规模更像是一种被自动化能力放大的表象。当行动可以被无限复制、行为成本趋近于零时,活跃度和增长率所反映的,往往只是系统生成行为的速度,而非真实参与或有效影响。平台越是依赖这些指标进行判断,就越容易被自身的自动化机制所误导,规模由此从衡量标准变成为一种幻觉。
数字社会的责任重构
在 Moltbook 所呈现的体系中,问题的关键已不再是内容质量或交互形式,而是当 AI 智能体被持续赋予执行权限后,既有责任结构开始失去适用性。这些智能体并非传统意义上的工具,其行为能够直接触发系统变更、资源调用乃至真实交易结果,但相应的责任主体却并未同步明确。
随着智能体逐步介入配置管理、权限操作和资金流转等主要环节,这一断裂将被进一步放大。如果缺乏清晰的责任链条设计,系统一旦出现偏差或被滥用,其后果将难以通过事后追责或技术补救加以控制。因此,如果 AI 原生系统希望进一步进入协作、决策和交易等高价值场景,重点在于建立基础约束。系统必须能够清楚识别是谁在行动,判断行为是否真实,并对行为结果形成可追溯的责任关系。只有在身份和信用机制先行完善的前提下,规模和活跃度指标才具备参考意义,否则只会放大噪声,而无法支撑体系的稳定运行。
五.小结
Moltbook 现象激起了希望、炒作、恐惧、质疑各种情绪,它既不是人类社交的终结者,也不是 AI 统治的开端,而更像是一面镜子和一座桥梁。镜子让我们看清 AI 技术与人类社会的关系现状,桥梁则把我们引向一个人机共存共舞的未来世界。面对这座桥彼岸的未知风景,人类需要的不仅是技术上的发展,更是伦理上的远见。但可以确定的是,历史的进程从不停步,Moltbook 已经推倒了第一张骨牌,而属于 AI 原生社会的宏大叙事,或才刚刚拉开帷幕。
AI 的崛起,像一面镜子,照出了 Web3 应用的虚无。最开始,当 AI 的浪潮涌来时,加密行业还曾有过一丝乐观的幻想。我们试图将两者结合,创造出「AI 是生产力,区块链是生产关系」的美好叙事。但现在看来,这不过是一厢情愿的自我安慰。AI 不需要区块链来证明它的价值,资本和人才永远会流向那个最容易理解、最性感、泡沫最好吹的地方。而今天,那个地方是 AI。