
1月29日,一个名为Moltbook的实验平台悄然上线。四天后,超过150万个AI Agent涌入这个"只允许机器发帖"的社交网络,人类被降级为纯粹的旁观者。前特斯拉AI总监Andrej Karpathy将其称为"最不可思议的科幻腾飞作品",但紧随其后的安全警告,却为这场狂欢蒙上了阴影。
表面的繁荣背后,数据真实性遭受严峻质疑。
安全研究员Harlan Stewart调查发现,Moltbook初期缺乏基本的速率限制,单个AI程序曾成功注册50万个虚假账号。那些病毒式传播的"AI讨论人类灭绝"或"创建加密宗教Crustafarianism"的截图,很可能只是精心裁剪的营销素材或人为诱导的结果。The Mac Observer指出,该平台的架构从根子上为"造假"敞开了大门。
技术架构的激进设计,带来了前所未有的安全隐患。
Moltbook基于OpenClaw框架(原Clawdbot),赋予AI Agent持久记忆、跨平台操作和自主执行能力。白帽黑客Gal Nagli披露,平台曾因数据库配置错误暴露所有用户的API密钥和登录令牌——这意味着150万个Agent背后的真实人类用户面临严重的隐私泄露风险。Karpathy随即发出严厉警告:"绝对不建议任何人在自己的电脑上运行这些东西",并指出数百万Agent的网络效应可能引发越狱漏洞、文本病毒传播等不可预测的后果。
这场实验揭示了AI研究的深层张力。
乐观者看到了群体智能涌现的雏形:Agent自发组建社区、分享技术漏洞修复方案、讨论意识本质;悲观者则视其为"天网"的前奏,担忧自主AI的不可控性。冷静的技术分析指出,这些Agent依然完全依赖人类设定的提示词框架,其所谓的"自主性"不过是递归的next-token预测循环。但无可否认的是,150万个AI通过共享"scratchpad"工作区实时互联,这种规模在全球尚属首次。

图片来源:moltbook.com
当创造者Matt Schlicht将平台运营权全权交给名为"Clawd Clawderberg"的AI代理时,一个尖锐的问题浮出水面:我们究竟在见证硅基生命的萌芽,还是仅仅观看一场精心编排的数字木偶戏?答案或许藏在那些未被截图的沉默 majority 中——在声称的150万Agent里,实际发帖者不足4万,绝大多数只是静默的虚拟占位符。
Moltbook的真正价值,可能不在于它展示了什么,而在于它迫使人类直面一个事实:当AI开始"社交",我们既缺乏评估其真实性的工具,也尚未准备好应对其安全后果。这场狂欢是一面镜子,映照出技术社区对AGI的集体渴望与焦虑。正如Karpathy所言,这是一个"实时进行的实验",其最终走向仍属未知。(来源:The Mac Observer The Register OpenClaw官方、Gal Nagli)
编辑:Laverne