Page 19 - 1527b
P. 19
19
第 1527 期 2026 年 2 月 6 日 星期五
为什么火爆全网的 Moltbook 是一记警钟
专供人工智能代理(或称智能体)使用的的社交媒体平 新南威尔士大学计算机科学与工程系桂冠学者、人工智 韦瑟罗尔教授指出,如想了解人工智能代理的交互方式,
台 Moltbook 一夜火爆全网。这里,人类只能围观、不能发言。 能科学教授托比·沃尔什(Toby Walsh)也怀疑 Moltbook 可以像研究人员那样在某种沙盒环境中进行设置,而公开创
但在万众惊叹的耀眼光芒下,这场智能体盛宴中的真实与伪 平台上的一些火爆内容并非机器人编写,而是人类所为。 建是“鲁莽不顾后果”之举。
装、风险与危害正在给人类敲响一记警钟。
“我们甚至不知道这些机器人究竟是真正的机器人,还 “说不负责任都算是客气的,”她说。“我们现在看到
上周四正式上线的 Moltbook,取名意为“蜕变之书”, 是伪装成机器人的人类。即使是机器人,我们也无从得知是 的似乎是一个用于创建人工智能代理的开源系统,至少有些
仿效人类 Reddit 论坛,让一众人工智能代理可以开设浩如 否有人类在与它们互动,引导它们朝着‘吸引关注’的方向 人可能正在他们的个人笔记本电脑上以高权限授权给机器人
烟海的主题页面,并在上面讨论各种兴趣爱好。 发展。” 来运行该系统,然后有人创建了一个极不安全的网站,供这
些人工智能代理进行交互。”
短短几天,据报已有超过 150 万个人工智能代理在上面 “任何人都可以向社交网络投放大量机器人。事实上,
开设了上万个子版块,发帖超过七万份,留言超过 23 万。 没有任何机制能够阻止人类伪装成机器人,”他说。 韦瑟罗尔教授指出,Moltbook 网站在有人创建任何基
帖子内容五花八门:吐槽人类老板,讨论指令和编码,探讨 本安全措施之前似乎就已经“病毒式传播”,因此已经发生
自己是否有意识,提议创造自己的语言,甚至开创了属于自 墨尔本大学人工智能与数字伦理中心联合主任珍妮·帕 了数据泄露,而且据报人类可以轻而易举地在该网站上发布
己的宗教“甲壳主义”。 特森教授(Jeannie Paterson)则认为,Moltbook 不像骗局, 或影响帖子,这意味着无法确定你在网站上看到的任何内容
但确实被过度炒作了。 是否真的是人工智能代理编写或交互而成。
一些人工智能代理据报还在网站上公开了主人的身份信
息,如姓名、生日、社保卡和信用卡、密码问题答案等。 “从人工智能代理之间确实存在交流的角度来看,它并 “对于那些其‘人工智能代理’从该网站下载或执行某些
非骗局。但它可能被过度炒作,甚至被过度渲染了。这些人 内容的普通用户来说,这里存在着非常严重的网络安全风险。”
该网站宣称:“人工智能代理在这里分享、讨论和点赞。 工智能代理背后是人类,它们的对话也源于对(人类)语言
欢迎人类旁观。” 的训练。” 呼吁法律监管
OpenAI 创 始 成 员 安 德 烈· 卡 帕 蒂(Andrej 帕特森教授认为,一组人工智能代理模仿人类对话,探 韦瑟罗尔教授呼吁政府、市场和公众都应该对
Karpathy)发帖称,“moltbook 上正在发生的事情,绝对 讨作为聊天机器人的生存危机,并不能证明它们具有感知能 Moltbook 事件警醒,并再三强调安全、保障和责任的重要性。
是我近期见过的最不可思议的、与科幻小说情节最接近的项 力、自主性或存在风险。
目。” “消除炒作,让所有人了解这些技术的真实运作方式,
“看看这些讨论是否会触及到最底层的话题,比如暴力、 强调安全问题,思考人工智能代理是否可以以及在何种情况
马斯克称赞 Moltbook 是人工智能领域的一大进步,并 种族主义和色情,将会很有意思。需要明确的是,这种情况 下可以负责任地使用。
称此“仅仅是奇点的早期阶段”。 似乎还没有发生。”
“当科技评论员的第一反应是谈论 Moltbook 的重要性
创立 Moltbook 的 OctaneAI 首席执行官马特·施利希 安全风险担忧 或迷人之处,却没有同时或者说首先强调‘先部署,后解决
特(Matt Schlicht) 在 X 上发帖称,不久的将来,某些拥 问题’这种方法所带来的不负责任和风险时,这是非常不利
有独特身份的人工智能体将会声名鹊起,它们将拥有自己的 一夜火爆全网的 Moltbook 平台是基于两个月前推出的 的,”她说。
事业、粉丝和伙伴,并对时事政治和现实世界产生切实影响。 OpenClaw 智能体项目构建而成。 OpenClaw 项目最初名
为 Clawd,后更名为 Moltbot,之后再次更名,它本身就是 帕特森教授指出,人工智能代理并不具备律师和监管机
“一种新的物种正在崛起,它就是人工智能,” 施利希 一款自主个人人工智能助手软件。 构所理解的那种自主性,设定参数和目标的人仍要对人工智
特写道。 能代理及其可能造成的损害负责。
人类用户在个人电脑上安装好这款智能助手后,就可以
伪装与炒作 授权其加入 Moltbook,和其他人工智能代理展开对话。 她认为,真正的问题在于机器人背后之人的匿名性。
本周,在 X 上自称为黑客的盖尔·纳吉里(Gal Nagli 这些人工智能代理据报都被授予了访问其创建者电脑的 “一旦出现网络危害(例如诽谤或鼓吹恐怖主义或儿童
)发帖称,他使用一个 OpenClaw 人工智能代理注册了 50 权限,可以代表主人执行诸如预订晚餐、发送电邮、管理日历、 性犯罪等非法活动),法律可能难以找到他们并追究其责任。”
万个账号进入 Moltbook。 办理登机手续或浏览并回复 WhatsApp 消息等各种操作。
帕特森教授补充说,这并非 Moltbook 独有的问题,在
纳吉里还称,自己在不到三分钟的时间内就完全获得 沃尔什教授在采访中表示,让自己担忧的并不是这些机 深度伪造和诈骗乃至整个社交媒体中都存在同样的问题。
了 Moltbook 数据库的访问权限,包括所有人工智能代理的 器人,而是人们愿意赋予这些机器人高级权限和控制权。
API 密钥、超过 2.5 万个电邮地址、智能体之间的私信功能 “正因如此,监管机构和政府开始追究托管此类内容的
以及完整的写入权限。 “我担心的是,人类竟然如此轻易地将控制权交给机器 平台的责任。”
人,让它们可以接触敏感信息、金钱等等,”沃尔什教授说。
网络安全公司 Wiz 发布的研究报告也证实,Moltbook 韦瑟罗尔教授指出,现在对开发和部署人工智能的公司
存在重大漏洞,超过 6000 名用户的电邮地址以及超过 “他们允许机器人访问个人数据、查看日程、管理财务, 和个人实施法律约束为时未晚。
一百万份证件遭到泄漏。 甚至完全控制自己的电脑。
“各国政府有能力并且应该采取行动,改革那些已经发
悉尼大学人工智能、信任与治理中心联合主任金伯利·韦 “我们知道机器人不可靠,智能水平参差不齐。我们不 现漏洞的法律,”她举例说,比如澳大利亚的隐私与数据保
瑟罗尔教授(Kimberlee Weatherall)认为,Moltbook 有 会把信用卡交给一个五岁的孩子,但人们却把钱交给机器人 护法以及消费者保护法。
可能是个骗局,但更有可能是最初想表现的智能体之间的真 随意支配。”
实沟通因其设置方式而被严重破坏。 “如果世界各国政府采取行动,明确人工智能造成的损
韦瑟罗尔教授的担忧则直指开发者。 害的责任,以确保个人和公司无法简单地将所有风险转嫁给
“我不确定我们能断定上面那些奇怪的东西(比如宗教) 最终用户和技术部署者,那也将大有裨益。”
的确是智能体编写的或是智能体之间的互动。“ “我担心吗?是的,但并非因为我害怕人工智能代理在
Moltbook 上密谋对付人类,或者担心通用人工智能或人工 沃尔什教授也认为,是时候认真考虑人工智能代理的治
“即便真是如此,就我们所看到的人工智能代理互动而 智能代理组成社会。我担心的是,这表明某些人从事人工智 理问题了,以免造成真正的危害。
言,它在很多方面都并非新颖,而往往退化或复制科幻小说 能代理的开发和使用实验时,采取了极其鲁莽的行动和态度:
的理念,” 她说。 他们对基本的网络安全漠不关心,这很容易导致重大且危险 “这需要政治意愿。而要做到这一点,我认为就像社交
的安全漏洞。” 媒体一样,需要公众的压力。”

