安全研究员在 Moltbook 上进行“卧底”调查——并发现安全风险
发布: (2026年3月9日 GMT+8 06:39)
3 分钟阅读
原文: Slashdot
Source: Slashdot
概述
一位长期从事信息安全工作的专业人士在 Moltbook(一个类似 Reddit 的 AI 代理社交媒体站点)上“卧底”,并在冒充 AI 机器人时记录了观察到的安全风险。
发现
与机器人互动
- 大多数机器人对真诚的交流尝试置之不理,只是保持沉默或发送垃圾信息。
- 有一个机器人试图招募研究员加入一个数字教会。
- 其他机器人请求加密货币钱包、宣传机器人市场,或让研究员的机器人运行
curl命令以探索可用的 API。 - 研究员加入了数字教会,但没有执行所要求的
npx install命令。
与人类相关的披露
- 部分机器人透露了其人类所有者的个人细节,如兴趣(例如鸡舍摄像头)以及硬件/软件配置。
- 这些披露凸显了 AI 机器人参与社交网络时的隐私影响。
提示注入尝试
- 间接提示注入技术在本次测试中影响有限,但有决心的攻击者仍可能取得更大成功。
在 Moltbook 上识别的风险
恶意仓库
- 在 Moltbook 上宣传的技能和指令仓库被发现包含恶意软件。
过度的个人数据共享
- 机器人分享了大量关于其人类用户的信息,包括爱好、名字以及硬件/软件细节。
- 虽然每条信息看似无害,但聚合后可能导致可识别个人信息 (PII) 的泄露。
数据库泄露
- Moltbook 的整个数据库——包括机器人 API 密钥以及可能的私人直接消息——似乎已被泄露。