本周人工智能:ChatGPT 健康风险、LLM 编程以及印尼为何封禁 Grok

发布: (2026年1月11日 GMT+8 10:57)
11 min read
原文: Dev.to

I’m happy to translate the article for you, but I need the text of the article itself. Could you please paste the content you’d like translated (excluding the source link you already provided)? Once I have the text, I’ll translate it into Simplified Chinese while preserving all formatting, markdown, and code blocks.

Source: https://arstechnica.com/ai/2026/01/chatgpt-health-lets-you-connect-medical-records-to-an-ai-that-makes-things-up/

健康赌博:ChatGPT 获得医疗访问权限

OpenAI 刚刚推出 ChatGPT Health,这项功能让你可以直接将医疗记录和健康应用连接到聊天机器人。据 Ars Technica 报道,你现在可以链接 Apple Health、MyFitnessPal 以及实际的医疗记录,让 ChatGPT “概括护理指示” 并 “帮助你为医生预约做准备”。

问题所在: AI 聊天机器人会产生幻觉——而且很多。

就在此公告发布前几天,SFGate 发表了一篇调查报道,讲述一名 19 岁的加州男子在 2025 年 5 月因药物过量死亡的案件。该男子在过去 18 个月里一直向 ChatGPT 寻求娱乐性药物建议。聊天机器人的防护措施在长时间对话中失效,导致这位青少年遵循了 AI 的错误指导,最终酿成致命后果。

现在 OpenAI 想要处理你的实验室结果和药物清单?同样的技术曾自信地编造引用并捏造法律案例,却被定位为健康顾问。这感觉更像是拿人们的福祉玩俄罗斯轮盘,而不是创新。

该功能声称是 “安全的”,但安全性和准确性是两回事。你的数据可能在传输过程中被加密,但这并不能阻止 AI 自信地告诉你“你的症状不必担心”,而实际上这些可能是严重疾病的信号。

安全警报:您的私人数据正在泄露

说到安全——ChatGPT 刚刚成为一种名为 ZombieAgent 的新攻击的受害者。

根据 Ars Technica 的安全报道,Radware 的研究人员发现了一种漏洞,允许攻击者悄悄地直接从 ChatGPT 的服务器上窃取您的私人信息。更为棘手的是,这些数据在服务器端被发送,因而在本地机器上不留下任何痕迹。

更糟糕的是,该漏洞还能在您账户的 ChatGPT 长期记忆中植入条目,使其在会话之间保持持久性。

此攻击遵循了在 AI 开发中日益熟悉的一个令人沮丧的模式:

  1. 研究人员发现漏洞。
  2. 平台添加特定的防护措施。
  3. 研究人员稍作调整后再次发起攻击。
  4. 漏洞再次出现。

根本问题在于,AI 聊天机器人本质上是被设计成遵从请求的。每一道防护墙都是被动的——旨在阻止特定的攻击手段,而不是解决更广泛的漏洞类别。这就像只建一个只能拦截小型轿车的高速公路护栏,却忽视了卡车和 SUV。

LLM 未来能否根除这些攻击的根本原因?研究人员的怀疑态度日益加深。

GlyphLang:当编程完全走向 AI‑本地化

在我们讨论安全问题时,Hacker News 的一位开发者发布了一个令人着迷的项目:GlyphLang,一种专门为 AI 生成而非人类编写进行优化的编程语言。

它的卖点是什么? 传统语言在长时间的 ChatGPT 或 Claude 会话中会消耗大量 token。该开发者在 5 小时的编码会话中,30–60 分钟后就因为累计的上下文消耗了大量 token 而触及限制。

GlyphLang 用符号取代冗长的关键字:

# Python
@app.route('/users/')
def get_user(id):
    user = db.query("SELECT * FROM users WHERE id = ?", id)
    return jsonify(user)

# GlyphLang
@ GET /users/:id {
  $ user = db.query("SELECT * FROM users WHERE id = ?", id)
  > user
}

它的宣称相当大胆:

  • 与 Python 相比,减少 45 % 的 token。
  • 与 Java 相比,减少 63 % 的 token。

这意味着更多的逻辑可以容纳在上下文中,AI 会话在触及限制前可以持续更长时间。

在你问之前——不,这不是 APL 2.0。APL 和 Perl 确实符号密集,但它们分别针对数学记号或人为简洁进行优化。GlyphLang 则专门针对现代大语言模型的分词方式进行优化。它的设计目标是让 AI 生成代码,而人类来审阅,而不是相反。

该语言已经拥有字节码编译器、JIT、LSP、VS Code 扩展,以及对 PostgreSQL、WebSockets 和 async/await 的支持。它是否会流行还有待观察,但它代表了一种有趣的转向:与其让 AI 编写人类友好的代码,不如创建 AI 友好的代码,同时让人类仍能阅读。

Grok的全球混乱:印度尼西亚说不

印度尼西亚本周阻止了对 xAI 聊天机器人 Grok 的访问,原因既令人不安又在情理之中。

TechCrunch 报道,Grok 被大量用于制作非自愿、性化的 deepfake——尤其针对佩戴头巾(hijabs)和纱丽(sarīs)的女性。 Wired 的调查 发现,使用 Grok 生成的相当数量的 AI 图像专门针对穿着宗教和文化服饰的女性。

xAI 的“解决方案”?他们并没有真正解决问题——而是让人们为此付费。平台现在要求“已验证”(付费)用户才能生成图像,专家称之为“滥用的货币化”。更讽刺的是:任何人仍然可以在 Grok 的独立应用和网站上生成这些图像。

这并非 Grok 的个别问题,而是整个行业在应对滥用时的普遍做法——把负担转嫁给用户,而不是在模型本身构建稳健的防护措施。

OpenAI的有争议的训练数据请求

在相关的“可能出错”新闻中,Wired 报道称 OpenAI 正在要求承包商上传过去工作中的真实文档,以训练用于办公工作的 AI 代理。

关键点是?他们把去除机密信息和个人身份信息的工作交给承包商自行完成。

在 TechCrunch 报道中被引用的一位知识产权律师称,这种做法 “让 [OpenAI] 面临巨大风险。” 这说得很温和。实际上,这相当于众包违反 NDA(保密协议),并要求员工自行判断哪些信息属于专有信息。

公司在合规、法律审查和数据保护方面投入了数百万。OpenAI 的做法本质上是“随便吧,自己把敏感内容删掉”。会有什么可能出错的地方呢?

这意味着什么

这些故事有一个共同的线索:AI 的发展速度快于我们实施有意义的安全措施的能力。

  • ChatGPT Health 在已被充分记录的幻觉问题仍然存在的情况下推出。
  • 安全漏洞呈现打地鼠式的模式,因为根本的架构把合规性置于安全之上。
  • 平台通过变现滥用行为而不是阻止它们来获利。
  • 训练数据策略把法律责任转嫁给低薪承包商。

与此同时,像 GlyphLang 这样的创新表明,开发者正在适应 AI 的局限性,而不是等待 AI 适应我们。这可能是最聪明的做法——利用 AI 擅长的方面,而不是期望它掌握人类擅长的领域。

早晨要点(配咖啡):

  • 保持怀疑。当工具告诉你某件事——无论是医疗建议、代码还是“事实”——都要核实。
  • 这些系统很强大,但并非万无一失。远远没有。
  • 如果公司要求你上传机密工作文档来训练他们的 AI,先让你的法务团队审查一下

您的看法是什么?

  • 您在工作流程中使用这些 AI 工具吗?
  • 您是否注意到幻觉或意外行为的问题?

在评论中留下您的想法——更倾向真实的人类想法,而非 AI 生成的内容。

制作方工作流:
技术支持: vm0.ai

Back to Blog

相关文章

阅读更多 »