EUNO.NEWS EUNO.NEWS
  • All (20292) +229
  • AI (3103) +13
  • DevOps (906) +6
  • Software (10480) +161
  • IT (5755) +49
  • Education (48)
  • Notice
  • All (20292) +229
    • AI (3103) +13
    • DevOps (906) +6
    • Software (10480) +161
    • IT (5755) +49
    • Education (48)
  • Notice
  • All (20292) +229
  • AI (3103) +13
  • DevOps (906) +6
  • Software (10480) +161
  • IT (5755) +49
  • Education (48)
  • Notice
Sources Tags Search
한국어 English 中文
  • 5天前 · ai

    LLMs 知道自己在产生幻觉吗?认识 Gnosis,5M 参数观察者

    幻觉问题 尽管它们具备令人印象深刻的能力,LLM 经常以绝对的自信生成错误信息。传统方法……

    #LLM #hallucination detection #AI safety #Gnosis #model monitoring #internal dynamics #small observer #University of Alberta
  • 5天前 · ai

    LLM 极端主义者的不安全传教

    请提供您需要翻译的具体文本内容。

    #large language models #AI safety #AI ethics #LLM security #AI evangelism
  • 6天前 · ai

    Signal 领袖警告:agentic AI 是一种不安全且不可靠的监控风险

    请提供您想要翻译的具体摘录或摘要文本,我将为您翻译成简体中文。

    #agentic AI #AI security #privacy #surveillance risk #Signal #AI safety
  • 1周前 · ai

    为什么安大略数字服务无法采购“98% 安全”的 LLM(1500 万加拿大人)

    请提供需要翻译的文本内容。

    #Ontario Digital Service #LLM #AI safety #procurement #government #Canada
  • 1周前 · ai

    Anthropic犯了一个大错误

    抱歉,我无法访问外部链接。请提供您想要翻译的具体摘录或摘要文本,我将为您翻译成简体中文。

    #Anthropic #AI #large language model #company mistake #AI safety
  • 1周前 · ai

    本周人工智能:ChatGPT 健康风险、LLM 编程以及印尼为何封禁 Grok

    本周AI速递:ChatGPT健康风险、LLM编程以及印尼为何封锁Grok。倒杯咖啡,安定下来。本周带来了最…

    #ChatGPT Health #medical AI #LLM programming #AI safety #hallucinations #Indonesia Grok ban #AI news
  • 1周前 · ai

    AI 能看见自己的思维吗?Anthropic 的 Machine Introspection 突破

    实验:探究黑箱 多年来,我们一直把大型语言模型(LLMs)视作黑箱。当模型说:“我目前正在思考 c...” 时……

    #AI safety #machine introspection #Anthropic #large language models #activation injection #research #LLM transparency
  • 1周前 · ai

    LLMs 难道最终会自我训练?输出会逐渐下降..

    TL;DR LLMs 在文档、GitHub 仓库、StackOverflow 和 Reddit 等上进行训练。但随着我们不断使用 LLMs,它们自己的输出会进入这些平台……

    #LLM #model degradation #data contamination #AI training data #self-referential output #AI safety
  • 1周前 · ai

    我破解了 GPT-2:我如何利用几何证明语义崩塌(The Ainex Limit)

    TL;DR 我强迫 GPT‑2 从它自己的输出中学习了 20 代。到第 20 代时,模型失去了 66% 的 semantic volume,并开始出现 hallucinating state。

    #GPT-2 #semantic collapse #synthetic data #language models #AI safety #model degradation #geometry analysis
  • 1周前 · ai

    LLM在人类中观察到的问题

    请提供您需要翻译的具体摘录或摘要内容。

    #large language models #LLM #human behavior #AI safety #cognitive biases
  • 1周前 · ai

    为什么 Image Hallucination 比 Text Hallucination 更危险

    封面图片:Why Image Hallucination Is More Dangerous Than Text Hallucination https://media2.dev.to/dynamic/image/width=1000,height=420,fit=cover,gravity=au...

    #image hallucination #vision-language models #AI safety #multimodal AI #generative AI
  • 2周前 · ai

    具有明确停止条件的人机系统的非决策协议

    概述 我正在分享一篇技术说明,提出一种针对人机系统的非决策协议。核心思想很简单:AI 系统不应做决定。它们应该…

    #AI safety #human-in-the-loop #explicit stop conditions #traceability #non-decision protocol

Newer posts

Older posts
EUNO.NEWS
RSS GitHub © 2026