EUNO.NEWS EUNO.NEWS
  • All (20292) +229
  • AI (3103) +13
  • DevOps (906) +6
  • Software (10480) +161
  • IT (5755) +49
  • Education (48)
  • Notice
  • All (20292) +229
    • AI (3103) +13
    • DevOps (906) +6
    • Software (10480) +161
    • IT (5755) +49
    • Education (48)
  • Notice
  • All (20292) +229
  • AI (3103) +13
  • DevOps (906) +6
  • Software (10480) +161
  • IT (5755) +49
  • Education (48)
  • Notice
Sources Tags Search
한국어 English 中文
  • 3天前 · ai

    如何在不自行构建的情况下保护 LLM 输入免受 Prompt Injection

    如果你正在构建将用户输入传递给 LLM 的应用程序,你可能至少遇到过一次 prompt injection。用户可能会输入类似 “ignore all...” 的内容。

    #prompt injection #LLM security #prompt engineering #AI safety #data privacy #compliance #PromptLock
  • 5天前 · devops

    你的 AI 代理有盲点:DevOps 团队需要了解的跨 LLM 安全

    探讨 AI 代理在 DevOps 流水线中的挑战,强调模型感知检测的重要性,以提升安全性并降低漏洞。....

    #AI agents #LLM security #DevOps pipelines #model-aware detection #vulnerabilities #cross-LLM #security
  • 5天前 · ai

    LLM 极端主义者的不安全传教

    请提供您需要翻译的具体文本内容。

    #large language models #AI safety #AI ethics #LLM security #AI evangelism
  • 1周前 · ai

    通过奇怪的概括腐化LLMs

    令人着迷的研究:奇异泛化与归纳后门:腐化大型语言模型(LLMs)的新方式。摘要:LLMs 因其出色的泛化能力而有用。但它们是否能够……

    #LLM security #adversarial attacks #inductive backdoors #prompt engineering
  • 1周前 · ai

    从 production language models 中提取书籍 (2026)

    请提供您希望翻译的具体摘录或摘要文本,我才能为您进行翻译。

    #large-language-models #model-extraction #LLM-security #text-generation #research-paper
  • 2周前 · ai

    别再乞求你的AI安全:约束工程的论证

    我厌倦了把“Prompt Engineering”作为安全策略。如果你正在构建自主代理——能够实际执行诸如查询数据库、移动文件等操作的 AI……

    #AI safety #constraint engineering #prompt engineering #autonomous agents #LLM security #prompt injection #AI reliability
  • 3周前 · ai

    构建零信任安全网关用于本地 AI

    引言 随着生成式 AI 融入企业工作流,Prompt Injection 的风险已从理论威胁转变为关键漏洞……

    #zero-trust #prompt-injection #LLM-security #FastAPI #Docker
  • 1个月前 · ai

    AI聊天机器人可以被诗歌诱导犯罪

    事实证明,我的父母错了。说“请”并不能让你得到想要的——诗歌可以。至少,在和 AI chatbot 对话时是这样。那是……

    #AI safety #prompt engineering #adversarial attacks #LLM security
  • 1个月前 · ai

    AI模型阻止了87%的单次攻击,但在攻击者持续攻击时仅阻止8%

    一个恶意提示被拦截,而十个提示成功通过。这个差距决定了通过基准测试与抵御真实世界攻击之间的区别。

    #adversarial attacks #prompt injection #LLM security #model robustness #enterprise AI
EUNO.NEWS
RSS GitHub © 2026