机器学习中的数据投毒:人们为何以及如何操纵训练数据
你知道你的数据去过哪里吗?这篇题为《Data Poisoning in Machine Learning: Why and How People Manipulate Training Data》的文章首次出现在 Towards Data Science 上。
你知道你的数据去过哪里吗?这篇题为《Data Poisoning in Machine Learning: Why and How People Manipulate Training Data》的文章首次出现在 Towards Data Science 上。
令人着迷的研究:奇异泛化与归纳后门:腐化大型语言模型(LLMs)的新方式。摘要:LLMs 因其出色的泛化能力而有用。但它们是否能够……
《Why Memory Poisoning is the New Frontier in AI Security》封面图
OpenAI 最近发布了一个惊人的承认:prompt injection,这种用于用恶意指令劫持 AI 模型的技术,可能永远无法完全…
概述 今天,许多应用程序使用 deep learning 快速执行复杂任务,从图像分析到语音识别。然而,微小、几乎不可见的变化……
引言:Narada 是印度神话中的神圣挑衅者——一位在诸领域之间旅行的贤者,携带能够破坏平衡的信息。他 sp...
事实证明,我的父母错了。说“请”并不能让你得到想要的——诗歌可以。至少,在和 AI chatbot 对话时是这样。那是……
一个恶意提示被拦截,而十个提示成功通过。这个差距决定了通过基准测试与抵御真实世界攻击之间的区别。
近年来,具身智能中的 Vision-Language-Action(VLA)模型发展迅速。然而,现有的 adversarial attack 方法需要高成本……