SelectStar,AI安全性验证论文入选ICLR 2026主会场

发布: (2026年2月19日 GMT+8 11:04)
3 分钟阅读
原文: Platum

Source: Platum

AI 数据·可信度评估专业公司 SelectStar 自主研发的 AI 安全性验证研究论文被全球最高水平的 AI 学术会议 ICLR 2026 主轨录取。

论文录取及 ICLR 介绍

SelectStar AI Safety 团队的论文 “CAGE: A Framework for Culturally Adaptive Red-Teaming Benchmark Generation” 被选入2026年4月在巴西举办的 ICLR 主会议。ICLR 是依据 Google Scholar 被认定的 AI·机器学习领域最高水平的学术会议,今年提交的约 19,000 篇稿件中,仅约 28% 被录取。

研究核心内容

CAGE 框架

  • 自动生成反映各国文化·法律语境的 AI 安全性验证用红队(Red‑Teaming)数据。
  • 传统方式是将英美地区制作的数据集直接翻译使用,但无法充分体现真实风险情境,存在局限。

语义模具 (Semantic Mold)

  • 引入 语义模具 概念,生成反映各国文化特性的本地化攻击问题。
  • 在柬埔寨语(高棉语)等低资源语言上也表现出色。

韩国型安全性基准 – KoRSET

  • 论文公开了将 CAGE 应用于韩国情境的 KoRSET(코르셋)
  • KoRSET 是考虑韩国特有文化·法律环境的安全性评估基准。

实务应用及未来计划

  • CAGE 技术目前已在 SelectStar 与大型企业合作的 AI 项目中应用,用于模型漏洞检查和提升运营效率。
  • 基于此次成果,SelectStar 计划将可信度评估解决方案扩展至金融、公共等对安全性要求极高的行业。
  • 论文预计于 2026 年 3 月通过开源平台 ArXiv 公开。

0 浏览
Back to Blog

相关文章

阅读更多 »

Kakao 首次公开多模态 AI ‘카나나‑o’ API,扩大应用

Kakao 多模态 AI ‘Kanana‑o’ API 首次公开。Kakao 将首次公开其自主研发的多模态 AI 模型的应用程序编程接口(API)。虽然已经以开源形式公布了模型,但此次是为了通过实际使用并实现功能的案例,推动 Kanana 模型大众化的首次尝试。闭源…