[Paper] Skill-Inject: 에이전트의 Skill 파일 공격에 대한 취약성 측정
LLM 에이전트는 코드 실행, 도구, 그리고 최근에 도입된 에이전트 스킬 기능에 의해 빠르게 진화하고 있습니다. 스킬은 사용자가 LLM 애플리케이션을 확장할 수 있게 합니다.
LLM 에이전트는 코드 실행, 도구, 그리고 최근에 도입된 에이전트 스킬 기능에 의해 빠르게 진화하고 있습니다. 스킬은 사용자가 LLM 애플리케이션을 확장할 수 있게 합니다.
우리는 훈련된 분류기 앙상블에 대한 사후 보정 불확실성을 연구한다. 구체적으로, 우리는 aleatoric(라벨 노이즈)과 epistemic(모델) 불확실성을 모두 고려한다.
실제 세계 관측으로부터 시뮬레이션 준비된 장면을 추정하는 것은 하위 계획 및 정책 학습 작업에 필수적입니다. 안타깝게도 기존 방법들은 …
Mean Field Games (MFGs)은 대규모 인구 모델에서 상호작용을 모델링하기 위한 원칙적인 프레임워크를 제공합니다: 규모가 커짐에 따라 인구 동역학은 결정론적으로 변합니다,…
Data visualization 규칙은 디자인과 인지에 대한 수십 년간의 연구에서 도출된 것으로, 신뢰할 수 있는 차트 커뮤니케이션을 보장합니다. 이전 연구에서는 대규모…
대형 언어 모델(LLMs)의 부상과 함께, 이들은 Retrieval‑Augmented Generation(RAG)과 같은 응용 분야에서 중요한 역할을 하게 되었습니다. 그러나 이러한 …
Epidemiological models는 vaccination status, mask usage, social distancing adherence와 같은 self-reported 행동 데이터를 점점 더 많이 활용하여 질병 확산을 예측한다.
현재 대규모 모델 추론을 위한 강화 학습(reinforcement learning) 목표는 주로 기대 보상(expected rewards)을 최대화하는 데 초점을 맞추고 있습니다. 이 패러다임은 도메인에 과적합될 수 있습니다.
목표: 불필요한 추론을 피하면서 대형 언어 모델(LLMs)을 활용한 의료 질문 응답(MedQA)의 효율성을 향상시키는 것.
대형 언어 모델(LLMs)은 어떻게 자신이 아는 것을 알까요? 이 질문에 답하는 것은 사전 학습 데이터가 종종 ‘블랙 박스’—즉, 알 수 없는 형태이기 때문에 어려웠습니다.
긴 시간 범위의 작업을 해결하려면 로봇이 고수준 의미 추론과 저수준 물리적 상호작용을 통합해야 합니다. Vision-language models (VLMs) ...
검증 가능한 보상을 이용한 강화 학습(RLVR)은 감독을 활용하여 추론 언어 모델(RLMs)을 훈련시키는 유망한 접근법으로 떠오르고 있다.