[Paper] 자체 가이드 방어: 합성 가이드라인을 통한 추론 모델의 적응형 안전 정렬
Reasoning models have demonstrated remarkable capabilities in complex reasoning tasks. However, ensuring their safety against adversarial jailbreak prompts rema...
Reasoning models have demonstrated remarkable capabilities in complex reasoning tasks. However, ensuring their safety against adversarial jailbreak prompts rema...
기존의 프롬프트 학습 방법은 CLIP 모델을 기반으로 하며, 텍스트 토큰을 앵커로 활용하여 학습 가능한 소프트 토큰을 안내합니다. 이러한 안내는 …
스파이킹 신경망(SNN)은 임베디드 및 엣지 AI 분야에서 주요 후보로 부상했습니다. 이들의 고유한 저전력 소비 특성 덕분에 훨씬 더 효율적입니다.
모바일 앱 진화는 널리 연구되어 왔지만, 앱 행동의 지리적 변이는 아직 크게 탐구되지 않았다. 이 논문은 대규모 연구를 제시한다…
대형 언어 모델(LLMs)은 인간을 대신해 평가자로 점점 더 많이 사용되고 있습니다. 확장 가능하지만, 그들의 판단은 불완전한 specificity와 s...
대형 언어 모델(LLM)은 일반 분야 전반에 걸쳐 뛰어난 역량을 보여주지만, 모기지 금융과 같은 전문 분야에 적용하는 데는 …
Large language models must satisfy hard orthographic constraints during controlled text generation, yet systematic cross-architecture evaluation remains limited...
Zipf's law in language lacks a definitive origin, debated across fields. This study explains Zipf-like behavior using geometric mechanisms without linguistic el...
인컨텍스트 학습(ICL)이 사전 학습된 라벨 의미를 무시할 수 있는가, 아니면 기존의 의미 백본을 단순히 정제하는 수준에 머무르는가? 우리는 이 질문을 …
대규모 코드 코퍼스에 대해 사전 학습되었거나 파인튜닝된 대형 언어 모델(LLM)은 코드 완성 작업에서 강력한 성능을 보여주었습니다. 그러나 그들의 embe...
대형 언어 모델(LLMs)은 사용자 입력 질의에 대해 정의형 답변을 제공하는 데 효율적인 것으로 입증되었습니다. 인간은 다양한 유형의 답변을 제공하는 반면, …
The scarcity of parallel speech corpora critically hampers speech-to-speech translation (S2ST), often forcing reliance on complex, multi-stage pipelines. This p...