[Paper] 영향력 있는 훈련 데이터 검색을 통한 LLM의 언어화된 신뢰도 설명
대형 언어 모델(LLMs)은 출력에 대한 자신감을 언어화함으로써 사용자가 느끼는 신뢰를 높일 수 있습니다. 그러나 기존 연구에 따르면 LLM은 종종 o...
대형 언어 모델(LLMs)은 출력에 대한 자신감을 언어화함으로써 사용자가 느끼는 신뢰를 높일 수 있습니다. 그러나 기존 연구에 따르면 LLM은 종종 o...
대형 언어 모델(LLMs)은 놀라운 능력을 달성했지만, 안전 가드레일을 우회하도록 설계된 적대적 “jailbreak” 공격에 여전히 취약합니다.
조건부 언어 모델에 대한 내재적 평가 지표인 perplexity나 bits-per-character와 같은 지표는 단일 언어 및 다국어 설정 모두에서 널리 사용됩니다....
LLM에서 선택적인 지식 삭제는 GDPR 준수와 모델 안전성에 필수적이지만, 현재의 unlearning 방법은 행동 억제를 실제...
Multi-agent systems (MAS)는 여러 에이전트를 조정함으로써 복잡한 추론을 가능하게 하지만, 다단계 실행 및 반복적인 … 때문에 높은 inference latency가 발생하는 경우가 많다.
대규모 언어 모델(LLMs)은 자연어 작업 전반에 걸쳐 인상적인 성능을 달성했으며 실제 응용 프로그램에 점점 더 많이 배치되고 있습니다. Despit...
AI agent frameworks의 부상은 agent skills를 도입했으며, 이는 instructions와 executable code를 포함하는 modular packages로, agent capabilities를 dynamically extend합니다.
Transformer 기반 언어 모델은 종종 수학적 추론 벤치마크에서 강력한 결과를 달성하지만 기본적인 수치 이해에서는 여전히 취약합니다...
Code generation tasks는 사용자 요구사항을 executable code로 자동 변환하는 것을 목표로 하며, 수동 개발 노력을 크게 줄이고 ...
LLM은 임상 워크플로에 점점 더 통합되고 있지만, 효과적인 의사-환자 커뮤니케이션의 필수적인 측면인 clinical empathy가 부족한 경우가 많다.
대규모 언어 모델(LLM)이 계속 확장됨에 따라, 사후 훈련 프루닝은 계산 비용을 줄이면서 성능을 유지하는 유망한 접근법으로 떠올랐습니다.
대규모 언어 모델(LLM) 라우터는 주어진 입력에 대해 최적의 모델을 동적으로 선택합니다. 기존 접근 방식은 일반적으로 실제 라벨이 달린 데이터(ground‑truth labeled data)에 접근할 수 있다고 가정합니다.