[Paper] Fluent Alignment with Disfluent Judges: Lower-resource Languages를 위한 Post-training
우리는 낮은 자원 언어에 대한 사후 훈련(post‑training) 방법을 제안한다. 이 방법은 비유창(disfluent) 보상 모델에 의해 정렬되더라도 언어 모델의 유창성(fluency)을 유지한다. Preference…
우리는 낮은 자원 언어에 대한 사후 훈련(post‑training) 방법을 제안한다. 이 방법은 비유창(disfluent) 보상 모델에 의해 정렬되더라도 언어 모델의 유창성(fluency)을 유지한다. Preference…
Automatic Sign Language Recognition (ASLR)은 청각 장애인과 청인 커뮤니티 간의 격차를 메우는 중요한 분야로 부상했습니다. 그러나, 수화‑...
이 논문은 바스크어에서 자동 에세이 채점(AES) 및 피드백 생성을 위한 최초의 공개 데이터셋을 소개하며, CEFR C1 수준을 목표로 합니다.
임상 커뮤니케이션은 환자 결과에 핵심적인 역할을 하지만, 환자‑제공자 대화에 대한 대규모 인간 주석은 여전히 노동 집약적이고 일관성이 없으며, ...
우리는 QSTN을 소개합니다. QSTN은 설문지 형식 프롬프트로부터 체계적으로 응답을 생성하여 인실리코 설문조사와 ann…을 지원하는 오픈 소스 Python 프레임워크입니다.
대형 언어 모델(LLM)의 out-of-distribution(OOD) 일반화 능력은 배포에 있어 매우 중요합니다. 이전 연구에서는 LLM의 일반화를 평가…
우리는 그룹 작용에 기반한 위치 인코딩을 위한 통합 프레임워크인 GRAPE (Group RepresentAtional Position Encoding)를 제시한다. GRAPE는 두 가지 …
LLM 기반 에이전트가 전문가 의사결정 지원에 빠르게 도입되고 있지만, 혼란스럽고 높은 위험이 따르는 상황에서는 팀을 더 똑똑하게 만들지는 못한다: 인간‑AI 팀은…
대형 언어 모델(LLM)은 다단계 문제 해결 및 chain-of-thought와 같은 추론이 필수적인 환경에 점점 더 많이 배치되고 있습니다. 그러나, ...
최근 강화 학습(RL) 기술은 언어 모델에서 인상적인 추론 향상을 가져왔지만, post‑training tr...
쌍을 이룬 서사를 포함한 데이터셋을 활용하여, 대형 언어 모델(LLMs)이 일관되지 않은 이야기와 일관된 이야기를 신뢰성 있게 구분할 수 있는 정도를 조사한다.
시판 전 약물 안전성 검토에서, 관련 부작용 용어를 표준화된 MedDRA 쿼리 또는 FDA Office of New Drugs Custom Medical Queries (O...