[Paper] 시도와 오류로부터 학습: 반성적인 테스트 시 플래닝 for Embodied LLMs
Embodied LLMs는 로봇에 고수준 작업 추론 능력을 부여하지만, 무엇이 잘못됐는지 혹은 그 이유를 반성할 수 없으며, 이로 인해 배포가 일련의 독립적인 …
Embodied LLMs는 로봇에 고수준 작업 추론 능력을 부여하지만, 무엇이 잘못됐는지 혹은 그 이유를 반성할 수 없으며, 이로 인해 배포가 일련의 독립적인 …
대규모 언어 모델의 terminal capabilities에 대한 최근의 급속한 진전에도 불구하고, 최첨단 terminal agents 뒤에 있는 training data strategies는 여전히…
환자가 직접 생성한 텍스트인 secure messages, surveys, interviews 등은 patient voice (PV)의 풍부한 표현을 담고 있으며, 의사소통 행동을 반영한다...
Large language models (LLMs)은 점점 더 다단계 의사결정 에이전트로 배치되고 있으며, 효과적인 보상 설계는 학습을 안내하는 데 필수적입니다. Al...
고급 추론은 일반적으로 Chain-of-Thought 프롬프트를 필요로 하는데, 이는 정확하지만 과도한 latency와 상당한 test-time inference 비용을 초래합니다.
대형 언어 모델(LLMs)의 부상과 함께, 이들은 Retrieval‑Augmented Generation(RAG)과 같은 응용 분야에서 중요한 역할을 하게 되었습니다. 그러나 이러한 …
목표: 불필요한 추론을 피하면서 대형 언어 모델(LLMs)을 활용한 의료 질문 응답(MedQA)의 효율성을 향상시키는 것.
대형 언어 모델(LLMs)은 어떻게 자신이 아는 것을 알까요? 이 질문에 답하는 것은 사전 학습 데이터가 종종 ‘블랙 박스’—즉, 알 수 없는 형태이기 때문에 어려웠습니다.
Retrieval-augmented generation (RAG)은 외부에서 검색된 문서에 기반해 생성 과정을 조건화함으로써 대형 언어 모델(LLMs)을 향상시키지만, 검색의 효과는…
대형 언어 모델(LLMs)은 인간이 정보를 접근하는 방식에 중요한 역할을 합니다. 핵심 사용은 서면 요청을 이해하는 데 의존하지만, 우리의 이해…
본 연구에서는 대형 언어 모델(LLM)의 출력을 유한 알파벳에서 추출된 무한한 기호 시퀀스를 생성하는 정보원으로 간주합니다.
Large language models은 복잡한 사회‑기술 시스템에 배치되고 있으며, 이는 현재 alignment 실천의 한계를 드러냅니다. 우리는 …