[Paper] Large Language Models는 데이터 시각화 규칙을 이해할까?
Data visualization 규칙은 디자인과 인지에 대한 수십 년간의 연구에서 도출된 것으로, 신뢰할 수 있는 차트 커뮤니케이션을 보장합니다. 이전 연구에서는 대규모…
Data visualization 규칙은 디자인과 인지에 대한 수십 년간의 연구에서 도출된 것으로, 신뢰할 수 있는 차트 커뮤니케이션을 보장합니다. 이전 연구에서는 대규모…
대형 언어 모델(LLMs)의 부상과 함께, 이들은 Retrieval‑Augmented Generation(RAG)과 같은 응용 분야에서 중요한 역할을 하게 되었습니다. 그러나 이러한 …
Epidemiological models는 vaccination status, mask usage, social distancing adherence와 같은 self-reported 행동 데이터를 점점 더 많이 활용하여 질병 확산을 예측한다.
현재 대규모 모델 추론을 위한 강화 학습(reinforcement learning) 목표는 주로 기대 보상(expected rewards)을 최대화하는 데 초점을 맞추고 있습니다. 이 패러다임은 도메인에 과적합될 수 있습니다.
목표: 불필요한 추론을 피하면서 대형 언어 모델(LLMs)을 활용한 의료 질문 응답(MedQA)의 효율성을 향상시키는 것.
대형 언어 모델(LLMs)은 어떻게 자신이 아는 것을 알까요? 이 질문에 답하는 것은 사전 학습 데이터가 종종 ‘블랙 박스’—즉, 알 수 없는 형태이기 때문에 어려웠습니다.
긴 시간 범위의 작업을 해결하려면 로봇이 고수준 의미 추론과 저수준 물리적 상호작용을 통합해야 합니다. Vision-language models (VLMs) ...
검증 가능한 보상을 이용한 강화 학습(RLVR)은 감독을 활용하여 추론 언어 모델(RLMs)을 훈련시키는 유망한 접근법으로 떠오르고 있다.
우리는 [Goel et al. 2017]에서 소개한 적대적 주입 모델에서의 온라인 학습을 연구한다. 여기서 라벨이 붙은 예시들의 스트림은 주로 i.i.d. 방식으로 추출된다…
전문가 주석에 대한 의존은 오랫동안 인공지능을 생물의학에 적용하는 데 있어 주요 속도 제한 단계였습니다. While supe...
Retrieval-augmented generation (RAG)은 외부에서 검색된 문서에 기반해 생성 과정을 조건화함으로써 대형 언어 모델(LLMs)을 향상시키지만, 검색의 효과는…
에지 기반 표현은 시각적 이해를 위한 기본적인 단서이며, 초기 시각 연구에 뿌리를 두고 오늘날에도 여전히 중심적인 원리입니다. 우리는 이…