[Paper] ReaSeq: 추론을 통한 세계 지식 활용으로 시퀀셜 모델링
산업용 추천 시스템은 로그 기반 패러다임 하에서 두 가지 근본적인 제한에 직면합니다: (1) ID 기반 아이템 표현에서 지식 빈곤으로 인해…
산업용 추천 시스템은 로그 기반 패러다임 하에서 두 가지 근본적인 제한에 직면합니다: (1) ID 기반 아이템 표현에서 지식 빈곤으로 인해…
인간 영아는 단 몇 백 시간의 언어 노출만으로 새로운 언어의 기본 단위를 습득하며, 이는 data와 비교했을 때 눈에 띄는 효율성 격차를 강조한다.
대규모 언어 모델(LLM)은 개방형 도메인, 다중 턴 설정에서 대화형 어시스턴트로 점점 더 많이 배치되고 있으며, 사용자는 종종 불완전하거나...
현재 대형 언어 모델(Large Language Models, LLMs) 안전 접근 방식은 명시적으로 유해한 콘텐츠에 초점을 맞추면서 중요한 취약점인 이해력 부족을 간과한다.
최근 연구에 따르면 대형 언어 모델(LLMs)을 직접 파인튜닝하여 dense retrieval을 수행하면 강력한 성능을 얻을 수 있지만, 그들의 상당한 파라미터 수...
우리는 MoE‑DiffuSeq를 제시한다. 이는 mixture of experts 기반 프레임워크로, 긴 문서 생성에서 diffusion 모델을 향상시키기 위한 것이다. 기존 diffusion 기반 텍스트 생성…
우리는 Cube Bench를 소개합니다. 이는 Rubik's-cube 벤치마크로, 멀티모달 대형 언어 모델(MLLMs)의 공간 및 순차적 추론을 평가하기 위해 설계되었습니다. 이 벤치마크는 ...
Stereotactic radiosurgery (SRS)는 중요한 구조물 주변에 정밀한 dose shaping을 요구하지만, black-box AI 시스템은 불투명성 때문에 임상 채택이 제한적이다 ...
Large language models (LLMs)는 유창하고 복잡한 출력을 생성하지만, 자신의 실수와 hallucinations를 인식하지 못하는 경우가 많다. 기존 접근 방식은 보통…
사전 학습된 softmax attention Transformers를 softmax와 linear attention 레이어를 교차 배치하는 보다 효율적인 하이브리드 아키텍처로 증류하는 것은 유망한…
LLM이 자율 에이전트로 전환함에 따라 Deep Research가 핵심 지표로 부상했습니다. 그러나 BrowseComp와 같은 기존 학술 벤치마크는 종종 …
언어의 일관성을 위해 뇌는 두 가지 상충되는 시간적 요구를 충족해야 한다: 확장된 맥락에서 의미의 점진적 축적과 빠른 재구성…