[Paper] 엔트로피에서 Epiplexity까지: 계산적으로 제한된 지능을 위한 정보 재고찰
우리는 데이터에서 생성 과정 자체에 존재했던 것보다 더 많은 것을 배울 수 있을까? 단순히 결정론적 변환을 적용하는 것만으로 새로운 유용한 정보를 만들 수 있을까?
우리는 데이터에서 생성 과정 자체에 존재했던 것보다 더 많은 것을 배울 수 있을까? 단순히 결정론적 변환을 적용하는 것만으로 새로운 유용한 정보를 만들 수 있을까?
수학에서 학생들의 실수는 종종 체계적이다: 학습자는 일관되지만 잘못된 절차를 적용하고 이를 다양한 상황에서 반복한다. 우리는 MalruleLib를 소개한다…
텍스트-이미지 디퓨전 모델에서 머신 언러닝은 전체 유용성을 유지하면서 목표 개념을 제거하는 것을 목표로 합니다. 기존 디퓨전 언러닝 방법은 일반적으로…
엔터프라이즈 검색에서, 대규모로 고품질 데이터셋을 구축하는 것은 라벨링된 데이터를 확보하기 어려워서 여전히 핵심 과제입니다. 이 문제를 해결하기 위해…
대형 언어 모델(LLMs)은 자연어 처리에서 상당한 잠재력을 보여주었지만, 다중 단계가 필요한 복잡한 일반 목적 추론은 ...
LLM 에이전트는 추론하고 도구를 사용할 수 있지만, 무제한 컨텍스트 증가와 누적 오류 때문에 장기 작업에서 종종 붕괴됩니다. 일반적인 해결책은 …
머신러닝(ML) 모델 편향을 평가하는 것은 신뢰할 수 있고 견고한 ML 시스템을 구축하는 데 핵심입니다. 반사실 공정성(CF) 감사는 편향을 측정할 수 있게 해줍니다.
machine learning models에 대한 표현력 있는 쿼리—이를 intentional data의 한 형태로 보는—는 declarative language를 사용하여 검증 및 해석을 가능하게 한다.
Diffusion language models (DLMs)는 in-context examples와 함께 일반 자연어 작업에 대해 강력한 잠재력을 보여주었습니다. 그러나 양방향 ...
Multimodal Large Language Models (MLLMs)의 instruction-following (IF) 능력을 평가하는 것은 모델이 얼마나 충실하게 … 를 엄밀히 평가하기 위해 필수적이다.
멀티 에이전트 LLM 파이프라인이 복잡해짐에 따라 기존 서빙 패러다임은 동적인 서빙 조건에 적응하지 못합니다. 우리는 agentic serving system이…
우리는 probability-domain softening operators에 기반한 sparse knowledge distillation을 위한 통합 이론적 프레임워크를 개발한다. p^{1/T}의 동등성은 …