[Paper] CLAD: 압축된 표현에서 직접 수행하는 효율적인 로그 이상 탐지
시스템 로그의 폭발적인 증가로 스트리밍 압축이 필수적이지만, 기존 로그 이상 탐지(LAD) 방법은 심각한 전처리 오버헤드를 초래한다.
시스템 로그의 폭발적인 증가로 스트리밍 압축이 필수적이지만, 기존 로그 이상 탐지(LAD) 방법은 심각한 전처리 오버헤드를 초래한다.
Energy Conserving Descent (ECD) 알고리즘은 최근 (De Luca & Silverstein, 2022)에서 전역 비볼록 최적화 방법으로 제안되었습니다. 기존의 gradient…
Computed tomography (CT) enterography는 염증성 장질환(IBD)을 평가하기 위한 주요 영상 촬영 방법이지만, 가장 적절한 표현 선택은 …
Computer Use Agents (CUAs)는 근본적으로 그래픽 사용자 인터페이스 (GUI) grounding을 사용하여 언어 명령을 실행 가능한 화면 동작으로 변환하지만…
자율 AI 연구는 빠르게 발전했지만, 장기적인 ML 연구 엔지니어링은 여전히 어렵습니다: 에이전트는 작업 이해 전반에 걸쳐 일관된 진전을 지속해야 합니다…
AI-driven 교육 플랫폼은 개인화에서 어느 정도 진전을 이루었지만, 대부분은 정적 적응에 제한됩니다—미리 정의된 퀴즈, 균일한 속도 등.
On-policy distillation (OPD)은 대형 언어 모델의 사후 훈련에서 핵심 기술이 되었지만, 그 훈련 역학은 아직 충분히 이해되지 않는다. This...
On-policy distillation (OPD)는 대형 언어 모델을 위한 효율적인 사후 학습 패러다임으로 부상했습니다. 그러나 표준 OPD는 실시간 교사 추론을 필요로 합니다...
Instruction-tuned large language models는 유용하고 구조화된 응답을 생성하지만, 사소하게 제한될 때 이 유용성이 얼마나 견고한가? 우리는 simpl...
대규모 언어 모델(LLMs)은 다양한 소프트웨어 엔지니어링(SE) 도구에 동력을 제공하는 데 큰 가능성을 보여주었습니다. 자연어를 직관적인 상호작용으로 제공함으로써…
대형 언어 모델(LLMs)은 공공 정책 분야를 포함한 실제 의사결정에 점점 더 통합되고 있습니다. 그러나 그들의 이해 능력은…
소프트웨어의 논리적 취약점은 프로그램 로직의 결함에서 비롯되며, 메모리 안전성보다 더 큰 문제를 일으켜 critical security failures를 초래할 수 있다. Although existing ...
시계열 데이터에서 반사실 결과를 예측하는 것은, 순차적인 치료 결정이 변화하는 환자 상태에 크게 의존하는 경우에 매우 중요하지만 난제이다.
Execution Accuracy (EX)는 자연어를 SQL(NL2SQL)로 변환하는 솔루션의 효과를 평가하는 데 널리 사용되는 지표이며, 점점 신뢰성이 떨어지고 있다.
자율 AI 에이전트는 실험적 도구에서 운영 인프라로 빠르게 전환하고 있으며, 기업 애플리케이션의 80%가 ...
Optical character recognition (OCR)은 비전‑언어 모델의 부상과 함께 빠르게 발전했지만, 평가는 여전히 소수의 클러스터에 집중되어 왔습니다.
Multimodal federated learning은 의료 기관 전반에 걸쳐 프라이버시를 보호하는 협업 모델 학습을 가능하게 합니다. 그러나 근본적인 도전 과제가 발생합니다.
수렴 속도, 일반화 능력, 그리고 계산 효율성의 균형을 맞추는 것은 딥러닝 최적화에서 핵심 과제로 남아 있습니다. First-order gradient…
딥러닝에서 가장 많이 인용되는 캘리브레이션 결과인 CIFAR‑100에서의 post‑temperature‑scaling ECE 0.012 (Guo et al., 2017)는 통계적 노이즈 변동보다 낮다.
전통적인 고정‑깊이 아키텍처는 일반적으로 파라미터 수를 늘려 훈련 FLOPs를 증가시킴으로써 품질을 확장하지만, 그 대가로 더 높은 메모리를 요구한다.
Speech-to-speech language models는 최근 대화형 AI의 자연스러움을 향상시키기 위해 등장했습니다. 특히, full-duplex models는 …
Metonymy와 metaphor는 자연어에서 자주 동시에 발생하지만, computational 연구는 이를 주로 별도로 연구해 왔습니다. 우리는 변환하는 framework를 소개합니다.
Multilingual benchmarks는 frontier models의 개발을 안내합니다. 그러나 frontier models가 보고하는 multilingual evaluations는 popular rea와 유사하게 구조화되어 있습니다.
많은 프로그램 합성, 초최적화, 그리고 배열 프로그래밍 기법들은 범용 프로그램의 병렬 롤아웃을 필요로 합니다. GPU는, 능력 있는 대상…
코드 추론 작업은 대형 언어 모델(LLM)을 평가하는 데 점점 더 중요해지고 있습니다. 그러나 대부분의 기존 벤치마크는 단순한 LLM‑generated 스니펫에 의존합니다.
Neural Cellular Automata(NCAs)에 관한 문헌 전반에서, 시스템이 어트랙터를 학습한다는 것이 당연하게 받아들여진다. 이는 진화하는 …을 통해 보여진다.
이 논문은 다년간 다수 파트너가 참여한 노력의 일환으로 유럽 프로세서 이니셔티브(EPI) 내에서 개발된 RISC‑V 기반 가속기 칩인 EPAC을 소개한다.
대기업은 종종 대규모이면서 이질적인 컴퓨트 클러스터에서 방대한 Continuous Integration (CI) 파이프라인을 운영하는데, 여기서 보수적이고 정적으로 정의된…
컴퓨팅 연속체 전반에 걸쳐 애플리케이션을 배포하려면 지리적으로 분산되고 이질적인 환경에서 인프라 노드를 선택해야 합니다.
공정성은 인간과 관련된 고위험 소프트웨어 시스템에 대한 중요한 요구 사항이며, 이는 bias mitigation에 대한 광범위한 연구를 촉진합니다. 기존 연구는 주로 ...
Federated Learning (FL)은 에지에서 Large Language Models (LLMs)를 협업적으로 미세 조정할 수 있는 유망한 경로를 제공하지만, 이 패러다임은 중요한…
대형 언어 모델(LLMs)은 코딩 작업을 해결하기 위해 명시적 추론에 점점 더 의존하고 있지만, 이러한 추론의 품질을 평가하는 것은 여전히 어려운 과제입니다. Ex...
Streaming Data-Driven Optimization (SDDO) 문제는 데이터가 지속적으로 도착하고 최적화 환경이 시간에 따라 변하는 많은 응용 분야에서 발생합니다....
비브 코딩의 등장은, 비전문가가 자연어를 통해 대형 언어 모델(LLMs)에게 실행 가능한 코드를 생성하도록 지시하는 패러다임으로, ...
우리는 작은 로컬 모델이 프런트 엔드에서 triage layer 역할을 할 수 있을 때, cloud LLM 토큰 사용량을 줄이기 위한 일곱 가지 전술에 대한 체계적인 측정 연구를 제시합니다.
대형 언어 모델(LLM)은 자연어로부터 코드를 생성할 수 있지만, 의도된 프로그램 동작을 얼마나 잘 포착하는지는 아직 명확하지 않다. Executable…
우리는 데이터가 중앙 코디네이터 없이 노드에 분산된 네트워크에서의 분산 학습을 연구한다. 랜덤 워크 학습은 토큰 기반 접근 방식이다…
Deep neural networks는 높은 정확도에도 불구하고 신뢰도 보정이 부족한 경우가 많아 고위험 응용 분야에서 신뢰성을 제한합니다. Current ad...
우리는 (Experience‑Modulated Biologically‑inspired Emergent Reasoning)이라는 하이브리드 인지 아키텍처를 제시한다. 이 아키텍처는 대형 언어 모델과의 관계를 재구성한다.
현대 머신러닝 방법은 외계 시료에서 생명을 탐지하기 위해 제안되었으며, 이 방법은 생물학적(biotic)과 비생물학적(abiotic) 샘플을 구별하는 능력을 활용합니다.
이미지 간에 매칭되는 keypoints를 찾는 것은 3D computer vision의 핵심 문제입니다. 그러나 최신 matchers는 큰 in-plane rotations에 어려움을 겪습니다. A straightfo...
자율 오프그리드 태양광 시스템의 안정적인 운영은 대기 열역학을 고려한 태양 예측 알고리즘에 의존하도록 요구한다.
본 연구에서는 Human-Object Interaction Video Generation (HOIVG)을 연구합니다. 이는 텍스트에 조건화된 고품질 인간‑객체 상호작용 비디오를 합성하는 것을 목표로 합니다.
Big Five와 같은 심리학적 구성요소를 사용하여, 대형 언어 모델(LLMs)은 특정 성격 프로파일을 모방하고 사용자의 성격을 예측할 수 있다. Wh...
우리는 복원된 장면의 diffusion-based refinement 과정에서 cross-view consistency를 강제하는 프레임워크인 SyncFix를 제시한다. SyncFix는 정제를…
Tool-augmented Large Language Model (LLM) agents는 복잡하고 다단계의 실제 작업을 자동화하는 데 인상적인 능력을 보여주었지만, 여전히 취약…
High dynamic range (HDR) 이미지는 장면 복사광을 풍부하고 충실하게 표현하지만, 그 불일치 때문에 생성 모델에게는 여전히 도전 과제입니다...
대규모 멀티모달 모델(LMMs)은 범용 비전‑언어 이해에서 눈에 띄는 진전을 이루었지만, 여전히 p...