[Paper] 생성적 테스트 입력 생성에서의 잠재 정규화
본 연구는 truncation을 통한 latent spaces의 regularization이 deep learning classifiers를 위한 생성된 테스트 입력의 품질에 미치는 영향을 조사한다.
본 연구는 truncation을 통한 latent spaces의 regularization이 deep learning classifiers를 위한 생성된 테스트 입력의 품질에 미치는 영향을 조사한다.
우리는 기본적인 분산 컴퓨팅 문제에 대한 새로운 분산 양자 알고리즘을 제시한다, 즉, 리더 선출, 브로드캐스트, Minimum Spanning Tree (MST), a...
Federated Learning(FL)은 중앙 집중식 데이터 공유 없이 여러 클라이언트에 걸쳐 분산 학습을 가능하게 하며, Graph Neural Networks(GNN)는 관계를 모델링합니다.
수학적 형태학(MM)은 이미지 처리에서 강력하고 널리 사용되는 프레임워크입니다. 집합론적 및 이산 기하학적 원리를 통해, MM 연산은…
우리는 SecCodeBench-V2를 소개합니다. 이는 공개적으로 출시된 벤치마크로, Large Language Model (LLM) 코파일럿의 보안 코드를 생성하는 능력을 평가합니다. SecCodeB...
Large Language Models (LLMs)는 코딩 패러다임을 변화시키고 있으며, 이를 vibe coding이라고 부르지만, 알고리즘적으로 정교하고 견고한 코드를 합성하는 일은 여전히 남아 있다.
소프트웨어 리포지토리는 풀 리퀘스트와 같은 코드 관련 활동을 통해 개발자 상호작용을 포착함으로써 소프트웨어 진화에 대한 상세한 기록을 제공합니다.
Code smell은 software refactoring에서 큰 도전 과제로, 잠재적인 design 또는 implementation 결함을 나타내며, 이는 software maintainability를 저하시킬 수 있습니다.
우리는 SCENE (Self-Centering Noncoherent Estimator)을 제안한다. 이는 파일럿이 필요 없고 위상 불변인 aggregation primitive로, over-the-air federated distillation (OTA‑FD)에서 사용된다.
우리는 Sphere Encoder를 소개한다. 이는 단일 forward pass로 이미지를 생성할 수 있는 효율적인 generative framework이며, 다단계 diffusion 모델과 경쟁한다.
학습된 표현이 신경망의 성공을 뒷받침하지만, 그 근본적인 특성은 아직 충분히 이해되지 않는다. 눈에 띄는 예는 …
대형 언어 모델(LLMs)은 프라이버시가 중요한 상황과 개인화 지향 시나리오에 점점 더 많이 배치되고 있지만, 컨텍스트 길이가 사전 …