[Paper] Autoregressive Multiscale Image Generation을 위한 Progressive Checkerboards
자동회귀 이미지 생성에서 주요 과제는 상호 의존성을 모델링하면서도 독립적인 위치들을 병렬적으로 효율적으로 샘플링하는 것입니다.
자동회귀 이미지 생성에서 주요 과제는 상호 의존성을 모델링하면서도 독립적인 위치들을 병렬적으로 효율적으로 샘플링하는 것입니다.
그래프 신경망(GNN)에서 불균형 노드 분류는 일부 라벨이 다른 라벨에 비해 훨씬 많이 나타날 때 발생하며, 이는 모델이 불공정하게 학습하도록 만든다.
최근에는 실제 과제에 강화 학습(RL)을 적용해 대형 언어 모델(LLMs)을 훈련시키는 연구에 큰 관심이 집중되고 있습니다, 예를 들어 …
현대의 distributed optimization 방법은 비동기 최적화에서 상당한 최근 진전에도 불구하고 대부분 전통적인 synchronous 접근 방식에 의존합니다. 우리는 ...
비전문가 사용자가 복잡한 인터랙티브 웹사이트를 개발하도록 돕는 것은 LLM‑powered code agents에게 인기 있는 작업이 되었습니다. 그러나 기존 code agents는 …
Prompt injection attacks는 웹 페이지 콘텐츠를 조작하여 web agents가 사용자가 의도한 작업이 아니라 공격자가 지정한 작업을 수행하도록 합니다. Existing method...
Long-context inference with Large Language Models (LLMs)는 quadratic attention과 증가하는 key-value caches 때문에 비용이 많이 들며, 이는 context compression을 필요하게 합니다. In t...
인간 시각은 foveated 구조를 가지고 있으며, 해상도가 가변적으로 큰 시야의 중심에서 최고에 달한다; 이는 능동적 감지를 위한 효율적인 절충을 반영한다, allo...
Gemini 앱이 더 많은 기능을 추가함에 따라, Google은 웹에서 Experimental Labs를 통해 Tools 메뉴의 구성을 개선하고 있습니다. more…
분산 에이전트는 한 번에 한 수만 결정하면 됩니다. “Routing in a Sparse Graph: a Distributed Q-Learning Approach”라는 게시물이 먼저 Towards Data Science에 게재되었습니다.
우리는 가속 노이즈 파워 메서드(Accelerated Noisy Power Method)를 분석한다. 이 알고리즘은 주성분 분석(Principal Component Analysis)을 수행하는데, 여기서는 정확하지 않은 행렬-벡터 곱(matrix-vector products)만 이용할 수 있는 상황을 가정한다.
Luffu는 백그라운드에서 AI를 사용해 가족 정보를 수집·정리하고, 일상 패턴을 학습하며, 눈에 띄는 변화를 표시해 가족이 일치된 상태를 유지하도록 합니다…
Equilibrium Propagation (EP)은 물리학에서 영감을 받은 학습 알고리즘으로, 동적 시스템의 정상 상태를 추론과 학습 모두에 사용합니다. 그것의 ...
내가 직접 한 미친 실험, 작성자: @hejhdiss https://dev.to/hejhdiss. 참고: 저장소의 codebase는 원래 Claude Sonnet이 작성했지만, 나는 편집했다.
ChatGPT가 2022년 11월에 출시되었을 때, 그것은 거의 즉시 기술 산업을 휩쓴 경쟁을 시작했습니다. OpenAI는 AI 개념을 발명한 것은 아니지만, …
YOLOv1에서 YOLOv2까지: prior box, k-means, Darknet-19, passthrough layer 등. ‘YOLOv2 & YOLO9000 Paper Walkthrough: Better, Faster, Stronger’ 포스트가 등장합니다.
Stereo matching은 컴퓨터 비전의 핵심 문제이며, 특히 대형 이미지나 실시간 시스템에서 작업할 때 성능이 중요합니다. 이 포스트에서는…
비동기 파이프라인 병렬성은 동기 실행에 내재된 파이프라인 버블을 제거함으로써 하드웨어 활용도를 극대화하며, e...에 대한 경로를 제공한다.
지역 범죄 데이터를 추출하고 Metabase에서 시각화하기 위한 ETL 파이프라인을 만드는 과정을 단계별로 안내합니다. 게시물 “Creating a Data Pipeline to Monitor Local Crime Trends”.
Mixture of Experts (MoE) 아키텍처는 계산량이 비례적으로 증가하지 않으면서 LLM의 용량을 크게 향상시키지만, 방대한 파라미터…
합성 데이터의 이웃 ‘The Proximity of the Inception Score as an Evaluation Criterion’라는 포스트가 처음으로 Towards Data Science에 게재되었습니다....
Decentralized learning (DL)은 중앙 조정 없이 노드 집합이 협업적으로 모델을 학습할 수 있게 하여 프라이버시와 확장성 측면에서 이점을 제공합니다....
이전 게시물은 failure modes에 초점을 맞추었습니다: agents가 실패하는 지점과 우리가 그들의 출력을 검토할 때 실패하는 지점. 이번 후속은 diagnosis에서 design으로 전환합니다. Sa...
서울시의 서울 AI 허브센터장 박찬진가 지난 1월 30일 서울 코엑스 그랜드볼룸에서 열린 AI 컨퍼런스 ‘AI SEOUL 2026’을 통해 인공지능 기술 경쟁의 다음 단계는 성능 고도화가 아니라 ‘현실에서 작동하는 구조를 어떻게 설계하느냐의 문제’라는 점을 분명히 했다. 이번 행사는 A...
대규모 언어 모델(LLM) 기반 알고리즘 발견은 프로그램을 대상으로 하는 반복적인 블랙박스 최적화 과정으로, 목표 작업을 근사적으로 해결하기 위해…
인류 역사의 대부분 동안 증거는 단순했습니다: 눈으로 직접 본 것은 아마도 실제였고, 익숙한 목소리를 들으면 그것은 …에 속했습니다.
2026년 1월 29일
번역할 텍스트를 제공해 주시면 한국어로 번역해 드리겠습니다.
Apple과 텔아비브 대학교 연구원 그룹은 인공지능 기반 텍스트‑투‑스피치 생성 속도를 높이면서도 이해도를 희생하지 않는 방법을 찾아냈다. 여기…
Advanced Persistent Threats (APTs)는 정교하고 장기적인 사이버 공격으로, 은밀하게 작동하고 종종 n...에 섞여 들어가 탐지하기 어렵습니다.
Sora 피드 철학을 발견하세요—창의성을 자극하고, 연결을 촉진하며, 개인화된 추천과 parental controls와 함께 경험을 안전하게 유지하도록 설계되었습니다.
매우 불균형한 데이터셋에서 희귀하고 다양한 이상 현상을 탐지하는 것은—예를 들어 사이버 보안 분야의 Advanced Persistent Threats (APTs)—여전히 근본적인 과제이다.
번역할 텍스트를 제공해 주시겠어요? 현재는 URL과 메타 정보만 있어 번역할 내용이 없습니다.
AI를 발전시키는 것은 획기적인 모델만으로는 충분하지 않습니다. 이는 실험하고, 가정을 검증하며, 그 결과를 공유하는 빌더와 연구자들의 커뮤니티에 달려 있습니다...
직접 정렬 방법은 대형 언어 모델(LLMs)을 인간 선호와 맞추는 데 점점 더 많이 사용되고 있습니다. 그러나 많은 실제 정렬 문제는…
임상 뇌-텍스트 인터페이스는 광범위한 훈련 녹음을 제공할 수 없는 마비 환자를 위해 설계되었습니다. 사전 훈련은 데이터 효율적인 생성...
Pixel diffusion은 이미지를 픽셀 공간에서 직접, 엔드‑투‑엔드 방식으로 생성하여, 두 단계 잠재 모델에서 VAE가 도입하는 아티팩트와 병목 현상을 피합니다.
우리는 RLAnything이라는 강화학습 프레임워크를 제안한다. 이 프레임워크는 폐쇄‑루프 최적화를 통해 환경, 정책 및 보상 모델을 동적으로 형성하고 이를 증폭한다.
LLM 기반 딥 리서치 에이전트는 대부분 ReAct 프레임워크를 기반으로 구축됩니다. 이러한 선형 설계는 이전 상태로 다시 돌아가거나 대안적인…
LLM 사후 훈련을 위한 RL의 성공은 지나치게 정보가 부족한 출처, 즉 롤아웃당 하나의 비트 정보(이진 보상 또는 선호)에서 비롯됩니다.
Likelihood-based policy gradient methods는 보상으로부터 로봇 제어 정책을 학습하는 데 지배적인 접근 방식입니다. 이러한 방법들은 미분 가능한 action에 의존합니다.
대형 언어 모델(Large language models, LLMs)은 단계별 사고 흐름(chain-of-thought, CoT) 추론을 통해 강력한 추론 능력을 입증했습니다. 그럼에도 불구하고, 한계에서는 …
대부분의 Large Language Model (LLM) 에이전트 메모리 시스템은 메모리를 추출하기 위해 소수의 정적이고 hand-designed operations에 의존합니다. 이러한 고정된 절차는 hard‑…
휴머노이드 로봇이 민첩하고 적응형 인터랙티브 작업을 수행하도록 하는 것은 로봇공학에서 오래전부터 핵심 과제였습니다. 현재 접근 방식은 ...
Progressive Learning (PL)은 모델 규모를 점진적으로 늘림으로써 사전 학습(pre‑training) 계산 오버헤드를 감소시킵니다. 기존 연구에서는 깊이 확장(depth expansion)을 광범위하게 탐구했지만…
딥러닝 기반 자동 세분화는 방사선 치료에서 점점 더 많이 사용되고 있지만, 기존 모델은 종종 해부학적으로 타당하지 않은 거짓 양성 결과를 생성하거나 h...
Autoregressive 대형 언어 모델(LLMs)은 많은 복잡한 작업에서 눈에 띄는 성공을 거두었지만, 여전히 매우 간단한 논리적 추론에서 실패할 수 있습니다 suc...
대규모 언어 모델(LLMs)의 급속한 발전은 이러한 모델이 어떤 형태의 의식을 가지고 있는지에 대한 질문을 제기했습니다. 이 문제에 접근하기 위해, ...