LLM이 유입한 트래픽의 전환율은 30-40%이며, 대부분의 기업은 이를 최적화하고 있지 않다.
Answer Engine Optimization(AEO)의 부상 > 20년 넘게 디지털 탐색은 단순한 모델에 따라 운영되어 왔습니다: > 검색 → 스캔 → 클릭 → 결정. > T...
Answer Engine Optimization(AEO)의 부상 > 20년 넘게 디지털 탐색은 단순한 모델에 따라 운영되어 왔습니다: > 검색 → 스캔 → 클릭 → 결정. > T...
현대 추천 모델은 매개변수가 트릴리언 단위로 증가했습니다. 클러스터 규모가 O(1k) 수준으로 확장됨에 따라, 분산 학습 병목 현상이 계산 측면에서 변합니다.
상피 조직은 세포 간의 국부적인 기계적 상호작용을 통해 동적으로 형태를 재구성하며, 이 과정은 vertex models에 의해 잘 포착됩니다. 그러나 그들의 많은 조정 가능한 파라미터...
전통적인 optimization 문제는 종종 개별적으로 연구되었지만, 오늘날 많은 실제 문제들은 여러 optimization 구성 요소 간의 상호 의존성을 요구합니다.
OpenAI는 우리 시스템의 오용을 방지하기 위해 보호 장치를 구축하고 지속적으로 강화해 왔습니다 https://openai.com/index/combating-online-child-sexual-exploitation-abus...
MIT.nano는 2025년에 16개의 스타트업이 START.nano 프로그램에 활발히 참여하게 되었으며, 이는 이전보다 신생 기업 수를 두 배 이상 늘린 것이라고 발표했습니다.
‘왜 AI가 일부 직업을 다른 직업보다 더 빨리 대체하고 있는가’ 표지 이미지 AI https://media2.dev.to/dynamic/image/width=1000,height=420,fit=cover,gravity=auto,format=auto
과학 문헌의 급속한 성장으로 인해 연구자들이 관련 작업을 효율적으로 발견하고, 평가하며, 종합하는 것이 점점 더 어려워지고 있습니다. Re...
정적인 “train then deploy” 패러다임은 대규모 언어 모델(LLM)이 지속적인 스트…에 대응하여 가중치를 동적으로 조정하는 것을 근본적으로 제한한다.
Churn flow‑수직 two‑phase flow에서의 혼돈적이고 진동적인 레짐은 40년 넘게 정량적인 수학적 정의가 없었다. 우리는 최초로…
대형 Vision‑Language 모델은 이미지 설명에서 object hallucination을 발생시킬 수 있으며, 효과적인 detection 및 mitigation 전략의 필요성을 강조한다.
Character Error Rate (CER)는 Optical Character Recognition (OCR)의 품질을 평가하는 핵심 지표입니다. 그러나 이 지표는 텍스트가 …
RL에서, 프롬프트가 주어지면 모델에서 여러 개의 완성을 샘플링하고 점수를 매깁니다. 두 가지 질문이 뒤따릅니다: 어떤 완성이 확률 질량을 얻어야 하는가, 그리고 h...
MLLM은 멀티모달 임베딩 작업에 성공적으로 적용되었지만, 그들의 생성적 추론 능력은 아직 충분히 활용되지 않고 있습니다. 직접적으로 cha...
대형 언어 모델(LLMs)이 일관된 내부 세계 모델을 형성하는지는 여전히 핵심 논쟁거리이다. 기존의 Next-Token Prediction(NTP)은 하나에 초점을 맞춘다.
인공지능 거버넌스에는 사각지대가 있다: AI 시스템이 행동하기 위해 사용하는 머신 아이덴티티이다. AI agents, service accounts, API tokens, 그리고 auto...
효율적인 데이터 로딩은 근시일 양자 머신러닝에 여전히 병목 현상으로 남아 있다. 기존 스킴(angle, amplitude, and basis encoding)은 충분히 활용하지 않는다…
이 논문은 Polynomial Mixer (PoM)를 소개한다. 이는 선형 복잡도를 갖는 새로운 토큰 믹싱 메커니즘으로, self-attention을 대체할 수 있는 드롭인 방식이다....
이 연구는 RGB 사전 학습된 VLM과 열 적외선 이미지 간의 표현 격차를 메우기 위한 경량 멀티모달 적응 프레임워크를 제안한다, 그리고…
스케일러블한 야외 주행 장면 생성을 위해서는 여러 시점에서 일관성을 유지하고 넓은 영역으로 확장 가능한 3D 표현이 필요합니다. 기존의 …
Answer Engine Optimization (AEO)의 부상 20년 넘게 디지털 탐색은 단순한 모델로 운영되어 왔습니다: 검색 → 스캔 → 클릭 → 결정. T...
대규모 언어 모델(LLM) 에이전트는 다중 에이전트 환경에서 인간 대리인으로 점점 더 많이 활동하고 있으며, 여기서 대표 에이전트는 다양한 피어를 통합합니다.
현대의 Transformer 기반 언어 모델은 자연어 처리 작업에서 강력한 성능을 달성하지만, 그들의 latent semantic spaces는 여전히 크게 통합되지...
Graphics Program Synthesis는 시각 데이터를 해석하고 편집하는 데 핵심적인 역할을 하며, 정적인 비주얼을 편집 가능한 형태로 역공학하는 과정을 효과적으로 지원합니다.
성격 특성은 자연어에 풍부하게 인코딩되어 있으며, 인간 텍스트로 학습된 large language models (LLMs)는 프롬프트에 조건을 걸면 성격을 시뮬레이션할 수 있다.
대규모 언어 모델(LLMs)은 강력한 프로그램 수리 성능을 달성하지만, 종종 과도한 수정으로 올바른 코드를 덮어쓰는 과다 편집(over-editing) 문제를 겪는다 ...
Neural network pruning은 조합 최적화 문제로 공식화될 수 있지만, 대부분의 기존 접근 방식은 복잡한 ...를 무시하는 greedy heuristics에 의존합니다.
수십 년 동안, 핫한 스타트업의 주식을 사는 것은 상위 벤처 캐피털 회사가 운영하는 펀드에 제한되었습니다. AI 붐은 투자 열풍을 촉발했으며, …
광발전(PV) 모니터링 및 MPPT 제어 신호에서 사이버 공격을 탐지하려면 편향, 드리프트 및 순간 스파이크에 강인하면서도 경량인 모델이 필요합니다.
소개: 거짓 약속? 데이터 분야의 컨설턴트이자 매니저로서 저는 양쪽 모두에서 slide‑deck 프레젠테이션을 꽤 많이 들어봤습니다. Any sli...
오늘날 소프트웨어 아키텍처에서 대형 언어 모델(LLM)은 소프트웨어 아키텍처 코파일럿 역할을 합니다. 그러나 현재 대형 언어 모델을 평가할 벤치마크는 존재하지 않습니다.
Web applications은 서로 다른 정보 자원을 연결하기 위해 하이퍼링크에 크게 의존합니다. 그러나 웹의 동적 특성으로 인해 link rot이 발생하며, 이는 대상이 …
우리는 MegaTrain을 소개한다. 메모리 중심 시스템으로, 단일 GPU에서 전체 정밀도로 100B+ 파라미터 대형 언어 모델을 효율적으로 학습한다. 전통적인…
우리는 Vanast를 소개합니다. 이 통합 framework는 단일 인간 이미지, garment 이미지 및 pose를 입력으로 하여 garment-transferred human animation videos를 직접 생성합니다.
씬 수준의 포인트 클라우드 이해는 다양한 기하학, 불균형한 카테고리 분포, 그리고 매우 다양하게 변하는 공간 레이아웃 때문에 여전히 어려운 과제입니다. 존재…
Local feature matching은 Structure-from-Motion (SfM)과 같은 3D vision 시스템의 기본적인 구성 요소였지만, 그 진전은 급속한 …
대부분의 비전-언어 모델(VLM)은 디코더로서 대형 언어 모델(LLM)을 적용하며, 응답 토큰은 자동회귀 방식으로 순차적으로 생성됩니다.
Pre-trained diffusion models는 All-in-One Restoration (AiOR)에서 중요한 발전을 가능하게 하여 향상된 지각 품질과 일반화를 제공합니다. Ho...
본 논문에서는 각 atomic predicate를 membership test로 해석하는 stratification‑based semantics를 Signal Temporal Logic (STL) 에 대해 개발한다.
대규모 언어 모델(LLMs)에서 확장된 추론은 심각한 KV 캐시 메모리 병목 현상을 초래합니다. 주요 KV 캐시 압축 방법들은 KV 중요도를 사용하여 추정합니다…
우리는 반선형 편미분 방정식의 최적 제어를 위한 수치 도구로서 물리 기반 신경망(PINNs)을 연구한다. 먼저 c...
시각적 추론기(visual reasoner)가 차트, 과학, 공간 이해 및 개방형 과제 전반에 걸쳐 작동하려면 무엇이 필요할까요? 가장 강력한 비전‑언어 모델…
Image spatial editing은 geometry-driven transformations를 수행하여 object layout 및 camera viewpoints에 대한 정밀한 제어를 가능하게 합니다. 현재 모델들은 충분하지…
독점적인 AI 시스템은 최근 복잡한 증명 기반 문제에서 인상적인 능력을 보여주었으며, 2025 Inte에서 보고된 금 수준의 성능을 기록했습니다.
강화 학습 with verifiable rewards (RLVR)는 대형 언어 모델(LLMs)의 추론 능력을 크게 향상시켰다. 그러나, 그것은 …
Gradient normalization은 deep‑learning 최적화에서 중심적인 역할을 하며, training을 안정화하고 scale에 대한 민감도를 감소시킵니다. deep architectures에서는 parameter…
대형 언어 모델 에이전트가 소프트웨어 엔지니어링(SWE) 작업을 넘어 머신러닝 엔지니어링(MLE)으로 진전함에 따라, 에이전트 행동을 검증하는 것이 order...
우리는 Full-Duplex-Bench-v3 (FDB-v3)를 소개합니다. 이는 자연스러운 음성 환경과 다단계 도구 사용 상황에서 spoken language models를 평가하기 위한 benchmark입니다. Unli...