[Paper] 클래식 플래닝에서 Domain Model Design의 에너지 영향
AI 연구는 전통적으로 알고리즘 성능을 우선시해 왔으며, 예를 들어 머신 러닝에서 정확도를 최적화하거나 자동 계획에서 실행 시간을 최적화하는 것이 포함됩니다. 떠오르는...
AI 연구는 전통적으로 알고리즘 성능을 우선시해 왔으며, 예를 들어 머신 러닝에서 정확도를 최적화하거나 자동 계획에서 실행 시간을 최적화하는 것이 포함됩니다. 떠오르는...
구조화된 데이터를 평탄화하면 정밀도와 재현율을 최대 20%까지 향상시킬 수 있다는 분석. 게시물: Optimizing Vector Search: Why You Should Flatten Structured D...
인공지능의 급속한 부상은 에너지 소비의 지속 불가능한 증가를 초래했습니다. 이는 뉴로모픽 컴퓨팅 및 ph... 분야의 발전을 촉진했습니다.
AI 에이전트는 이제 서로 대화할 수 있지만, 서로가 무엇을 하려고 하는지는 이해하지 못합니다. 이것이 Cisco의 Outshift가 해결하려는 문제입니다.
다중목표 진화 알고리즘(Multi-Objective Evolutionary Algorithms, MOEAs)은 다중목표 최적화 문제(Multi-Objective Optimisation Problems, MOOPs)를 해결하는 데 효과적인 것으로 입증되었습니다. 그러나 그들의 성능은 b...
Black-Box Optimization (BBO)에서의 Benchmark Design은 기본적이면서도 아직 해결되지 않은 주제입니다. 초기 BBO 벤치마크는 주로 인간이 만든(human‑crafted) 방식으로 설계되어, 전문가의 지식과 직관을 반영합니다.
Meta-Black-Box Optimization (MetaBBO)은 최적화 커뮤니티 내에서 떠오르는 분야로, 알고리즘 설계 정책을 강화 학습을 통해 메타 학습할 수 있습니다…
자동차 애프터마켓에서 예비 부품 재고의 효율적인 관리는 매우 중요합니다. 이 분야에서는 수요가 매우 간헐적이며 불확실성이 상당한 비용을 초래합니다.
결정론은 대규모 언어 모델(LLM) 훈련에서 재현성을 위해 필수적이지만, 종종 큰 성능 비용을 초래한다. 널리 사용되는 attention ...
Spiking Neural Networks (SNNs)는 이벤트 기반(event-driven)이고 희소(sparse) 연산으로 인해 에너지 효율이 매우 높지만, 스파이크의 비미분 가능성(spike non-differentiability) 때문에 학습이 어려움을 겪는다.
우리는 사람들이 AI를 활용해 학습하는 방식을 이해하고, 그것이 도움이 되는지, 해가 되는지, 그리고 도구를 대체하고 있는지를 파악하기 위해 설문조사를 진행하고 있습니다.
수학을 넘어 직관을 구축하기 위해. “RoPE, Clearly Explained” 게시물은 최초로 Towards Data Science에 실렸습니다....
Business Process Model and Notation (BPMN) 모델을 만드는 것은 도메인 지식과 모델링 숙련도가 모두 요구되는 복잡하고 시간 소모적인 작업입니다.
스파이킹 신경망(SNN)은 이미 잘 훈련된 인공 신경망(ANN)을 변환함으로써 경쟁력 있는 성능을 달성할 수 있으며, 추가 학습을 피할 수 있다.
혼합 워크로드—짧고 latency-sensitive 인터랙티브 쿼리와 길고 throughput-oriented 배치 요청—에서 Large Language Models (LLMs)를 제공하는 것—pos...
게임을 준비하세요 — Linux PC용 네이티브 GeForce NOW 앱이 이제 베타 버전으로 제공되어, Linux 데스크톱이 GeForce RTX 성능을 직접 활용할 수 있게 됩니다.
바이브 코더의 고백. “The Unbearable Lightness of Coding” 포스트는 처음 Towards Data Science에 게재되었습니다....
무작위 배정은 일반적으로 실험에서 교란 변수를 균형 있게 맞추지만, 균형이 맞지 않을 때는 어떻게 될까요? “Randomization Works in Experiments, Even Without Balance”라는 글에서는…
대형 언어 모델(Large Language Models)의 운영 효율성은 inference-time context에 크게 의존합니다. 이는 Context Engineering (CE)을 공식적인 분야로 확립했습니다.
대형 언어 모델은 자연어 프롬프트에서 직접 최적화 알고리즘을 생성함으로써 자동 알고리즘 설계(AAD)를 가능하게 했습니다. 진화…
Large Language Models (LLMs)은 다양한 분야에서 뛰어나지만, quadratic attention과 dense Feed-Forward Network (FFN) 연산으로 인한 높은 에너지 비용을 겪는다.
LLM 기반 멀티-에이전트 시뮬레이션은 다양한 응용 분야에서 점점 더 많이 채택되고 있지만, GPU 메모리 압박 때문에 확장하기가 어렵습니다. 각 에이전트는 …
기사로 돌아가기 !https://huggingface.co/avatars/57788ddf501be9dc121c6eb017ac48d2.svghttps://huggingface.co/andreatgretel !https://cdn-avatars.huggingface.co/v1...
우리 모두 그런 상황을 겪어봤을 겁니다: 맛있는 파스타 한 접시를 앞에 두고, 모든 그램을 수동으로 피트니스 앱에 기록하려고 할 때. 이는 지루하고, ‘낙관적인’ 인간 오류에 취약합니다.
개인 AI 어시스턴트 Moltbot —formerly Clawdbot —는 몇 주 만에 바이럴을 일으켰습니다. 하지만 밴드왜건에 뛰어들기 전에 알아야 할 것이 더 있습니다....
2026년 1월 5일 브라이언 강 https://developers.googleblog.com/search/?author=Brian+Kang 시니어 스태프 - 필드 솔루션 아키텍트 AI 인프라스트럭처 JAX on Cloud TPUs...
2026년 1월 16일, Agentic AI의 세계에서, tools를 호출하는 능력이 natural language를 executable software actions로 변환합니다. 지난달, 우리는 출시했습니다.
2025년 12월 11일 AI 개발의 풍경은 무상태(request-response) 사이클에서 상태를 유지하는 다중 턴(multi-turn) 에이전시(agentic) 워크플로우로 전환하고 있습니다. 베타 런치와 함께…
2025년 12월 16일 소프트웨어 개발 세계는 이미 이 교훈을 배웠다: 모놀리식 애플리케이션은 확장되지 않는다. 대규모 전자상거래…
‘AI Governance’라는 용어가 최근 주목받고 있으며, 그 이유는 분명합니다: 실제 응용 분야에 안전한 AI 시스템을 도입하는 기업들은 거버넌스가 필요합니다.
Federated Learning (FL)은 분산된 데이터 소스 전반에 걸쳐 Large Language Models (LLMs)의 협업 학습을 가능하게 하면서 프라이버시를 보호합니다. 그러나, f...
Quality diversity (QD)는 진화 계산의 한 분야로, 문제에 대한 고품질이며 행동적으로 다양한 솔루션을 찾는 것을 목표로 합니다. 적대적인 문제…
그들의 시작부터, artificial neural networks는 데이터와 작업에 더 잘 적응하기 위해 수동으로 설계된 architectures와 inductive biases에 의존해 왔습니다. With th...
복잡한 사회 시스템을 위한 시뮬레이터의 calibration은 시뮬레이터 output을 목표와 가장 잘 일치시키는 최적의 parameter를 식별하는 것을 목표로 합니다.
인포드 다운샘플링(IDS)은 다양한 선택 전략과 결합될 때, 특히 토너먼트 선택과 함께 사용할 경우 심볼릭 회귀의 성능을 향상시키는 것으로 알려져 있습니다.
현대 데이터 병렬(DP) 학습은 균형 잡힌 워크로드에서 단순성과 효율성 때문에 파라미터 서버(PS)보다 collective communication을 선호합니다. 하지만...
Heatmap 기반 비자동회귀 솔버는 대규모 Travelling Salesman Problems에 대해 밀집된 edge‑probability 점수를 출력하지만, 최종 성능은 크게 ...에 달려 있다.
Large Language Models (LLMs)은 복잡한 추론 작업에서 놀라운 능력을 보여주었으며, 특히 검색 메커니즘을 통해 보강될 때 더욱 뛰어납니다.
인도 예술 음악(IAM)에서 Raga 식별은 사용 가능한 …에 포함되지 않은 수많은 드물게 연주되는 Raga가 존재하기 때문에 여전히 어려운 과제입니다.
Autonomous unmanned aerial vehicle (UAV) 시스템은 안전이 중요한 네트워크 환경에서 점점 더 많이 배치되고 있으며, 이 환경에서 신뢰성 있게 작동해야 합니다.
보건 의료, 법률, 과학적 발견과 같은 고위험 분야에서 Large Language Models (LLMs)의 신뢰성은 종종 hallucinations에 의해 손상됩니다....
로봇 조작에서 큰 잠재력을 제공하는 유능한 Vision-Language-Action (VLA) 기반 모델은 작업 전반에 걸쳐 충실하게 일반화될 것으로 기대된다...
Latent-space optimization 방법은 counterfactual explanations을 위해, model predictions을 변경하는 최소한의 semantic perturbations으로 구성되며, 모호성을 물려받는다.
Talking Head Generation은 음성 및 단일 초상 이미지로부터 자연스러운 말하는 비디오를 합성하는 것을 목표로 합니다. 이전 3D talking head generation 방법…
Text-Based Person Search (TBPS)는 자연어 설명을 사용하여 대규모 갤러리에서 보행자 이미지를 검색하는 것을 목표로 합니다. 이 작업은 공공 안전에 필수적입니다.
Atomic clusters의 global optimization은 exponential growth of … 때문에 computational chemistry와 materials science 분야에서 근본적인 도전 과제이다.
진화 알고리즘(EA)은 그래픽 처리 장치(GPU)에서 점점 더 구현되어 병렬 처리 능력을 활용하여 효율성을 향상시키고…
최근 Large Language Model (LLM) 능력의 최전선은 단일 턴 코드 생성에서 agentic software engineering이라는 패러다임으로 이동했습니다—...