[Paper] 포지션-강건 인재 추천을 향한 Large Language Models
인재 채용은 많은 산업에서 중요한 동시에 비용이 많이 드는 과정이며, 높은 채용 비용과 긴 채용 주기를 동반합니다. 기존 talent recommendation system...
인재 채용은 많은 산업에서 중요한 동시에 비용이 많이 드는 과정이며, 높은 채용 비용과 긴 채용 주기를 동반합니다. 기존 talent recommendation system...
Multi-Agent Systems의 문제 대부분의 Multi-Agent Systems는 개별 agents가 어리석어서 실패하는 것이 아니라, agents 간의 handoffs가 깨졌기 때문에 실패한다....
Retrieval-Augmented Language Models (RALMs)는 지식 집약적인 작업에서 상당한 잠재력을 보여주었지만, 여전히 성능에 취약합니다.
클라우드 컴퓨팅은 확장 가능한 자원 프로비저닝을 가능하게 하지만, 동적인 워크로드 변화는 종종 과다 프로비저닝으로 인한 비용 상승을 초래합니다. 머신 러닝 (ML) a...
번역할 텍스트를 제공해 주시겠어요? 해당 내용이 없으면 번역이 불가능합니다.
자동차 비유: AI 에이전트를 자동차와 같이 생각해 보세요: - 엔진 = LLM Claude, GPT, Gemini. 원시적인 힘. 구축 비용이 많이 듭니다. - 하네스 = 에이전트 프레임워크 Claude...
AI 코딩 도구와 관련해 개발자 커뮤니티에서 이상한 현상이 일어나고 있습니다. Stack Overflow의 2025년 설문조사 https://survey.stackoverflow.co/2025/ re...
보안 팀은 도전에 직면해 있습니다: 새로 공개된 Common Vulnerabilities and Exposures (CVE)의 양이 수동으로 탐지를 개발할 수 있는 역량을 훨씬 초과합니다.
DeepSeek V3.2는 생산 환경에서 가장 인기 있는 오픈‑웨이트 모델 중 하나로 빠르게 자리 잡았습니다. 이 모델은 V3와 R1을 대체하여 채팅과 …을 처리하는 통합 모델입니다.
딥 강화 학습(DRL)은 최근 동적 알고리즘 구성(DAC)을 위한 유망한 도구로 부상했으며, 진화 알고리즘이 적응하도록 가능하게 합니다.
Transformer 계열의 현대 신경망은 훈련이 시작되기 전에 실무자가 사용할 attention heads의 수와 네트워크의 깊이 등을 결정하도록 요구합니다.
공지: 저희가 TBPN(https://www.tbpn.com/)을 인수하게 되었음을 알려드리게 되어 매우 기쁩니다. 이번 인수를 통해 강력한 편집 감각과 깊은 청중을 보유한 팀을 얻게 됩니다.
Parameter-efficient fine-tuning (PEFT)은 제한된 계산 예산 하에서 대규모 언어 모델(LLMs)을 적응시키는 중요한 패러다임으로 부상했습니다. Howe...
execution‑boundaries !디자인 노트 https://camo.githubusercontent.com/3c4596616b93bf92e3f9dedc9682d0ce60f721835f48c94681b255f64100c619/68747470733a2f2f696d672e7...
깊은 클러스터링에서 지속적인 구조적 약점은 특징 학습과 클러스터 할당 사이의 단절이다. 대부분의 아키텍처는 외부 clu...
소개 몇 년 동안 우리는 혁명이 약속되었습니다: “모두가 programmer가 될 수 있다”, “모든 것을 위한 Apps”, “이제 SaaS가 필요 없다”. AI는…
번역하려는 텍스트를 제공해 주시겠어요? 텍스트를 알려주시면 한국어로 번역해 드리겠습니다.
개요: Meta의 반형식 추론은 AI 에이전트가 코드를 실행하지 않고 검증할 수 있게 하며, 93% 정확도를 달성합니다. 시사점: 코드 검토에 대한 시사점.
나는 최근 Antigravity와 관련된 할당량 변경이 수많은 Reddit 게시물을 근거로 많은 사람들을 화나게 했다는 것을 알고 있다. 처음에는 내가 거의 사용할 수 없을 정도로 타격을 입었다고 생각했다.
대규모 언어 모델(LLM) 추론은 점점 더 멀티‑GPU 실행에 의존하고 있지만, 기존의 추론 병렬화 전략은 레이어 단위의 …
대규모 분산 학습은 최근 몇 년간 산업 및 학계에서 머신러닝 시스템 분야의 연구 핫스팟이었습니다. 그러나 실험을 수행하는...
SALOMI SALOMI은 극한 저비트 트랜스포머 양자화 및 추론에 중점을 둔 연구 저장소이며, 특히 이진 또는 근이진…
AI‑Driven 윤리적 평가를 통한 고위험 의사결정 Artificial intelligence는 고위험 상황에서 의사결정을 최적화하는 데 점점 더 많이 활용되고 있다.
‘왜 AI 에이전트는 Trust Layer가 필요한가, 그리고 우리가 그것을 어떻게 구축했는가’의 표지 이미지 https://media2.dev.to/dynamic/image/width=1000,height=420,fit=cover,gravity=auto,format=au...
2026년 3월 31일
ggml-org/gemma-4-E2B-it-GGUF 5B • 약 5시간 전 업데이트됨
Associative memory systems는 패턴의 content‑addressable storage와 retrieval를 가능하게 하며, 이는 생물학적 신경 계산 및 인공 ...에 중심적인 능력이다.
과학적 연구에 따르면 일반적인 Claude Code 프롬프트 관행—예를 들어 정교한 페르소나와 멀티‑에이전트 팀—은 성능에 측정 가능한 해를 끼치는 것으로 나타났습니다.
유출 개요 어제 Anthropic의 Claude Code 소스 코드가 깜짝 유출되었습니다 https://arstechnica.com/ai/2026/03/entire-claude-code-cli-source-code-lea...
대규모 자기지도 학습(SSL) 모델을 기반으로 구축된 deepfake speech detectors는 높은 정확도를 달성하지만, 표준 ensemble fusion을 활용하여 추가로 향상시키는…
하지만 Keller‑Sutter는 Swiss law가 그녀가 설명하는 그 유형의 defamation에 대해 플랫폼을 책임지게 할 수도 있다고 의심하는 것으로 보인다. Reuters는 그녀가 ...라고 언급했다.
스타워즈 프로듀서 Kathleen Kennedy는 Runway AI Summit에서 몇 안 되는 회의론자 중 한 명이었으며, 그곳에서 AI는 불과 인쇄기와 비교되었습니다. 이는 불과 인쇄기와 비교된 지 일주일 만에.
스타워즈 프로듀서인 캐슬린 케네디는 Runway AI Summit에서 AI가 불과 인쇄기에 비유된 상황에 몇 안 되는 회의론자 중 한 명이었다, 그 비유는 불과 인쇄기가 비교된 지 일주일 만에 이루어졌다.
LLM 기반 텍스트‑투‑스피치(TTS) 과제 대형 언어 모델(LLM) 기반 TTS 시스템은 이제 음성이 클론된 경우에도 자연스러운 음성을 생성할 수 있습니다.
우리는 HippoCamp를 소개합니다. 이는 멀티모달 파일 관리에 대한 에이전트의 역량을 평가하도록 설계된 새로운 benchmark입니다. 기존의 에이전트 benchmark가 …에 초점을 맞추는 것과 달리...
test-time scaling의 부상은 Large Language Models (LLMs)의 추론 및 에이전시 능력을 눈에 띄게 향상시켰다. 그러나 표준 Transformers는 ...
소개 당신은 이미 John Baez의 “Crackpot Index”를 알고 있을지도 모릅니다. 이 지표는 연구가 …인지 평가하기 위한 간단한 농담조의 점수 체계를 제공합니다.
공간과 시간 모두에서 희소한 관측(sparse observations)으로부터 전체 spatio-temporal dynamics를 재구성하는 것은 측정이 제한적이기 때문에 복잡계(complex systems)에서 여전히 핵심적인 과제이다.
AI 기상 예측은 빠르게 발전했지만, 예측 능력을 결정하는 요인을 설명하는 통합된 수학적 프레임워크는 아직 없습니다. 기존 이론은 특정 …
LLM 에이전트가 점점 더 복잡한 작업을 수행함에 따라, 중요한 질문은 그들이 장기적인 관점에서 전략적 일관성을 유지할 수 있는가이다: 불확실성 하에서의 계획…
우리는 TRACE, 메쉬 가이드 3DGS 편집 프레임워크를 제시한다. 이 프레임워크는 자동화되고 고충실도의 씬 변환을 달성한다. 비디오 디퓨전을 명시적인 3...
우리는 RELISH (REgression with a Latent Iterative State Head)라는 새로운 경량 아키텍처를 소개합니다. 이 아키텍처는 대형 언어 모델을 이용한 텍스트 회귀를 위해 설계되었습니다. Ra...
Primitive 기반 방법인 3D Gaussian Splatting은 최근에 novel-view synthesis 및 관련 reconstruction tasks에서 state-of-the-art가 되었습니다. Compa...
우리는 다음 질문을 고려한다: 대형 언어 추론 모델이 선택을 할 때, 먼저 생각하고 나서 결정했는가, 아니면 먼저 결정하고 나서 생각했는가? 이 논문에서는…
측정 데이터로부터 양자 상태를 학습하는 것은 양자 정보와 계산 복잡도 분야의 핵심 문제이다. 이 연구에서는 le...
Search agents는 language models (LMs)와 web search를 통합하여 복잡한 사용자 질의에 답변하는 데 점점 더 중요해지고 있습니다. training datasets를 구축하는 …
대규모 언어 모델(LLM)이 검증자, 교사 모델, 강화 학습 없이 자체 원시 출력만을 사용하여 코드 생성 능력을 향상시킬 수 있을까? 우리는 a...
이 연구는 멀티모달 Large Language Models (LLMs)의 능력을 조사하여 오해를 일으키는 시각화를 식별하고 해석하며, 이러한 관찰을 인식하는...