[Paper] 비즈니스 프로세스 모델링 강화를 위한 대형 언어 모델: 과거, 현재, 미래 트렌드
최근 Generative Artificial Intelligence의 발전, 특히 Large Language Models (LLMs)은 자동화 또는 지원에 대한 관심을 크게 높이고 있습니다.
최근 Generative Artificial Intelligence의 발전, 특히 Large Language Models (LLMs)은 자동화 또는 지원에 대한 관심을 크게 높이고 있습니다.
소프트웨어 공학에서 감성 분석은 소프트웨어 아티팩트에 표현된 감정을 이해하는 데 초점을 둡니다. 이전 연구는 ...의 한계를 강조했습니다.
우리는 새로운 end-to-end privacy-preserving 프레임워크를 제안한다. 이 프레임워크는 서로 다른 배포 시나리오에 맞춘 세 가지 효율적인 프로토콜로 구현되며, 입력 …
Open-pit mine scheduling은 불확실한 경제적 가치와 동적으로 변하는 자원 용량을 포함하는 복잡한 실제 최적화 문제입니다. Evol...
현대 GPU 워크로드, 특히 대형 언어 모델(LLM) 추론은 커널 실행 오버헤드와 거친 동기화 때문에 인터‑커널 ...
Direct Preference Optimization (DPO)의 효과는 멀티모달 작업에서 중요한 품질 차이를 반영하는 선호 데이터에 달려 있습니다. Exist...
시스템 로그의 폭발적인 증가로 스트리밍 압축이 필수적이지만, 기존 로그 이상 탐지(LAD) 방법은 심각한 전처리 오버헤드를 초래한다.
Energy Conserving Descent (ECD) 알고리즘은 최근 (De Luca & Silverstein, 2022)에서 전역 비볼록 최적화 방법으로 제안되었습니다. 기존의 gradient…
Computed tomography (CT) enterography는 염증성 장질환(IBD)을 평가하기 위한 주요 영상 촬영 방법이지만, 가장 적절한 표현 선택은 …
AI-driven 교육 플랫폼은 개인화에서 어느 정도 진전을 이루었지만, 대부분은 정적 적응에 제한됩니다—미리 정의된 퀴즈, 균일한 속도 등.
On-policy distillation (OPD)은 대형 언어 모델의 사후 훈련에서 핵심 기술이 되었지만, 그 훈련 역학은 아직 충분히 이해되지 않는다. This...
On-policy distillation (OPD)는 대형 언어 모델을 위한 효율적인 사후 학습 패러다임으로 부상했습니다. 그러나 표준 OPD는 실시간 교사 추론을 필요로 합니다...
Instruction-tuned large language models는 유용하고 구조화된 응답을 생성하지만, 사소하게 제한될 때 이 유용성이 얼마나 견고한가? 우리는 simpl...
소프트웨어의 논리적 취약점은 프로그램 로직의 결함에서 비롯되며, 메모리 안전성보다 더 큰 문제를 일으켜 critical security failures를 초래할 수 있다. Although existing ...
시계열 데이터에서 반사실 결과를 예측하는 것은, 순차적인 치료 결정이 변화하는 환자 상태에 크게 의존하는 경우에 매우 중요하지만 난제이다.
Execution Accuracy (EX)는 자연어를 SQL(NL2SQL)로 변환하는 솔루션의 효과를 평가하는 데 널리 사용되는 지표이며, 점점 신뢰성이 떨어지고 있다.
자율 AI 에이전트는 실험적 도구에서 운영 인프라로 빠르게 전환하고 있으며, 기업 애플리케이션의 80%가 ...
수렴 속도, 일반화 능력, 그리고 계산 효율성의 균형을 맞추는 것은 딥러닝 최적화에서 핵심 과제로 남아 있습니다. First-order gradient…
딥러닝에서 가장 많이 인용되는 캘리브레이션 결과인 CIFAR‑100에서의 post‑temperature‑scaling ECE 0.012 (Guo et al., 2017)는 통계적 노이즈 변동보다 낮다.
전통적인 고정‑깊이 아키텍처는 일반적으로 파라미터 수를 늘려 훈련 FLOPs를 증가시킴으로써 품질을 확장하지만, 그 대가로 더 높은 메모리를 요구한다.
Multilingual benchmarks는 frontier models의 개발을 안내합니다. 그러나 frontier models가 보고하는 multilingual evaluations는 popular rea와 유사하게 구조화되어 있습니다.
대형 언어 모델(LLMs)은 코딩 작업을 해결하기 위해 명시적 추론에 점점 더 의존하고 있지만, 이러한 추론의 품질을 평가하는 것은 여전히 어려운 과제입니다. Ex...
Streaming Data-Driven Optimization (SDDO) 문제는 데이터가 지속적으로 도착하고 최적화 환경이 시간에 따라 변하는 많은 응용 분야에서 발생합니다....
비브 코딩의 등장은, 비전문가가 자연어를 통해 대형 언어 모델(LLMs)에게 실행 가능한 코드를 생성하도록 지시하는 패러다임으로, ...
우리는 작은 로컬 모델이 프런트 엔드에서 triage layer 역할을 할 수 있을 때, cloud LLM 토큰 사용량을 줄이기 위한 일곱 가지 전술에 대한 체계적인 측정 연구를 제시합니다.
우리는 데이터가 중앙 코디네이터 없이 노드에 분산된 네트워크에서의 분산 학습을 연구한다. 랜덤 워크 학습은 토큰 기반 접근 방식이다…
Deep neural networks는 높은 정확도에도 불구하고 신뢰도 보정이 부족한 경우가 많아 고위험 응용 분야에서 신뢰성을 제한합니다. Current ad...
우리는 (Experience‑Modulated Biologically‑inspired Emergent Reasoning)이라는 하이브리드 인지 아키텍처를 제시한다. 이 아키텍처는 대형 언어 모델과의 관계를 재구성한다.
현대 머신러닝 방법은 외계 시료에서 생명을 탐지하기 위해 제안되었으며, 이 방법은 생물학적(biotic)과 비생물학적(abiotic) 샘플을 구별하는 능력을 활용합니다.
자율 오프그리드 태양광 시스템의 안정적인 운영은 대기 열역학을 고려한 태양 예측 알고리즘에 의존하도록 요구한다.
Tool-augmented Large Language Model (LLM) agents는 복잡하고 다단계의 실제 작업을 자동화하는 데 인상적인 능력을 보여주었지만, 여전히 취약…
오픈플레이 축구 전술을 모델링하는 것은 게임의 stochastic하고 multi-agent적인 특성 때문에 어려운 과제입니다. 기존의 computational approaches는 일반적으로 p...
Kullback-Leibler (KL) divergence는 정보 이론에서 두 확률 분포 사이의 차이를 정량화하는 기본 개념입니다. In the co...
General first-order methods (GFOM)는 상태 벡터를 행렬‑벡터 곱과 원소별 비선형 연산으로 업데이트하는 유연한 클래스의 반복 알고리즘이다.
고성능 컴퓨팅 및 AI 워크로드가 GPU에 점점 더 의존하게 되면서, 빠르게 진화하는 하드웨어 세대에 걸쳐 높은 성능을 유지하는 것이 ...
클라우드 네이티브 아키텍처는 클라우드 환경을 최대한 활용하기 위해 확장 가능한 마이크로서비스 애플리케이션을 구축하고 실행하는 것을 의미합니다. Managed Kubernetes ...
문제: 지능 ≠ 공감 현대 AI는 방대한 데이터셋으로 학습되고 인간 피드백을 통한 강화 학습(reinforcement learning)과 같은 기술로 정제됩니다. Mo...
사진을 수동으로 측정하고, 자재 가격을 찾아보고, 견적을 계산하는 데 몇 시간을 보내는 것이 지겹나요? 핸디맨 사업자에게 이 백오피스 작업은 큰 문제점입니다…
이전 기사 https://dev.to/rijultp/understanding-transformers-part-4-introduction-to-self-attention-45bg에서 우리는 self‑attention 개념을 탐구했습니다.
이미지 분류는 컴퓨터가 “객체”를 절대 보지 않는다는 점을 기억할 때까지는 쉬워 보입니다. 컴퓨터는 오직 픽셀 배열만을 봅니다. 이 게시물은 그것이 k‑NN을 …
MLP = A Function Not Layers 대부분의 사람들은 neural networks가 layers의 스택이라고 생각한다. 그들은 틀렸다. MLP는: y = f(x); θ 👉 A learnable function. Start Simple...
실제 문제: 낮은 훈련 손실 ≠ 좋은 모델. 진정한 목표: 일반화. 최적화 = 학습. 최적화는 매개변수를 업데이트하여 손실을 감소시킨다. Witho...
문제: 머신러닝 프로젝트에서 `pip install -r requirements.txt`를 실행하면 콘솔에 수백 줄의 출력이 나타납니다: 다운로드 진행 표시줄, w...
Vision-language models (VLMs)은 여전히 공간 이해와 시점 인식과 같은 시각 인지 작업에서 어려움을 겪고 있다. 가능한 한 가지 원인…
Large Vision Language Models (LVLMs)는 강력한 멀티모달 추론 능력을 달성하지만, 종종 높은 확신을 가지고 hallucination과 잘못된 응답을 보입니다, ...
모델 포이징 공격은 연합 학습(Federated Learning, FL)에 중대한 보안 위협을 제기합니다. 대부분의 기존 모델 포이징 공격은 공모에 의존하며, 공격자...
I‑Ching의 King Wen 순서(기원전 약 1000년)는 64개의 hexagram—6차원 이진 공간의 상태—을 학자들을 당황하게 만든 패턴으로 배열한다.
Von Economo neurons (VENs)은 대형 양극성 투사 뉴런으로, 전전두 대상피질(ACC)과 전두 섬(insula)에서만 독점적으로 발견되며, 복잡한 …