[Paper] 정확성을 넘어: Multi-step Automated Theorem Proving을 통한 LLM이 생성한 추론의 논리적 결함 노출
대형 언어 모델(LLMs)은 인상적인 추론 능력을 입증하여 의료, 법률 등 고위험 분야에서 채택되고 있다.
대형 언어 모델(LLMs)은 인상적인 추론 능력을 입증하여 의료, 법률 등 고위험 분야에서 채택되고 있다.
현대 클라우드 아키텍처는 동적 운영 조건을 관리하기 위한 self-adaptive 기능을 요구한다. 그러나 기존 솔루션은 종종 중앙 집중식 제어를 강요한다 ...
[Context and Motivation] 최근 몇 년간 전 세계 에너지 소비가 꾸준히 증가하고 있으며, 데이터 센터가 주요 기여자로 부상하고 있습니다. 이러한 성장 i...
Adaptable TeaStore는 최근 적응형 마이크로서비스 아키텍처의 레퍼런스 모델로 제안되었습니다. 다양한 구성과 함께 …
새로운 웹 애플리케이션을 설계할 때, 개발자들은 자신이 의존하는 자원—소프트웨어, 하드웨어, 네트워크—에 대한 다양한 제약을 감당해야 합니다.
Adaptable TeaStore 사양은 제어 루프를 통해 자기 적응을 구현하기 위한 마이크로서비스 기반 사례 연구를 제공합니다. 우리는 구현이…
이 논문은 기존의 offline performance optimization 프레임워크를 microservice applications에 적용하여 D…의 Release phase에서 어떻게 활용할 수 있는지를 제시한다.
이 논문에서는 Software Engineering(SE) 과목에서 software quality 측면을 가르친 10년 이상의 경험을 통해 얻은 교훈을 공유합니다, 여기서 초점은...
우리는 Bitcoin-IPC를 소개합니다. 이는 Bitcoin을 확장하여 보편적인 Medium of Exchange (MoE)가 되도록 돕는 소프트웨어 스택 및 프로토콜이며, ...
Consistent hashing은 분산 시스템의 기본이지만, ring 기반 방식은 많은 virtual node를 사용하지 않으면 피크 대비 평균 부하 비율이 높게 나타날 수 있습니다…
Kubernetes는 Horizontal Pod Autoscaler, Vertical Pod Autoscaler 및 node-level autoscalers를 포함한 네이티브 자동 스케일링 메커니즘을 제공하여 탄력성을 가능하게 합니다.
Large Language Model (LLM) 에이전트는 디지털 영역에서는 능숙하지만, 물리적 세계에 배치하는 데 있어 형성의 어려움 때문에 큰 격차에 직면하고 있다.
우리는 계획 및 검증 커뮤니티 내의 두 문제, 즉 Conformant planning과 hyperproperties의 model-checking 사이의 연결을 연구한다. Conformant pl...
Deep neural networks는 inverse-kinematics (IK) 추론을 가속화하여 저비용 매니퓰레이터가 복잡한 궤적을 실시간으로 실행할 수 있게 했습니다, ...
대규모 언어 모델(LLMs)을 엣지 디바이스에 배포하는 것은 제한된 메모리와 전력 자원 때문에 어려운 과제입니다. 클라우드 전용 추론은 디바이스의 부담을 줄여줍니다.
멀티모달 대형 언어 모델(LLMs)은 방대한 임상 지식을 바탕으로 스캔을 해석함으로써 의료 영상 분야에 새로운 패러다임을 제시합니다.
Audiobook interpretations은 접근 가능하고 심층적인 분석을 제공하여 독자에게 실용적인 통찰을 제공함으로써 점점 더 많은 관심을 끌고 있습니다.
중국의 E-commerce 라이브 스트리밍은 특히 Douyin과 같은 플랫폼에서 주요 판매 채널이 되었지만, 진행자들은 종종 morphs를 사용해 감시를 회피하고 …
Parameter-efficient fine-tuning은 대형 언어 모델을 다운스트림 작업에 맞추는 주요 패러다임이 되었다. LoR와 같은 Low-rank adaptation 방법은 …
Graph federated learning은 분산된 서브그래프에서 고차 정보를 협업적으로 추출하면서 원시 데이터의 프라이버시를 보호합니다. 어떻게…
Large Language Models (LLMs)은 code generation에서 놀라운 능력을 입증했지만, 복잡하고 다단계 programming에서는 systematic errors를 보입니다.
우리는 LLM-PeerReview를 제안한다. 이는 비지도 LLM Ensemble 방법으로, 각 질의에 대해 다수의 LLM이 생성한 후보들 중 가장 이상적인 응답을 선택한다, …
안녕하세요 여러분 👋 저는 실제 워크플로우에서 사람들이 다양한 AI 모델을 어떻게 사용하는지에 대한 대학 과제 연구 논문을 진행하고 있습니다. 저는 빠르고 익명인 …
특정 맥락 내의 데이터는 고립된 해석을 넘어 더 깊은 의미를 갖게 됩니다. 분산 시스템에서 상호 의존적인 데이터 소스는 숨겨진 r...