[Paper] $exists^*forall^*$ 하이퍼프로퍼티의 컨포먼트 플래닝 및 모델 검증에 관하여
우리는 계획 및 검증 커뮤니티 내의 두 문제, 즉 Conformant planning과 hyperproperties의 model-checking 사이의 연결을 연구한다. Conformant pl...
우리는 계획 및 검증 커뮤니티 내의 두 문제, 즉 Conformant planning과 hyperproperties의 model-checking 사이의 연결을 연구한다. Conformant pl...
Deep neural networks는 inverse-kinematics (IK) 추론을 가속화하여 저비용 매니퓰레이터가 복잡한 궤적을 실시간으로 실행할 수 있게 했습니다, ...
대규모 언어 모델(LLMs)을 엣지 디바이스에 배포하는 것은 제한된 메모리와 전력 자원 때문에 어려운 과제입니다. 클라우드 전용 추론은 디바이스의 부담을 줄여줍니다.
멀티모달 대형 언어 모델(LLMs)은 방대한 임상 지식을 바탕으로 스캔을 해석함으로써 의료 영상 분야에 새로운 패러다임을 제시합니다.
Parameter-efficient fine-tuning은 대형 언어 모델을 다운스트림 작업에 맞추는 주요 패러다임이 되었다. LoR와 같은 Low-rank adaptation 방법은 …
AI systems는 점점 더 빠르고 능력이 향상되고 있지만, 여전히 완벽하지는 않습니다—특히 데이터가 지저분하거나, 맥락이 복잡하거나, high‑stakes인 경우에는 더욱 그렇습니다. 바로 그때가 huma...
Graph federated learning은 분산된 서브그래프에서 고차 정보를 협업적으로 추출하면서 원시 데이터의 프라이버시를 보호합니다. 어떻게…
Large Language Models (LLMs)은 code generation에서 놀라운 능력을 입증했지만, 복잡하고 다단계 programming에서는 systematic errors를 보입니다.
우리는 LLM-PeerReview를 제안한다. 이는 비지도 LLM Ensemble 방법으로, 각 질의에 대해 다수의 LLM이 생성한 후보들 중 가장 이상적인 응답을 선택한다, …
영상 요약 보기: 요약 영상을 시청하세요 https://youtu.be/-rzMxb1JhuU 감사합니다. 우리가 함께 끝까지 올 수 있었다는 것이 믿기지 않아요. 모든 분들께 진심으로 큰 감사를 전합니다.
특정 맥락 내의 데이터는 고립된 해석을 넘어 더 깊은 의미를 갖게 됩니다. 분산 시스템에서 상호 의존적인 데이터 소스는 숨겨진 r...
머신러닝에서 데이터 누수: 멘티가 머신러닝 작업 흐름에서 기본적인 실수를 자주 합니다: 탐색적 데이터 분석(EDA) → 전처리…