[Paper] EvilGenie: 보상 해킹 벤치마크
우리는 프로그래밍 환경에서 보상 해킹을 위한 벤치마크인 EvilGenie를 소개합니다. 우리는 LiveCodeBench에서 문제를 가져와 에이전트가 사용할 수 있는 환경을 만들고...
우리는 프로그래밍 환경에서 보상 해킹을 위한 벤치마크인 EvilGenie를 소개합니다. 우리는 LiveCodeBench에서 문제를 가져와 에이전트가 사용할 수 있는 환경을 만들고...
Action Quality Assessment (AQA)는 행동 비디오에서 세밀한 실행 점수를 예측하며, 스포츠, 재활 및 기술 평가에 널리 적용됩니다....
일상 기기에 AI models가 급증하면서 중요한 과제가 부각되었습니다: prediction errors가 사용자 경험을 저하시키는 문제입니다. 기존 existing solution은…
대규모 언어 모델(LLMs)을 다중 턴 대화 결과에 최적화하는 것은 특히 AI 마케팅과 같은 목표 지향적 환경에서 여전히 큰 과제입니다.
AI/ML 모델은 이전에 해결되지 않았던 문제들을 해결하기 위한 혁신으로 급속히 주목받고 있으며, 인간 편견을 증폭시키는 부작용도 발생하고 있다.
Deeper Vision Transformers는 종종 얕은 모델보다 성능이 떨어지며, 이는 일반적인 스케일링 가정에 도전합니다. ViT-...에 대한 체계적인 실증 분석을 통해 이를 조사합니다.
우리는 Qwen 시리즈 중 현재까지 가장 뛰어난 비전‑언어 모델인 Qwen3‑VL을 소개합니다. 이 모델은 다양한 멀티모달 벤치마크 전반에 걸쳐 우수한 성능을 달성합니다.
대형 언어 모델은 창의적인 텍스트를 생성하는 능력이 점점 향상되고 있지만, AI‑생성 시에 대한 대부분의 연구는 영어—지배적인 언어인—에 초점을 맞추고 있습니다.
Freedman과 Mulligan의 최근 연구에 따르면, 얕은 다층 퍼셉트론이 Kolmogorov‑Arnold 기하학적(KAG) 구조를 자발적으로 개발한다는 것이 입증되었습니다. 이는 t… 동안에 발생합니다.
그래프 컨볼루션 네트워크(GCNs)가 스켈레톤 기반 행동 인식에서 눈에 띄는 성공을 거두었음에도 불구하고, 그 성능은 종종 대규모 실험실...
대형 언어 모델(LLM)은 최근 텍스트 속성 그래프에 대한 머신러닝을 혁신했지만, LLM을 그래프 이상치 탐지에 적용하는 것은, ...
Algorithms have been estimated to increase AI training FLOP efficiency by a factor of 22,000 between 2012 and 2023 [Ho et al., 2024]. Running small-scale ablati... → 알고리즘은 2012년부터 2023년 사이에 AI 훈련 FLOP 효율성을 22,000배 향상시킨 것으로 추정됩니다 [Ho et al., 2024]. 소규모 ablati...