[Paper] 자연어 의미론을 위한 Functional Geometric Algebra
분포론적 및 신경망 접근 방식은 자연어 의미론에 거의 전적으로 기존 선형 대수, 즉 벡터, 매트릭스, 텐서 등을 기반으로 구축되어 왔습니다.
분포론적 및 신경망 접근 방식은 자연어 의미론에 거의 전적으로 기존 선형 대수, 즉 벡터, 매트릭스, 텐서 등을 기반으로 구축되어 왔습니다.
Continual offline reinforcement learning (CORL)은 시간에 따라 수집된 데이터셋으로부터 일련의 작업을 학습하면서 이전에 학습한 작업에 대한 성능을 유지하는 것을 목표로 합니다.
접촉 변동성, 센싱 불확실성 및 외부 교란은 그립 실행을 확률적으로 만든다. 기대 품질 목표는 꼬리 결과를 무시하고 종종 …
선호 기반 정렬 방법, 특히 인간 피드백을 활용한 강화 학습(RLHF)은 인간 주석자의 판단을 사용하여 대규모 언어 모델을 형성합니다.
현재 deepfake detection models는 pristine academic datasets에서 state-of-the-art 성능을 달성하지만 실제 환경에서는 심각한 spatial attention drift를 겪는다.
현재 보행자 신호는 보행자 행동에 맞춰 조정되지 않은 고정 타이밍으로 작동하며, 이는 취약한 도로 이용자(VRUs)와 같은 ...
ParticleNet과 같은 그래프 신경망 및 ParticleTransformer와 같은 포인트 클라우드 기반 트랜스포머 네트워크는 제트에서 최첨단 성능을 달성합니다.
양자 컴퓨팅 보정은 실험 데이터를 해석하는 데 의존하며, 보정 플롯은 이를 위한 가장 보편적인 인간이 읽을 수 있는 표현을 제공합니다.
강화 학습을 통해 언어 모델을 훈련하는 경우, 의도된 행동을 정확히 정의하는 실제 보상을 얻기 어려워 불완전한 프록시 보상에 의존하는 경우가 많다.
대형 언어 모델(LLMs)은 감정적으로 민감한 인간‑AI 애플리케이션에서 점점 더 많이 사용되고 있지만, emotion recognition이 내부적으로 어떻게 이루어지는지는 거의 알려져 있지 않다.
기존 REST API 테스트 도구는 일반적으로 코드 커버리지와 크래시 기반 결함 메트릭을 사용하여 평가됩니다. 그러나 최근 LLM 기반 접근 방식은 점점 더 …
머신 생성 텍스트(MGT) 탐지는 모델별 지문에 의존하기보다 생성 모델 전반에 걸쳐 구조적으로 불변인 신호를 식별하는 것을 필요로 합니다.
멀티모달 대형 언어 모델(MLLMs)은 시각‑언어 작업에서 점점 더 강력한 성능을 달성합니다. 전통적인 시각 질문 응답 벤치마크가 …
전통적인 손실 함수에는 cross-entropy, contrastive, triplet, supervised contrastive loss가 포함되며, 사전 학습된 언어 모델을 미세 조정하는 데 사용됩니다 ...
Patient simulators는 복잡하고 민감한 환자 상호작용에 대한 확장 가능한 노출을 제공함으로써 정신 건강 교육에서 주목받고 있습니다. 우울증을 시뮬레이션…
본 연구에서는 Mutual Forcing을 제안한다. 이는 장기 오디오-비디오 동기화를 갖는 빠른 autoregressive 오디오-비디오 생성 프레임워크이다. 우리의 접근 방식은 …
Magnification shift는 견고한 histopathology 분류에 큰 장애물이며, 하나의 imaging scale에서 훈련된 모델은 다른 scale에 일반화하기가 어렵다....
Vision-Language Models (VLMs)은 지시 수행 및 개방형 비전-언어 추론에서 강력한 성능을 보이지만, 종종 유창한 …
Knowledge distillation (KD)는 큰 네트워크(teacher)를 작은 네트워크(student)로 효과적으로 압축하면서 손실을 최소화하는 잘 알려진 기법이다.
Knowledge distillation (KD)은 복잡한 teacher 네트워크의 전문 지식을 효율적인 student 모델로 전달하는 중요한 메커니즘을 나타냅니다. 그러나, 분산형…
Articulation modeling은 3D 객체의 움직이는 부품과 그 움직임 매개변수를 추론하여 인터랙티브 애니메이션, 시뮬레이션 및 shape editing을 가능하게 합니다. In...
지시된 코드 편집은 대형 언어 모델(LLM)에게 중요한 도전 과제입니다. EditBench 벤치마크에서 평가된 40개 모델 중 39개가 작업 성공을 달성했습니다...
소스 코드와 그에 수반되는 주석은 상호 보완적이면서도 자연스럽게 정렬된 모달리티입니다—코드는 구조적 논리를 인코딩하고 주석은 개발자의 의도를 포착합니다…
Time series classification은 다양한 분야에서 중요한 분석 작업입니다. 그러나 실제 적용은 라벨이 부족하여 종종 제한됩니다.
TL;DR - Android Authority 분해…
소개 이것은 나의 첫 번째 게시물이며, 핵심은 다음과 같습니다: x402 에이전트 경제가 활황이지만, 그 안의 대부분 서비스는 쓰레기입니다. 그렇게 들릴 수 있다는 걸 압니다.
!https://cdn-avatars.huggingface.co/v1/production/uploads/65df9200dc3292a8983e5017/Vs5FPVCH-VZBipV3qKTuy.png nvidia/NV-Raw2Insights-US 3일 전 업데이트됨...
확장된 파트너십 개요 오늘, OpenAI와 AWS는 전략적 파트너십을 확대하여 기업이 AWS 환경에서 OpenAI 기능을 활용해 구축할 수 있도록 지원합니다.
Spark에서 맞춤형 정책 학습 파이프라인이 두 개의 결합된 시스템 이유로 실패합니다: 행별 Python 실행으로 인해 추론이 비현실적이며, 드라이버 측 후보 ...
연구 개요: 인터넷 아카이브 데이터를 활용한 연구원들은 2022년 이후 생성된 웹사이트 중 3분의 1이 AI‑생성된 것이라고 밝혀냈다, ...
2026년 4월 16일, 급변하는 large language models(LLMs) 환경에서 pre‑training은 첫 번째 단계에 불과합니다. base model을 specialize된 …
Internet of Everything (IoE)은 사람, 데이터, 프로세스, 사물을 통합된 인텔리전스로 결합함으로써 Internet of Things (IoT)의 진화를 나타낸다.
Beagle 프레임워크는 GPU 기반 유전 프로그래밍을 통해 CPU 제한으로는 실용적인 시간 내에 달성할 수 없었던 인구 동역학을 가능하게 합니다…
통합 멀티모달 모델은 일반적으로 pretrained vision encoders에 의존하고, 이해와 생성에 별개의 visual representations를 사용하여 misalignment를 초래합니다.
최근 비디오 기반 모델은 인상적인 시각 합성을 보여주지만 종종 기하학적 불일치가 발생합니다. 기존 방법들은 이를 해결하려고 시도하지만…
Shot Boundary Detection (SBD)은 자동으로 샷 변화를 식별하고 비디오를 일관된 샷으로 나누는 것을 목표로 합니다. SBD는 문헌에서 널리 연구되어 왔지만…
Adaptive programming practice는 종종 고정된 라이브러리의 worked examples와 practice problems에 의존하는데, 이는 상당한 authoring effort를 필요로 하며, may not c...
VC dimension에 대한 이진 분류의 최적 sample complexity는 잘 확립되어 있지만, 다중…
우리는 여러 사상가들로부터의 Chain-of-Thought (CoT) 감독을 통한 학습을 연구한다. 이들 모두는 올바른 해결책을 제공하지만, 체계적으로 서로 다른 해결책을 제시할 수도 있다, 예를 들어...
Specification‑guided reinforcement learning (RL)은 형식 사양을 사용하여 복잡하고 시간적으로 확장된 작업을 인코딩하기 위한 원칙적인 프레임워크를 제공합니다.
인도네시아 마켓플레이스 리뷰는 표준 어휘와 속어, 지역 차용어, 숫자 약어, 그리고 이모지를 혼합하여 어휘 기반 감성 도구를 신뢰하기 어렵게 만든다.
드론에 장착된 Monocular RGB cameras는 야생동물 모니터링에 널리 사용되지만, 대부분의 분석 파이프라인은 여전히 2차원 이미지 공간에 국한되어 있습니다, l...
모든 Transformer 아키텍처는 의미 임베딩 공간에서 풍부한 표현을 학습하는 데 막대한 용량을 할당합니다—하지만 작용되는 회전 매니폴드는 …
효율적인 Transformer 구성 요소와 선형 시퀀스 모델링 블록을 결합한 하이브리드 시퀀스 모델은 순수 Transformer에 대한 유망한 대안이지만 ...
데이터-패럴렐 확률적 경사 하강법(data-parallel stochastic gradient descent)을 사용하여 대규모 신경망을 훈련할 때, N개의 GPU 복제본을 할당해 사실상 동일한 업데이트를 계산합니다 — 이러한 관행은 …
대형 언어 모델은 코드 생성에 널리 사용되지만, 작업 설명이 충분히 상세하고 잘…
Large language models (LLMs)은 점점 더 많이 배포되고 있지만, 그 출력은 사용자가 질문을 표현하는 일상적인 비적대적 변형에 매우 민감할 수 있습니다.
대규모 언어 모델(LLMs) 기반 애플리케이션, 예를 들어 multi-agent simulations는 에이전트 간 인구 다양성을 필요로 합니다. 우리는 널리 퍼진 실패를 식별합니다.