[Paper] 희소성을 보상하기: LLM에서 창의적 문제 해결을 위한 유니크성 인식 RL
강화 학습(RL)은 특히 복잡한 추론 작업에 대해 사후 훈련된 대형 언어 모델(LLMs)의 핵심 패러다임이 되었지만, 종종…
강화 학습(RL)은 특히 복잡한 추론 작업에 대해 사후 훈련된 대형 언어 모델(LLMs)의 핵심 패러다임이 되었지만, 종종…
우리는 edge networks로 구성된 환경에서 time-sensitive clients의 information freshness를 최적화하는 것을 목표로 하는 decentralized collaborative requesting problem을 연구한다.
Chain-of-Thought (CoT) 추론은 단계별 중간 추론을 장려함으로써 대규모 언어 모델을 향상시키는 데 효과적인 것으로 입증되었으며, 최근의 발전…
최근 natural language processing의 발전은 텍스트를 생태학을 위한 새로운 데이터 소스로 부각시킨다. 텍스트 자원은 고유한 정보를 담고 있어…
현재 컨텍스트 증강 방법, 예를 들어 retrieval-augmented generation과 같은 방법은 지식 집약적 추론 작업을 해결하는 데 필수적입니다.하지만, 그들은 일반적으로...
Text-to-SQL 작업에서 기존 LLM 기반 방법은 종종 프롬프트에 방대한 데이터베이스 스키마를 포함하여, 긴 컨텍스트 길이와 증가된 prefilling 비용을 초래합니다.
Attributional inference, 관찰된 행동 뒤에 있는 latent intentions를 예측하는 능력은 large language models에게 중요한 동시에 아직 충분히 탐구되지 않은 역량이다 ...
대규모 언어 모델(LLMs)은 수천 개의 숫자 행과 여러 연결된 시트가 포함된 대규모 기업 스프레드시트를 추론하는 데 어려움을 겪으며, 임베드…
Infrastructure-as-Code (IaC)를 자동화하는 것은 어려우며, 대형 언어 모델(LLMs)은 종종 자연어(NL)로부터 잘못된 구성을 생성합니다. 우리는 …
인공지능(AI) 시스템은 분류 작업에서 좋은 성공을 보여왔습니다. 그러나 explainability의 부족은 특히 진정하고 중요한 도전 과제입니다.
우리는 Yuan 등(2023년 ICSE)에서 제시한 최신 DNN 커버리지 기준인 Neural Coverage(NLC)에 대한 비판적 리뷰를 제시한다. NLC는 여덟 가지를 만족시키려고 제안한다.
강화 학습(Reinforcement Learning, RL)은 머신러닝에서 중심적인 최적화 프레임워크로 남아 있습니다. RL 에이전트가 최적 솔루션에 수렴할 수 있지만, 정의는...