EUNO.NEWS EUNO.NEWS
  • All (20286) +125
  • AI (3097) +8
  • DevOps (909) +5
  • Software (10479) +94
  • IT (5755) +18
  • Education (45)
  • Notice (1)
  • All (20286) +125
    • AI (3097) +8
    • DevOps (909) +5
    • Software (10479) +94
    • IT (5755) +18
    • Education (45)
  • Notice (1)
  • All (20286) +125
  • AI (3097) +8
  • DevOps (909) +5
  • Software (10479) +94
  • IT (5755) +18
  • Education (45)
  • Notice (1)
Sources Tags Search
한국어 English 中文
  • 1개월 전 · ai

    [Paper] 법률 문서 해석에서 LLMs

    이 장에서는 Large Language Models의 법률 분야 적용을 탐구하며, 전통적인 법률 업무를 최적화하고 보강할 수 있는 잠재력을 보여줍니다.

    #research #paper #ai #machine-learning #nlp
  • 1개월 전 · ai

    [Paper] OnCoCo 1.0: 온라인 상담 대화에서 세분화된 메시지 분류를 위한 공개 데이터셋

    이 논문은 온라인 상담에서 세분화된 메시지 분류를 위한 새로운 공개 데이터셋인 OnCoCo 1.0을 소개한다. 이는 새로운 통합 시스템인 c...에 기반한다.

    #research #paper #ai #machine-learning #nlp
  • 1개월 전 · ai

    [Paper] DeepSeek의 WEIRD 행동: 대형 언어 모델의 문화 정렬 및 프롬프트 언어와 문화 프롬프팅의 효과

    문화는 인간-대-인간 상호작용의 핵심 요소이며, 우리가 타인을 인식하고 교류하는 방식에 중요한 역할을 합니다. 효율성의 향상…

    #research #paper #ai #nlp
  • 1개월 전 · ai

    [Paper] MOA: 다중 목표 정렬을 위한 역할 수행 에이전트

    역할 수행 에이전트(RPAs)는 동시에 많은 상충되는 기술을 마스터해야 합니다 — multi-turn instructions를 따르고, domain knowledge를 보여주며, ...

    #research #paper #ai #nlp
  • 1개월 전 · ai

    [Paper] BAMBO: 능력 및 효율성 LLM 파레토 집합 구축 via Bayesian Adaptive Multi-objective Block-wise Optimization

    Pareto set을 구축하는 것은 Large Language Models (LLMs)의 capability‑efficiency trade‑offs를 탐색하는 데 핵심적입니다; 그러나 기존의 merging techniques는 …

    #research #paper #ai #machine-learning #nlp
  • 1개월 전 · ai

    [Paper] BAMBO: 베이지안 적응형 다목적 블록별 최적화를 통한 능력 및 효율성 LLM 파레토 집합 구축

    Pareto 집합을 구성하는 것은 대형 언어 모델(Large Language Models, LLMs)에서 능력‑효율성 트레이드오프를 탐색하는 데 핵심적입니다; 그러나 기존의 merging 기술은 …

    #research #paper #ai #machine-learning #nlp
  • 1개월 전 · ai

    [Paper] 이상한 일반화와 귀납적 백도어: LLM을 손상시키는 새로운 방법

    LLM은 일반화가 뛰어나기 때문에 유용합니다. 하지만 좋은 것이 과하면 안 될까요? 우리는 좁은 맥락에서 소량의 finetuning이 can dra...

    #research #paper #ai #machine-learning #nlp
  • 1개월 전 · ai

    [Paper] 대형 언어 모델 훈련에서 다운스트림 메트릭의 스케일링 특성 재검토

    Large Language Models (LLMs)의 스케일링 법칙은 전통적으로 사전학습 손실과 같은 프록시 메트릭에 초점을 맞추지만, 다운스트림 작업 성능을 예측하는 것은 …

    #research #paper #ai #machine-learning #nlp
  • 1개월 전 · ai

    [Paper] Sparse Autoencoders와 함께하는 Faithful Retrieval‑Augmented Generation

    Retrieval-Augmented Generation (RAG)은 검색된 증거에 기반해 출력을 근거함으로써 대형 언어 모델(LLMs)의 사실성을 향상시키지만, 충실도 실패…

    #research #paper #ai #machine-learning #nlp
  • 1개월 전 · ai

    [Paper] Depth-Grown 모델은 깊이의 저주를 극복할 수 있을까? 심층 분석

    학습 중에 Transformer의 깊이를 점진적으로 늘리는 것은 학습 비용을 줄일 뿐만 아니라, MIDAS가 보여주듯 추론 성능을 향상시킬 수 있습니다.

    #research #paper #ai #machine-learning #nlp
  • 1개월 전 · ai

    [Paper] 질문하고, 답하고, 탐지하기: 질문 조건부 Mixture-of-Experts를 활용한 역할 연기 LLM을 통한 성격 탐지

    인간의 성격을 이해하는 것은 personalized recommendation 및 mental health assessment와 같은 웹 애플리케이션에 매우 중요합니다. 기존 연구들은 성격…

    #research #paper #ai #nlp
  • 1개월 전 · ai

    [Paper] 연합 RLHF에서 선호 집계에 대한 체계적 평가: LLM의 다원적 정렬을 위해

    이 논문은 연합 학습(FL) 환경에서 다양한 인간 선호와 대형 언어 모델(LLMs)을 정렬하는 과제에 대해 다룹니다, 여기서 st...

    #research #paper #ai #machine-learning #nlp

Newer posts

Older posts
EUNO.NEWS
RSS GitHub © 2026