EUNO.NEWS EUNO.NEWS
  • All (20217) +56
  • AI (3094) +5
  • DevOps (905) +1
  • Software (10432) +47
  • IT (5740) +3
  • Education (45)
  • Notice (1)
  • All (20217) +56
    • AI (3094) +5
    • DevOps (905) +1
    • Software (10432) +47
    • IT (5740) +3
    • Education (45)
  • Notice (1)
  • All (20217) +56
  • AI (3094) +5
  • DevOps (905) +1
  • Software (10432) +47
  • IT (5740) +3
  • Education (45)
  • Notice (1)
Sources Tags Search
한국어 English 中文
  • 1주 전 · ai

    [Paper] 무선 네트워크에서의 예측 및 제어를 위한 Multi-Modal Data-Enhanced Foundation Models: 설문 조사

    Foundation models (FMs)은 인공지능(AI)의 미래를 재구성하기 시작한 변혁적인 돌파구로 인식되고 있으며, 학계와 산업 전반에 걸쳐 그 영향을 확대하고 있습니다.

    #research #paper #ai #machine-learning #nlp #computer-vision
  • 1주 전 · ai

    65%의 Hacker News 게시물이 부정적 감성을 가지고 있으며, 더 높은 성과를 보인다

    번역하려는 텍스트를 제공해 주시겠어요? 텍스트를 알려주시면 한국어로 번역해 드리겠습니다.

    #sentiment analysis #Hacker News #NLP #data science
  • 1주 전 · ai

    GliNER2: 텍스트에서 구조화된 정보 추출

    비정형 텍스트에서 구조화된 Knowledge Graphs로 ‘GliNER2: 텍스트에서 Structured Information 추출’이라는 글이 최초로 Towards Data Science에 게재되었습니다....

    #information extraction #knowledge graph #NLP #structured data #GliNER2
  • 2주 전 · ai

    [Paper] 계층적 시간 수용 창과 생물학적으로 제약된 스케일 불변 딥 네트워크에서의 제로샷 시간 척도 일반화

    인간 인지는 중첩된 시간 척도에 걸쳐 정보를 통합한다. 대뇌피질은 계층적인 Temporal Receptive Windows (TRWs)를 보이지만, 국소 회로는 종종 ...

    #research #paper #ai #machine-learning #nlp
  • 2주 전 · ai

    [Paper] Chronicals: LLM 파인튜닝을 위한 고성능 프레임워크, Unsloth 대비 3.51배 속도 향상

    대규모 언어 모델 파인튜닝은 메모리 병목 현상이 있다: 7B 파라미터 모델은 84GB가 필요하며, 그 중 14GB는 가중치, 14GB는 그래디언트, 56GB는 FP32 최적화에 사용된다.

    #research #paper #ai #machine-learning #nlp
  • 2주 전 · ai

    [Paper] 강인한 Persona-Aware 독성 감지 with Prompt Optimization and Learned Ensembling

    Toxicity detection은 본질적으로 주관적이며, 다양한 인구통계 그룹의 다양한 관점과 사회적 선입견에 의해 형성됩니다. ``pluralistic'' 모델링…

    #research #paper #ai #nlp
  • 2주 전 · ai

    [Paper] 텍스트 온도 추정

    자동회귀 언어 모델은 일반적으로 추론 시 temperature 파라미터를 사용하여 확률 분포를 형성하고 텍스트 생성의 무작위성을 제어합니다.

    #research #paper #ai #nlp
  • 2주 전 · ai

    [Paper] 여러 방언의 Nawatl 변이 분류

    멕시코는 많은 토착 언어가 있는 국가이며, 그 중 가장 널리 사용되는 언어는 Nawatl으로 현재 200만 명 이상이 사용하고 있다.

    #research #paper #ai #nlp
  • 2주 전 · ai

    [Paper] Power-of-Two 양자화 인식 훈련 (PoT‑QAT) 대형 언어 모델 (LLMs)

    대형 언어 모델(LLMs)에서는 파라미터 수가 지난 몇 년간 기하급수적으로 증가했습니다. 예를 들어 GPT-2의 1.5 billion 파라미터에서 175 billion 파라미터까지.

    #research #paper #ai #nlp
  • 2주 전 · ai

    [Paper] pdfQA: 다양하고 도전적이며 현실적인 PDF에 대한 질문 응답

    PDF는 인터넷에서 두 번째로 많이 사용되는 문서 유형이며(HTML 다음), 기존 QA 데이터셋은 일반적으로 텍스트 소스에서 시작하거나 특정 도메인만 다룹니다.

    #research #paper #ai #machine-learning #nlp
  • 2주 전 · ai

    [Paper] CD4LM: 일관성 증류와 aDaptive 디코딩 for Diffusion Language Models

    Autoregressive 대형 언어 모델은 많은 benchmarks에서 강력한 결과를 달성하지만, decoding은 여전히 sequential dependence 때문에 근본적으로 latency‑limited합니다.

    #research #paper #ai #nlp
  • 2주 전 · ai

    [Paper] XAI에서 스토리까지: LLM 생성 설명 품질에 대한 요인 연구

    Explainable AI (XAI) 방법인 SHAP와 LIME은 비전문가 사용자에게 접근하기 어려운 수치적 특징 기여도를 생성한다. 이전 연구에 따르면 L...

    #research #paper #ai #nlp

Newer posts

Older posts
EUNO.NEWS
RSS GitHub © 2026