EUNO.NEWS EUNO.NEWS
  • All (19986) +161
  • AI (3082) +11
  • DevOps (900) +5
  • Software (10279) +122
  • IT (5679) +23
  • Education (45)
  • Notice (1)
  • All (19986) +161
    • AI (3082) +11
    • DevOps (900) +5
    • Software (10279) +122
    • IT (5679) +23
    • Education (45)
  • Notice (1)
  • All (19986) +161
  • AI (3082) +11
  • DevOps (900) +5
  • Software (10279) +122
  • IT (5679) +23
  • Education (45)
  • Notice (1)
Sources Tags Search
한국어 English 中文
  • 2일 전 · ai

    Google의 'internal RL'이 장기적 AI 에이전트를 열 수 있는 방법

    Google 연구원들은 일반적으로 LLM이 환각을 일으키거나 실패하게 만드는 복잡한 추론 작업을 AI 모델이 더 쉽게 학습할 수 있도록 하는 기술을 개발했습니다.

    #reinforcement learning #internal RL #large language models #Google AI #reasoning #hallucination mitigation #AI research
  • 1주 전 · ai

    에이전트를 위한 Tool 경계: 언제 Tool을 호출할까 + Tool I/O 설계 방법 (시스템이 추측을 멈추게 하려면)

    툴 호출 — 에이전트가 추측하는 것을 멈추게 하세요! Anindya Obi https://media2.dev.to/dynamic/image/width=50,height=50,fit=cover,gravity=auto,format=auto/https%3A%2F...

    #tool calling #AI agents #prompt engineering #LLM tool integration #hallucination mitigation #agent design #tool I/O standards
  • 2주 전 · ai

    RAG가 작동하는 방식...

    Retrieval‑Augmented Generation(RAG)이란 무엇인가요? AI 분야를 따라오고 있다면, RAG Retrieval‑Augmented Generation이라는 유행어를 확실히 들어봤을 것입니다. 그것은…

    #retrieval-augmented generation #RAG #LLM #hallucination mitigation #open‑book AI #AI retrieval #generative AI
  • 2주 전 · ai

    파트 4 — 검색은 시스템이다

    왜 대부분의 실용적인 GenAI 시스템은 Retrieval‑Centric인가 - 대형 언어 모델(LLM)은 정적 데이터로 학습되며, 이는 다음과 같은 문제를 초래한다: - 오래된 지식 - 도메인 누락…

    #retrieval-augmented generation #RAG #large language models #knowledge retrieval #AI system design #hallucination mitigation #model vs retrieval
  • 1개월 전 · ai

    Synthetic Data를 사용하여 LLM 프롬프트를 평가하는 방법: 단계별 가이드

    개요: 대규모 언어 모델(LLM)의 프로덕션 배포는 소프트웨어 엔지니어링의 병목 현상을 코드 구문에서 데이터 품질로 이동시켰습니다. - In t...

    #synthetic data #LLM evaluation #prompt engineering #generative AI #RAG #hallucination mitigation #AI testing
  • 1개월 전 · ai

    RAG가 실제 의료에서 LLM의 힘을 혁신하는 방법

    대형 언어 모델(LLMs)은 세상을 바꾸었지만, Retrieval‑Augmented Generation(RAG)이 실제 응용에서 진정으로 유용하게 만드는 요소입니다. 왜 RAG가 …

    #retrieval-augmented generation #RAG #large language models #LLM #healthcare AI #Sanjeevani AI #Ayurvedic AI #hallucination mitigation #domain-specific AI
  • 1개월 전 · ai

    AI를 위한 ‘truth serum’: OpenAI의 모델이 실수를 고백하도록 훈련하는 새로운 방법

    OpenAI 연구원들은 대형 언어 모델(LLMs)을 위한 'truth serum' 역할을 하는 새로운 방법을 도입하여, 모델이 스스로 자신의 오작동을 보고하도록 강제합니다.

    #OpenAI #LLM #truth serum #model confessions #AI safety #hallucination mitigation #AI alignment
EUNO.NEWS
RSS GitHub © 2026