EUNO.NEWS EUNO.NEWS
  • All (19986) +161
  • AI (3082) +11
  • DevOps (900) +5
  • Software (10279) +122
  • IT (5679) +23
  • Education (45)
  • Notice (1)
  • All (19986) +161
    • AI (3082) +11
    • DevOps (900) +5
    • Software (10279) +122
    • IT (5679) +23
    • Education (45)
  • Notice (1)
  • All (19986) +161
  • AI (3082) +11
  • DevOps (900) +5
  • Software (10279) +122
  • IT (5679) +23
  • Education (45)
  • Notice (1)
Sources Tags Search
한국어 English 中文
  • 1주 전 · ai

    뮤트 에이전트: 왜 당신의 AI는 입을 다물고 그래프에 귀를 기울여야 하는가

    우리는 에이전트를 잘못 만들고 있습니다. 현재 업계 표준인 에이전시 AI는 Chatty Generalist입니다. LLM에 도구 목록과 시스템 프롬프트를 제공하고, 그 안에 …

    #AI agents #LLM safety #prompt engineering #graph-based reasoning #mute agent #tool use
  • 1주 전 · ai

    왜 Memory Poisoning이 AI 보안의 새로운 최전선인가

    ‘Why Memory Poisoning is the New Frontier in AI Security’ 표지 이미지 https://media2.dev.to/dynamic/image/width=1000,height=420,fit=cover,gravity=auto,format=...

    #memory poisoning #AI security #adversarial attacks #LLM safety #prompt injection
  • 2주 전 · ai

    MCP 보안 101: AI 에이전트를 'God-Mode' 위험으로부터 보호하기

    Model Context Protocol(MCP)의 주요 보안 위험을 배우고, AI 에이전트를 도구 중독, 공급망 공격 등으로부터 보호하는 방법을 알아보세요.

    #AI security #Model Context Protocol #AI agents #tool poisoning #supply chain attacks #prompt injection #LLM safety #agent orchestration
  • 2주 전 · ai

    AI 신뢰성 보장: 정확성, 일관성 및 가용성

    AI 신뢰성 개요 AI 시스템은 성능 기대치를 자주 충족하지 못하고, 부정확한 결과를 생성하거나, 예측 불가능하게 동작하거나, 운영상의 문제를 겪는다.

    #AI reliability #correctness #consistency #availability #LLM safety #robustness #performance
  • 3주 전 · ai

    왜 당신의 AI는 ‘모른다’고 말할 권리가 필요할까

    환각에 대한 재고 나는 예전에는 환각이 지식 문제라고 생각했다—AI가 답을 몰라서 만들어 내는 것이라고. 몇 달 동안 작업한 후…

    #hallucination #prompt engineering #context gaps #LLM safety #AI assistants #AI accuracy
  • 1개월 전 · ai

    chain-of-thought 모니터링 가능성 평가

    OpenAI는 체인‑오브‑소트(chain‑of‑thought) 모니터링 가능성을 위한 새로운 프레임워크와 평가 스위트를 도입했으며, 24개 환경에서 13개의 평가를 수행했습니다. 우리의 발견은 …

    #chain-of-thought #monitorability #model reasoning #evaluation suite #OpenAI #AI interpretability #LLM safety
  • 1개월 전 · ai

    정확도를 넘어: AI 에이전트 품질의 73+ 차원

    !Beyond Accuracy: The 73+ Dimensions of AI Agent Quality 표지 이미지 https://media2.dev.to/dynamic/image/width=1000,height=420,fit=cover,gravity=auto,format=...

    #AI agent evaluation #quality metrics #LLM safety #efficiency #compliance
  • 1개월 전 · ai

    멀티에이전트 아레나: 런던 그레이트 에이전트 해크 2025 인사이트

    중요했던 점: robust agents, glass-box reasoning, 그리고 red-team resilience 게시물 “Multi-Agent Arena: Insights from London Great Agent Hack 2025”가 처음으로 등장했습니다.

    #multi-agent systems #agent hackathon #robust agents #glass-box reasoning #red-team resilience #LLM safety
EUNO.NEWS
RSS GitHub © 2026