EUNO.NEWS EUNO.NEWS
  • All (19986) +161
  • AI (3082) +11
  • DevOps (900) +5
  • Software (10279) +122
  • IT (5679) +23
  • Education (45)
  • Notice (1)
  • All (19986) +161
    • AI (3082) +11
    • DevOps (900) +5
    • Software (10279) +122
    • IT (5679) +23
    • Education (45)
  • Notice (1)
  • All (19986) +161
  • AI (3082) +11
  • DevOps (900) +5
  • Software (10279) +122
  • IT (5679) +23
  • Education (45)
  • Notice (1)
Sources Tags Search
한국어 English 中文
  • 5일 전 · ai

    LLM은 자신이 환각을 일으키는지 알고 있나요? 5M 파라미터 옵저버인 Gnosis를 만나보세요

    환각 문제: 인상적인 능력에도 불구하고 LLMs는 절대적인 자신감으로 잘못된 정보를 생성하는 경우가 많습니다. 전통적인 방법...

    #LLM #hallucination detection #AI safety #Gnosis #model monitoring #internal dynamics #small observer #University of Alberta
  • 5일 전 · ai

    LLM 맥시멀리스트들의 불안한 전도

    번역할 텍스트를 제공해 주시겠어요?

    #large language models #AI safety #AI ethics #LLM security #AI evangelism
  • 5일 전 · ai

    Signal 리더들, agentic AI가 불안정하고 신뢰할 수 없는 감시 위험이라고 경고

    죄송합니다. 번역하려는 텍스트를 직접 제공해 주시면 도와드리겠습니다.

    #agentic AI #AI security #privacy #surveillance risk #Signal #AI safety
  • 1주 전 · ai

    왜 온타리오 디지털 서비스는 ‘98% 안전한’ LLM을 조달하지 못했는가 (1500만 캐나다인)

    번역할 텍스트를 제공해 주시겠어요? 텍스트를 알려주시면 한국어로 번역해 드리겠습니다.

    #Ontario Digital Service #LLM #AI safety #procurement #government #Canada
  • 1주 전 · ai

    Anthropic이 큰 실수를 저질렀다

    번역하려는 텍스트를 제공해 주시겠어요? 해당 내용이 있으면 한국어로 번역해 드리겠습니다.

    #Anthropic #AI #large language model #company mistake #AI safety
  • 1주 전 · ai

    이번 주 AI 소식: ChatGPT 건강 위험, LLM 프로그래밍, 그리고 인도네시아가 Grok을 차단한 이유

    이번 주 AI 소식: ChatGPT 건강 위험, LLM을 위한 프로그래밍, 그리고 인도네시아가 Grok을 차단한 이유 커피를 따라 마시고 편히 앉으세요. 이번 주는 가장…

    #ChatGPT Health #medical AI #LLM programming #AI safety #hallucinations #Indonesia Grok ban #AI news
  • 1주 전 · ai

    AI가 자신의 마음을 들여다볼 수 있을까? Anthropic의 머신 인트로스펙션 돌파구

    실험: 블랙 박스 탐색 수년간 우리는 large language models LLMs을 블랙 박스로 취급해 왔습니다. 모델이 “I am currently thinking about c...”라고 말할 때…

    #AI safety #machine introspection #Anthropic #large language models #activation injection #research #LLM transparency
  • 1주 전 · ai

    LLMs가 결국 스스로 학습하지 않을까요? 출력이 점점 감소할 겁니다..

    TL;DR LLM은 문서, GitHub 저장소, StackOverflow, Reddit와 같은 자료를 학습합니다. 하지만 우리가 LLM을 계속 사용하면, 그들의 자체 출력이 이러한 플랫폼에 들어가게 됩니다...

    #LLM #model degradation #data contamination #AI training data #self-referential output #AI safety
  • 1주 전 · ai

    GPT-2를 부숴버렸다: Geometry를 이용해 Semantic Collapse를 증명한 방법 (The Ainex Limit)

    TL;DR 저는 GPT‑2가 자체 출력으로부터 20세대에 걸쳐 학습하도록 강제했습니다. 20세대가 되자 모델은 의미적 볼륨의 66 %를 잃었고, 상태를 hallucinating 시작했습니다.

    #GPT-2 #semantic collapse #synthetic data #language models #AI safety #model degradation #geometry analysis
  • 1주 전 · ai

    인간에서 관찰된 LLM 문제

    번역할 텍스트를 제공해 주시겠어요? 기사나 댓글에서 번역하고 싶은 구체적인 내용(발췌문 또는 요약)을 알려주시면 한국어로 번역해 드리겠습니다.

    #large language models #LLM #human behavior #AI safety #cognitive biases
  • 1주 전 · ai

    왜 Image Hallucination이 Text Hallucination보다 더 위험한가

    ‘Why Image Hallucination Is More Dangerous Than Text Hallucination’ 표지 이미지 https://media2.dev.to/dynamic/image/width=1000,height=420,fit=cover,gravity=au...

    #image hallucination #vision-language models #AI safety #multimodal AI #generative AI
  • 1주 전 · ai

    명시적 중지 조건을 갖춘 인간–AI 시스템을 위한 비결정 프로토콜

    개요: 저는 인간–AI 시스템을 위한 비결정 프로토콜을 제안하는 기술 메모를 공유합니다. 핵심 아이디어는 간단합니다: AI 시스템은 결정을 내리지 않아야 합니다. 그들은 …

    #AI safety #human-in-the-loop #explicit stop conditions #traceability #non-decision protocol

Newer posts

Older posts
EUNO.NEWS
RSS GitHub © 2026