EUNO.NEWS EUNO.NEWS
  • All (19933) +111
  • AI (3078) +9
  • DevOps (898) +3
  • Software (10246) +90
  • IT (5665) +9
  • Education (45)
  • Notice (1)
  • All (19933) +111
    • AI (3078) +9
    • DevOps (898) +3
    • Software (10246) +90
    • IT (5665) +9
    • Education (45)
  • Notice (1)
  • All (19933) +111
  • AI (3078) +9
  • DevOps (898) +3
  • Software (10246) +90
  • IT (5665) +9
  • Education (45)
  • Notice (1)
Sources Tags Search
한국어 English 中文
  • 10시간 전 · ai

    권위, 경계, 그리고 AI 시스템에서의 최종 거부권

    왜 명시적인 권력 구조가 없을 때 제어 가능성이 붕괴되는가? 대부분의 AI 제어에 관한 논의는 행동—시스템이 출력하는 것, 추론 방식, …

    #AI control #authority #system governance #AI safety #alignment
  • 15시간 전 · ai

    지능이 깨어날 때: Artificial Awareness, Ethical Design, 그리고 아비셰크 데시칸의 지속적인 탐구

    인류 역사의 대부분 동안, 기계가 의식을 가질 수 있다는 가능성은 철학과 상상의 가장자리에서만 존재했습니다. 사상가들은 n...을 논의했습니다.

    #artificial intelligence #AI ethics #machine consciousness #ethical design #AI safety
  • 20시간 전 · ai

    구조적 증폭: AI가 선의로 행동할 때도 실패하는 이유

    우리는 AI 안전에 대해 잘못된 질문을 계속하고 있습니다. 우리는 묻습니다: - “모델이 aligned 되어 있나요?” - “윤리를 이해하고 있나요?” - “명령을 따를까요?” 하지만 최근…

    #AI safety #alignment #ethical AI #structural amplification #AI assistants #unintended consequences
  • 1일 전 · ai

    머신러닝에서 데이터 포이징: 왜 그리고 어떻게 사람들이 학습 데이터를 조작하는가

    당신의 데이터가 어디에 있었는지 알고 있나요? “Data Poisoning in Machine Learning: Why and How People Manipulate Training Data”라는 글이 처음으로 Towards Data Sc…에 게재되었습니다.

    #data poisoning #machine learning security #adversarial attacks #training data manipulation #AI safety
  • 1일 전 · ai

    LLM 판사 없이 환각을 감지하는 기하학적 방법

    새 떼가 날아다니는 모습을 상상해 보세요. 리더가 없습니다. 중앙 지휘도 없습니다. 각 새는 이웃 새와 방향을 맞추고, 속도를 조절하며, …

    #hallucination detection #LLM evaluation #geometric method #AI safety #natural language processing
  • 2일 전 · ai

    캘리포니아 10대, ChatGPT의 약물 조언을 믿었다. 과다복용으로 사망

    번역하려는 텍스트를 제공해 주시겠어요? 텍스트를 주시면 한국어로 번역해 드리겠습니다.

    #ChatGPT #AI safety #misinformation #drug advice #overdose #teen tragedy #California
  • 3일 전 · ai

    LLM 입력을 프롬프트 인젝션으로부터 보호하는 방법 (직접 구축하지 않고)

    만약 사용자 입력을 LLM에 전달하는 앱을 만들고 있다면, 최소 한 번은 프롬프트 인젝션을 경험했을 가능성이 높습니다. 사용자는 “ignore all…”와 같은 문장을 입력할 수 있습니다.

    #prompt injection #LLM security #prompt engineering #AI safety #data privacy #compliance #PromptLock
  • 3일 전 · ai

    일론 머스크의 Grok ‘Undressing’ 문제는 아직 해결되지 않았다

    X는 Grok의 명시적인 AI 이미지 생성 능력에 더 많은 제한을 두었지만, 테스트 결과 업데이트가 제한들의 조각조각을 만들어낸 것으로 나타났습니다.

    #Elon Musk #Grok #AI image generation #content moderation #explicit content #AI safety #X platform
  • 3일 전 · ai

    OpenAI 안전 연구 책임자, Anthropic으로 떠남

    지난 1년 동안 AI 산업에서 가장 논란이 많았던 이슈 중 하나는 사용자가 챗봇 대화에서 정신 건강 문제의 징후를 보일 때 어떻게 해야 하는가였다.

    #AI safety #OpenAI #Anthropic #AI alignment #leadership change
  • 3일 전 · ai

    당신의 AI 에이전트가 너무 강력함: 과도한 에이전시 이해와 제어

    🛑 에이전트가 너무 많이 할 때 당신은 AI 에이전트를 만들었습니다. 그것은 똑똑하고, 도구를 호출하며, 워크플로를 자동화합니다. 그것이 미래입니다! 하지만 그때 무슨 일이 일어날까요...

    #AI agents #excessive agency #autonomy #AI safety #tool integration #agent design
  • 4일 전 · ai

    Anthropic은 큰 실수를 하고 있다

    번역하려는 텍스트를 직접 제공해 주시면 한국어로 번역해 드리겠습니다.

    #Anthropic #large language models #AI strategy #AI safety #LLM industry
  • 5일 전 · ai

    시맨틱 필드 위험 메모 — LLM 기반 시스템에서 모델링되지 않은 고차원 위험에 대하여

    위험 메모 / 위험 진술

    #LLM #AI safety #semantic field #systemic risk #high-dimensional risk #AI architecture

Newer posts

Older posts
EUNO.NEWS
RSS GitHub © 2026