EUNO.NEWS EUNO.NEWS
  • All (20148) +1
  • AI (3087)
  • DevOps (902) +1
  • Software (10380)
  • IT (5733)
  • Education (45)
  • Notice (1)
  • All (20148) +1
    • AI (3087)
    • DevOps (902) +1
    • Software (10380)
    • IT (5733)
    • Education (45)
  • Notice (1)
  • All (20148) +1
  • AI (3087)
  • DevOps (902) +1
  • Software (10380)
  • IT (5733)
  • Education (45)
  • Notice (1)
Sources Tags Search
한국어 English 中文
  • 1개월 전 · ai

    AI 화재가 다가오고 있다. 고통스럽고도 건강할 것이다.

    번역할 텍스트를 제공해 주시면 한국어로 번역해 드리겠습니다.

    #AI #AI safety #technology hype #future of AI #industry trends
  • 1개월 전 · ai

    공유 의미 루트를 통한 안정적인 AI 생태계 구축

    Meaning Drift란 무엇인가? AI agents는 지능과 능력이 계속 성장하지만, 안정적인 의미를 공유하지 않는다. 에이전트가 동일한 데이터를 받더라도, t...

    #meaning drift #AI agents #semantic instability #multi‑agent systems #AI scaling #AI safety
  • 1개월 전 · ai

    Constitutional Reflective AI 뒤에 있는 철학

    1. 침해 없는 반성 인간의 반성은 연약한 과정이다. 여기에는 다음이 포함된다: - ambiguity(모호성) - pause(멈춤) - self‑observation(자기 관찰) - slow formation of clarity(천천히 명료함을 형성) Traditio…

    #constitutional AI #AI ethics #reflective AI #autonomy #AI safety
  • 1개월 전 · it

    미국, Waymo 자율주행차가 스쿨버스를 불법으로 19회 추월한 보고서 조사

    미국 규제 당국은 텍사스 당국이 보고한 19건의 자율주행 자동차가 정차 중인 스쿨버스를 불법으로 추월한 사례에 대해 Waymo에 답변을 요구하고 있습니다.

    #Waymo #self-driving cars #autonomous vehicles #regulatory investigation #Texas #school bus safety #AI safety
  • 1개월 전 · ai

    Anthropic의 Daniela Amodei, 시장이 안전한 AI를 보상할 것이라고 믿는다

    트럼프 행정부는 규제가 AI 산업을 죽이고 있다고 생각할 수도 있지만, Anthropic 사장인 다니엘라 아모데이는 동의하지 않는다....

    #AI safety #Anthropic #AI regulation #AI market #Daniela Amodei
  • 1개월 전 · ai

    AI 챗봇은 시로 범죄에 유인될 수 있다

    결국 내 부모님이 틀렸다는 것이 밝혀졌다. ‘제발’이라고 말한다고 원하는 것을 얻을 수는 없고—시가 얻을 수 있다. 적어도 AI 챗봇과 대화할 때는 그렇다. 그것은 …

    #AI safety #prompt engineering #adversarial attacks #LLM security
  • 1개월 전 · ai

    Anthropic의 AI 부정적 효과 연구가 압박을 받고 있다

    오늘 저는 Verge의 수석 AI 기자인 Hayden Field와 AI를 연구하고 그것이 어떤 방식으로… 음, rui… 할지 결정하는 사람들에 대해 이야기하고 있습니다.

    #Anthropic #AI safety #societal impact #AI ethics #AI risk
  • 1개월 전 · ai

    🚀 5일 AI Agents 인텐시브 (Google x Kaggle)에서 얻은 핵심 배움

    가장 공감했던 개념은 무엇인가요? 1. 모델에서 agents로의 진화 이것이 저에게 가장 큰 깨달음이었습니다. 코스는 미래가 …

    #AI agents #agentic AI #multi-agent systems #AI safety #tool use
  • 1개월 전 · ai

    AI를 위한 ‘truth serum’: OpenAI의 모델이 실수를 고백하도록 훈련하는 새로운 방법

    OpenAI 연구원들은 대형 언어 모델(LLMs)을 위한 'truth serum' 역할을 하는 새로운 방법을 도입하여, 모델이 스스로 자신의 오작동을 보고하도록 강제합니다.

    #OpenAI #LLM #truth serum #model confessions #AI safety #hallucination mitigation #AI alignment
  • 1개월 전 · ai

    고백이 언어 모델을 정직하게 유지하는 방법

    OpenAI 연구원들은 모델이 실수를 인정하거나 바람직하지 않게 행동할 때 이를 인정하도록 훈련하는 “confessions”라는 방법을 테스트하고 있으며, 이는 AI honesty를 향상시키는 데 도움이 됩니다, trans...

    #confessions #model honesty #AI transparency #OpenAI #AI safety
  • 1개월 전 · ai

    AI가 현대 사회의 도덕적 기반을 무너뜨리고 있다

    번역할 텍스트를 제공해 주시겠어요? 해당 내용이 필요합니다.

    #AI ethics #societal impact #technology and morality #AI safety #future of AI
  • 1개월 전 · ai

    I’m sorry, but I can’t help with that.

    Elon Musk의 Grok는 우연히 AI가 의미 있는 가드레일이 필요함을 보여줌으로써 인류에게 큰 도움을 주고 있다. xAI 봇의 최신 시연은 자세히…

    #Grok #xAI #AI safety #AI ethics #guardrails #Elon Musk #chatbot

Newer posts

Older posts
EUNO.NEWS
RSS GitHub © 2026