EUNO.NEWS EUNO.NEWS
  • All (7450) +26
  • AI (1281) +4
  • DevOps (373) +2
  • Software (3549) +13
  • IT (2230) +7
  • Education (17)
  • Notice
  • All (7450) +26
    • AI (1281) +4
    • DevOps (373) +2
    • Software (3549) +13
    • IT (2230) +7
    • Education (17)
  • Notice
  • All (7450) +26
  • AI (1281) +4
  • DevOps (373) +2
  • Software (3549) +13
  • IT (2230) +7
  • Education (17)
  • Notice
Sources Tags Search
한국어 English 中文
  • 2주 전 · ai

    고백이 언어 모델을 정직하게 유지하는 방법

    OpenAI 연구원들은 모델이 실수를 인정하거나 바람직하지 않게 행동할 때 이를 인정하도록 훈련하는 “confessions”라는 방법을 테스트하고 있으며, 이는 AI honesty를 향상시키는 데 도움이 됩니다, trans...

    #confessions #model honesty #AI transparency #OpenAI #AI safety
  • 2주 전 · ai

    OpenAI, 네프튠 인수

    OpenAI는 모델 행동에 대한 가시성을 높이고 연구자들이 실험을 추적하고 훈련을 모니터링하는 도구를 강화하기 위해 Neptune을 인수합니다....

    #OpenAI #Neptune #acquisition #model monitoring #experiment tracking #AI tools
  • 2주 전 · ai

    People-First AI Fund 초기 수혜자 발표

    OpenAI 재단은 People-First AI Fund의 초기 수혜자를 발표하며, 커뮤니티를 지원하는 208개의 비영리 단체에 무제한 보조금으로 4,050만 달러를 수여합니다.

    #OpenAI #People-First AI Fund #AI grants #nonprofit funding #AI community innovation #AI philanthropy
  • 2주 전 · ai

    Healthify, AI 어시스턴트 Ria를 실시간 대화 기능으로 업그레이드

    Healtify는 AI 어시스턴트에 실시간 대화 기능을 추가하고 있으며, 이는 OpenAI의 realtime API를 기반으로 합니다...

    #AI assistant #real-time conversation #OpenAI realtime API #Healthify #conversational AI #voice AI
  • 2주 전 · ai

    AI가 현대 사회의 도덕적 기반을 무너뜨리고 있다

    번역할 텍스트를 제공해 주시겠어요? 해당 내용이 필요합니다.

    #AI ethics #societal impact #technology and morality #AI safety #future of AI
  • 2주 전 · ai

    AI 모델, Putnam을 거의 만점에 가깝게: 진정한 파괴는 우리가 사고하는 방식이다

    AI 모델이 푸트남 시험에서 거의 완벽에 가까운 점수를 받다. 최근 한 AI 수학 모델이 가장 어려운 인간 시험 중 하나에서 118/120점을 기록했다. 문제를 푸는 것을 넘어, 그것은 …

    #Putnam exam #AI reasoning #self‑verification #proof generation #math AI #model self‑correction #large language models
  • 2주 전 · ai

    나는 LangChain을 사용해 단 10줄로 Mini ChatGPT를 만들었다 (Part 1)

    모두가 AI 어시스턴트—챗봇, 퍼스널 에이전트, 서포트 봇, 혹은 마이크로‑GPT—를 만들고 싶어합니다. 초보자들은 종종 복잡한 아키텍처나 파인‑튜닝이 필요하다고 생각합니다.

    #LangChain #ChatGPT #Python #conversational AI #AI assistant #prompt engineering #mini GPT
  • 2주 전 · ai

    Bias–Variance Tradeoff — 시각적으로 그리고 실용적으로 설명 (Part 6)

    편향이 실제 의미하는 바 실용적 정의 편향은 모델이 진정한 패턴을 학습하지 못했기 때문에 평균적으로 얼마나 틀렸는지를 나타냅니다. 높은 편향은 다음과 같은 경우에 발생합니다: - Th...

    #bias-variance tradeoff #overfitting #underfitting #machine learning #model evaluation #regularization #production ML
  • 2주 전 · ai

    Overfitting & Underfitting — 교과서 정의를 넘어 (Part 5)

    ML 모델의 숨겨진 실패 지점 시리즈 파트 5 대부분의 ML 초보자들은 과적합(overfitting)과 과소적합(underfitting)을 이해하고 있다고 생각합니다. 실제 프로덕션 시스템에서는 과적…

    #overfitting #underfitting #model drift #ML production #machine learning engineering #data pipelines #model monitoring
  • 2주 전 · ai

    왜 Accuracy는 거짓말을 하는가 — 실제로 중요한 Metrics (Part 4)

    ‘Why Accuracy Lies — The Metrics That Actually Matter Part 4’ 표지 이미지 https://media2.dev.to/dynamic/image/width=1000,height=420,fit=cover,gravity=auto,for...

    #accuracy #machine-learning-metrics #model-evaluation #production-ml #data-science
  • 2주 전 · ai

    내가 테스트를 내면, 6개의 SOTA LLMs 중 5개가 바지를 벗는다

    제가 연구하고 있는 가설은 어떤 실체가 ‘깊이’ 지능적이게 만드는 요인이 무엇인가 하는 것입니다—단순히 똑똑하거나 능력이 뛰어난 것이 아니라, 현실을 초월하는 방식으로 이해하는 것…

    #LLM #prompt engineering #AI evaluation #persona prompting #sales pitch test #analogical reasoning
  • 2주 전 · ai

    Gemini 3에 대한 새로운 Gemini API 업데이트

    2025년 11월 25일 Gemini 3, 우리 가장 지능적인 모델이 Gemini API를 통해 개발자들이 활용할 수 있게 되었습니다. 최첨단 추론을 지원하기 위해, …

    #Gemini 3 #Gemini API #thinking_level #multimodal AI #autonomous coding #agentic capabilities #Google AI #large language model #AI model updates

Newer posts

Older posts
EUNO.NEWS
RSS GitHub © 2025