EUNO.NEWS EUNO.NEWS
  • All (2621) +360
  • AI (578) +28
  • DevOps (152) +8
  • Software (1092) +193
  • IT (792) +130
  • Education (6) +1
  • Notice (1)
  • All (2621) +360
    • AI (578) +28
    • DevOps (152) +8
    • Software (1092) +193
    • IT (792) +130
    • Education (6) +1
  • Notice (1)
  • All (2621) +360
  • AI (578) +28
  • DevOps (152) +8
  • Software (1092) +193
  • IT (792) +130
  • Education (6) +1
  • Notice (1)
Sources Tags Search
한국어 English 中文
  • 2일 전 · ai

    TOON vs JSON: 현실 점검 — 토큰을 절약할 때와 절약하지 못할 때

    소개 최근 TOON Token‑Oriented Object Notation에 대한 기사들이 급증하고 있으며, 많은 기사들이 이것이 “50 % 토큰을 절약한다”고 주장하거나 JSON을 “구식”이라고 부르고 있습니다.

    #TOON #JSON #token savings #LLM #prompt engineering #data serialization #token efficiency
  • 2일 전 · ai

    멀티에이전트 아레나: 런던 그레이트 에이전트 해크 2025 인사이트

    중요했던 점: robust agents, glass-box reasoning, 그리고 red-team resilience 게시물 “Multi-Agent Arena: Insights from London Great Agent Hack 2025”가 처음으로 등장했습니다.

    #multi-agent systems #agent hackathon #robust agents #glass-box reasoning #red-team resilience #LLM safety
  • 2일 전 · ai

    AI로 나만의 웹사이트 코딩하는 방법

    자신만의 웹사이트를 vibe-code하는 방법을 배워보세요. “How to Code Your Own Website with AI” 포스트가 처음으로 Towards Data Science에 게재되었습니다....

    #AI code generation #website development #low‑code #web design automation #Towards Data Science
  • 2일 전 · ai

    에이전트 AI의 진화 C/O Amazon Quick suite

    오늘은 새로운 것이 금방 오래돼 버린다. 우리는 AI로 시작해서 Generative AI로 넘어갔고, 이제는 Agentic AI다. 모든 것이 겹치면서 경계가 흐려진다.

    #agentic AI #generative AI #Amazon QuickSuite #AWS AI stack #autonomous AI #AI orchestration #cloud AI
  • 2일 전 · ai

    고백이 언어 모델을 정직하게 유지하는 방법

    OpenAI 연구원들은 모델이 실수를 인정하거나 바람직하지 않게 행동할 때 이를 인정하도록 훈련하는 “confessions”라는 방법을 테스트하고 있으며, 이는 AI honesty를 향상시키는 데 도움이 됩니다, trans...

    #confessions #model honesty #AI transparency #OpenAI #AI safety
  • 2일 전 · ai

    OpenAI, 네프튠 인수

    OpenAI는 모델 행동에 대한 가시성을 높이고 연구자들이 실험을 추적하고 훈련을 모니터링하는 도구를 강화하기 위해 Neptune을 인수합니다....

    #OpenAI #Neptune #acquisition #model monitoring #experiment tracking #AI tools
  • 2일 전 · ai

    People-First AI Fund 초기 수혜자 발표

    OpenAI 재단은 People-First AI Fund의 초기 수혜자를 발표하며, 커뮤니티를 지원하는 208개의 비영리 단체에 무제한 보조금으로 4,050만 달러를 수여합니다.

    #OpenAI #People-First AI Fund #AI grants #nonprofit funding #AI community innovation #AI philanthropy
  • 2일 전 · ai

    Healthify, AI 어시스턴트 Ria를 실시간 대화 기능으로 업그레이드

    Healtify는 AI 어시스턴트에 실시간 대화 기능을 추가하고 있으며, 이는 OpenAI의 realtime API를 기반으로 합니다...

    #AI assistant #real-time conversation #OpenAI realtime API #Healthify #conversational AI #voice AI
  • 2일 전 · ai

    AI가 현대 사회의 도덕적 기반을 무너뜨리고 있다

    번역할 텍스트를 제공해 주시겠어요? 해당 내용이 필요합니다.

    #AI ethics #societal impact #technology and morality #AI safety #future of AI
  • 2일 전 · ai

    AI 모델, Putnam을 거의 만점에 가깝게: 진정한 파괴는 우리가 사고하는 방식이다

    AI 모델이 푸트남 시험에서 거의 완벽에 가까운 점수를 받다. 최근 한 AI 수학 모델이 가장 어려운 인간 시험 중 하나에서 118/120점을 기록했다. 문제를 푸는 것을 넘어, 그것은 …

    #Putnam exam #AI reasoning #self‑verification #proof generation #math AI #model self‑correction #large language models
  • 2일 전 · ai

    나는 LangChain을 사용해 단 10줄로 Mini ChatGPT를 만들었다 (Part 1)

    모두가 AI 어시스턴트—챗봇, 퍼스널 에이전트, 서포트 봇, 혹은 마이크로‑GPT—를 만들고 싶어합니다. 초보자들은 종종 복잡한 아키텍처나 파인‑튜닝이 필요하다고 생각합니다.

    #LangChain #ChatGPT #Python #conversational AI #AI assistant #prompt engineering #mini GPT
  • 2일 전 · ai

    Bias–Variance Tradeoff — 시각적으로 그리고 실용적으로 설명 (Part 6)

    편향이 실제 의미하는 바 실용적 정의 편향은 모델이 진정한 패턴을 학습하지 못했기 때문에 평균적으로 얼마나 틀렸는지를 나타냅니다. 높은 편향은 다음과 같은 경우에 발생합니다: - Th...

    #bias-variance tradeoff #overfitting #underfitting #machine learning #model evaluation #regularization #production ML

Newer posts

Older posts
EUNO.NEWS
RSS GitHub © 2025