EUNO.NEWS EUNO.NEWS
  • All (20038) +213
  • AI (3083) +12
  • DevOps (901) +6
  • Software (10306) +149
  • IT (5702) +46
  • Education (45)
  • Notice (1)
  • All (20038) +213
    • AI (3083) +12
    • DevOps (901) +6
    • Software (10306) +149
    • IT (5702) +46
    • Education (45)
  • Notice (1)
  • All (20038) +213
  • AI (3083) +12
  • DevOps (901) +6
  • Software (10306) +149
  • IT (5702) +46
  • Education (45)
  • Notice (1)
Sources Tags Search
한국어 English 中文
  • 5일 전 · ai

    Flexora: 대형 언어 모델을 위한 유연한 Low‑Rank Adaptation

    현재 문제 - 배경: 대형 언어 모델(LLM)의 파인튜닝은 많은 자원을 소모한다. LoRA(Low‑Rank Adaptation) 방법이 등장하여 ...

    #LLM #LoRA #parameter-efficient fine-tuning #low-rank adaptation #Flexora
  • 6일 전 · ai

    AWS Bedrock 소개

    Amazon의 LLM 액세스 레이어에 대한 어떻게, 왜, 무엇, 어디 ‘An introduction to AWS Bedrock’ 게시물은 처음에 Towards Data Science에 게재되었습니다....

    #AWS #Bedrock #LLM #Amazon #generative AI #foundation models #cloud AI
  • 6일 전 · ai

    DeepSeek의 조건부 메모리가 조용한 LLM 낭비를 해결한다: 정적 조회로 인한 GPU 사이클 손실

    기업용 LLM이 제품명, 기술 사양 또는 표준 계약 조항을 검색할 때, 이는 복잡한 작업을 위해 설계된 비용이 많이 드는 GPU 연산을 사용하고 있습니다.

    #LLM #conditional memory #GPU efficiency #inference optimization #AI infrastructure #model serving
  • 6일 전 · ai

    Large Language Models (LLMs)가 실제로 텍스트를 생성하는 방법

    ‘How Large Language Models LLMs Actually Generate Text’의 표지 이미지 https://media2.dev.to/dynamic/image/width=1000,height=420,fit=cover,gravity=auto,format=au...

    #large language models #LLM #text generation #next-token prediction #deep learning #AI fundamentals
  • 6일 전 · ai

    대화 메모리 붕괴: 왜 과도한 컨텍스트가 AI를 약화시키는가

    모든 이야기는 작은 오해에서 시작됩니다. 중견 기업이 우리에게 AI 지원 에이전트를 구축해 달라고 접근했습니다. 그들의 요청은 간단했습니다—AI가 “remember eve...”라고 기억하도록.

    #LLM #context window #prompt engineering #AI chatbots #memory collapse
  • 6일 전 · ai

    Cowork: 나머지 작업을 위한 Claude Code

    번역할 텍스트가 제공되지 않았습니다. 번역을 원하는 내용(발췌 또는 요약)을 알려주시면 한국어로 번역해 드리겠습니다.

    #Claude #AI coding assistant #productivity #LLM #code generation #Anthropic
  • 6일 전 · ai

    왜 당신의 LLM 비용이 폭증하고 있는가 — 그리고 semantic caching이 비용을 73% 절감할 수 있는 방법

    우리 LLM API 청구액은 월간 대비 30%씩 증가하고 있었습니다. 트래픽도 증가하고 있었지만 그 정도는 아니었습니다. 쿼리 로그를 분석했을 때, 실제 문제를 발견했습니다: 사용자들이 …

    #LLM #semantic caching #API cost reduction #prompt optimization #AI infrastructure
  • 6일 전 · ai

    `/context` 명령: 토큰을 위한 X-Ray Vision

    토큰이 어디로 가는지 추측을 멈추세요. 컨텍스트 윈도우에 부과되는 보이지 않는 세금을 확인하세요. 출처: x.com/adocomplete

    #token management #context window #Claude #LLM #prompt engineering #AI tooling
  • 1주 전 · ai

    TimeCapsuleLLM: 1800‑1875 데이터만으로 훈련된 LLM

    번역할 텍스트를 제공해 주시겠어요?

    #LLM #historical data #TimeCapsuleLLM #AI research #training dataset
  • 1주 전 · ai

    왜 Text-to-SQL에서 90% 정확도가 100% 쓸모없을까

    셀프 서비스 분석의 영원한 약속. ‘Why 90% Accuracy in Text-to-SQL is 100% Useless’라는 글이 처음으로 Towards Data Science에 게재되었습니다....

    #text-to-sql #natural-language-processing #SQL #accuracy-metrics #self-service-analytics #LLM #AI-evaluation
  • 1주 전 · ai

    왜 온타리오 디지털 서비스는 ‘98% 안전한’ LLM을 조달하지 못했는가 (1500만 캐나다인)

    번역할 텍스트를 제공해 주시겠어요? 텍스트를 알려주시면 한국어로 번역해 드리겠습니다.

    #Ontario Digital Service #LLM #AI safety #procurement #government #Canada
  • 1주 전 · ai

    언제 고급 RAG 기능을 추가하면 작동합니까?

    다양한 파이프라인의 성능을 살펴보면 “When Does Adding Fancy RAG Features Work?”라는 글이 처음으로 Towards Data Science에 게재되었습니다....

    #retrieval-augmented-generation #RAG #LLM #prompt-engineering #pipeline-performance #NLP #AI-tools

Newer posts

Older posts
EUNO.NEWS
RSS GitHub © 2026