Thinking Tokens는 동일하게 생성되지 않는다: 벤치마크가 ‘Search’와 ‘Insight’를 구분하지 못하는 이유 (A PCP Experiment)
실험 개요 나는 다양한 “reasoning” 모델이 실제로 생각 예산을 어떻게 사용하는지 이해하기 위해 실험을 진행해 왔습니다. 결과는…
실험 개요 나는 다양한 “reasoning” 모델이 실제로 생각 예산을 어떻게 사용하는지 이해하기 위해 실험을 진행해 왔습니다. 결과는…
Large Language Models LLMs는 우리가 정보를 다루는 방식을 혁신했지만, 근본적인 한계가 있다: 그들의 지식은 ti...
GPT-5.2는 일상적인 전문 업무를 위한 가장 진보된 frontier 모델이며, state-of-the-art reasoning, long-context understanding, coding, vision을 갖추고 있습니다. 사용…
GPT-5.2는 GPT-5 시리즈의 최신 모델 패밀리입니다. 이러한 모델에 대한 포괄적인 안전 완화 접근 방식은 크게 t...에 설명된 것과 동일합니다.
프롬프트 길이 vs. 컨텍스트 윈도우: 왜 크기가 여전히 중요한가 대형 언어 모델은 지난 2년간 놀라울 정도로 빠르게 진화했습니다. GPT‑5.1, Gemini 3.1 Ultra, Claude...
TL;DR: 나는 MCP Servers DOM‑exploration 도구에 의미 해석을 추가해 유용하게 만들려 했지만, 도구가 부서지기 쉬워지고, 특정 작업에만 국한되는 등…
번역할 텍스트를 제공해 주시겠어요? 텍스트를 주시면 한국어로 번역해 드리겠습니다.
공지 오늘 특별한 소식을 공유하게 되어 기쁩니다: 제 새 책, _Building A Small Language Model from Scratch: A Practical Guide_가 이제 Amazon에서 구매 가능하게 되었습니다.
!hnherohttps://bear-images.sfo2.cdn.digitaloceanspaces.com/karpathy/hnhero.webp 어제 나는 이 HN 스레드를 우연히 발견했다 — Show HN: Gemini Pro 3가 환각을 일으킨다…
잠깐 솔직히 말해보죠. RAG Retrieval‑Augmented Generation 파이프라인을 구축할 때, chunk_size와 overlap를 어떻게 선택하시나요? 만약 여러분이…
지속적인 학습 LLM을 활용해 효과적인 엔지니어가 되는 방법을 배워보세요. “How to Maximize Agentic Memory for Continual Learning” 포스트가 처음으로 Towards…에 게재되었습니다.
OpenAI는 AI 모델이 사이버 보안 분야에서 더욱 강력해짐에 따라 더 강력한 안전장치와 방어 능력에 투자하고 있습니다. 우리는 위험을 평가하고, 제한합니다.