프로덕션에서 LangChain 1.0으로 업그레이드하면서 얻은 교훈
무엇이 잘 작동했고, 무엇이 깨졌으며, 왜 그렇게 했는가. 이 글은 “프로덕션에서 LangChain 1.0으로 업그레이드하면서 배운 교훈”이라는 포스트이며, 처음으로 Towards Data Science에 게재되었습니다....
181 posts from this source
무엇이 잘 작동했고, 무엇이 깨졌으며, 왜 그렇게 했는가. 이 글은 “프로덕션에서 LangChain 1.0으로 업그레이드하면서 배운 교훈”이라는 포스트이며, 처음으로 Towards Data Science에 게재되었습니다....
Softmax 회귀는 단순히 다중 클래스에 확장된 Logistic Regression입니다. 각 클래스마다 하나의 선형 점수를 계산하고 이를 Softmax로 정규화함으로써 우리는 …
Author Spotlight 시리즈에서 TDS Editors는 우리 커뮤니티 구성원들과 데이터 과학 및 AI 분야의 경력 경로, 글쓰기, 그리고 그들의 출처에 대해 대화합니다.
소개 데이터 과학, 데이터 엔지니어링, 혹은 프론트엔드/백엔드 개발자로 일한다면 JSON을 다루게 됩니다. 전문가에게는 이것이 기본적으로 …
Ridge와 Lasso 회귀는 종종 선형 회귀의 더 복잡한 버전으로 인식됩니다. 실제로 예측 모델은 정확히 동일합니다. What ch...
로컬 테스트를 활용해 더 효율적인 프로그래머가 되는 방법을 배우세요. “How to Increase Coding Iteration Speed” 포스트가 처음으로 Towards Data Science에 게재되었습니다….
이 작은 트릭 하나만으로도 훈련 안정성이 향상되고, 더 큰 학습률을 사용할 수 있으며, 스케일링 특성이 개선됩니다. The post NeurIPS 2025 Best P...
이 기사에서는 Excel에서 로지스틱 회귀를 단계별로 직접 재구성합니다. 게시물 “Machine Learning ‘Advent Calendar’ Day 12: Logistic Regression in Excel”을 참고하세요.
딥러닝의 대부분의 돌파구—단순 neural networks부터 large language models에 이르기까지—는 AI 자체보다 훨씬 오래된 원칙에 기반하고 있습니다: decen...
여러분, 안녕하세요! 제가 “EDA in Public”이라고 부르는 대규모 데이터 여정의 시작에 오신 것을 환영합니다. 저를 아시는 분들은 제가 배우는 가장 좋은 방법은…
서론 대규모 cohort에서 환자들의 latent groups를 어떻게 식별할 수 있을까? 잘 알려진 comorbidities를 넘어 환자들 간의 유사성을 어떻게 찾을 수 있을까?
Linear Regression는 간단해 보이지만, 현대 머신러닝의 핵심 아이디어인 손실 함수, 최적화, 그래디언트, 스케일링, 그리고 해석을 소개합니다.