VS Code 확장 프로그램을 만들어 데이터베이스와 채팅할 수 있게 했습니다 - 모든 것이 로컬에서 실행됩니다
Source: Dev.to
나는 한 주 동안 한 번도 본 적 없는 SQL Server 데이터베이스가 있는 프로젝트에 온보딩했다. 수십 개의 저장 프로시저, 문서는 없고, 이전 개발자는 떠나버렸다. 계속 생각했다 — 왜 이 데이터베이스에게 무엇을 하는지 그냥 물어볼 수 없을까?
How it works under the hood
이 확장은 all‑MiniLM‑L6‑v2 모델을 Node.js에서 완전히 실행하고 모든 임베딩을 LanceDB에 저장한다. 로컬‑퍼스트 접근 방식이므로 데이터가 절대 내 컴퓨터를 떠나지 않는다.
A thing I got wrong early on
처음에 llama3.1:8b를 기본 모델로 설정하고 더 가벼운 모델을 선택하면 경고를 표시하도록 했다. 많은 경우 “지루한” 해결책(작고 빠른 모델)이 바로 옳은 선택이다.
Why local‑first
모든 것을 로컬에서 실행하면 민감한 스키마 정보를 보호하고 외부 API로의 왕복 지연을 없앨 수 있다. LLM 추론 및 벡터 저장을 포함한 모든 처리가 내 하드웨어에서 이루어진다.
Getting started
Install and start Ollama
-
플랫폼에 맞는 공식 Ollama 설치 가이드를 따라 설치한다.
-
Ollama 서비스를 시작한다:
ollama serve
Install SchemaSight from the VS Code Marketplace
VS Code Marketplace에서 SchemaSight를 검색하고 Install를 클릭한다.
Add a connection and follow the onboarding flow
- VS Code에서 SchemaSight 패널을 연다.
- Add Connection을 클릭하고 데이터베이스 자격 증명을 입력한다.
- 온보딩 마법사는 다음을 수행한다:
- Ollama 설치를 확인한다.
- 선택한 LLM 모델을 다운로드한다.
- 데이터베이스 스키마를 크롤링하고 로컬에 인덱싱한다.
Caveat: 초기 인덱싱 단계에서는 로컬 LLM을 사용해 모든 스키마 객체를 요약한다. 약 95개의 객체가 있는 M5 MacBook Pro에서는 약 15–20 분 정도 소요된다. 이는 일회성 비용이며, 스키마가 변경되거나 모델을 교체할 때만 다시 인덱싱하면 된다.
License & feedback
소스 코드는 GitHub에 MIT 라이선스로 공개되어 있다. 이슈를 열거나 풀 리퀘스트를 제출하고, 댓글로 의견을 알려 주세요.