VS Code와 Ollama를 사용한 로컬 AI 지원 개발
Source: Dev.to
Overview
만약 코드를 클라우드로 전송하지 않고 로컬에서 실행되는 AI 코딩 어시스턴트를 원한다면, Ollama를 사용하면 머신에 LLM을 쉽게 실행할 수 있고 Visual Studio Code(및 다른 IDE)와 통합됩니다.
Install Ollama
-
공식 사이트에서 Ollama를 다운로드하고 설치합니다.
-
터미널에서 설치를 확인합니다:
ollama --version
Run a Model
하드웨어(RAM/CPU/GPU)에 맞는 모델을 선택하세요. 코딩 작업의 경우 qwen3-coder:7b가 좋은 시작점입니다.
ollama run qwen3-coder
모델은 처음 실행할 때 자동으로 다운로드됩니다. Ollama GUI를 통해 모델을 테스트할 수도 있습니다.
Install a VS Code Extension
Ollama를 지원하는 인기 확장 프로그램은 Continue입니다.
- VS Code를 엽니다.
- Extensions 뷰(
Ctrl+Shift+X)로 이동합니다. - Continue를 검색하고 Install을 클릭합니다.
Configure the Extension to Use Ollama
보통 ~/.continue/config.json에 위치한 Continue 설정 파일을 열고 로컬 Ollama 모델을 추가합니다:
{
"models": [
{
"title": "My Qwen3 Coder Model",
"provider": "ollama",
"model": "qwen3-coder:7b"
}
]
}
파일을 저장하고 VS Code를 재시작합니다.
Using the Assistant
이제 IDE에서 직접 질문하거나 명령을 내릴 수 있습니다. 예시:
- “이 코드베이스를 설명해 주세요.”
- “다음 기능을 추가해 주세요 …”
- “
UserService.cs파일에 대한 단위 테스트를 작성해 주세요.”
모든 요청은 설정한 모델을 사용해 Ollama를 통해 로컬에서 처리됩니다.
Ollama는 개인적이고 오프라인인 AI 코딩 어시스턴트를 제공하며, ChatGPT나 Claude와 같은 클라우드 기반 도구의 대안이 될 수 있습니다—특히 오프라인 접근이 필요하거나 크레딧이 소진되었을 때, 혹은 프라이버시를 우선시할 때 유용합니다. 무료로 실행할 수 있으며 많은 오픈소스 모델과 함께 작동합니다.