VS Code와 Ollama를 사용한 로컬 AI 지원 개발

발행: (2026년 3월 8일 AM 09:33 GMT+9)
3 분 소요
원문: Dev.to

Source: Dev.to

Overview

만약 코드를 클라우드로 전송하지 않고 로컬에서 실행되는 AI 코딩 어시스턴트를 원한다면, Ollama를 사용하면 머신에 LLM을 쉽게 실행할 수 있고 Visual Studio Code(및 다른 IDE)와 통합됩니다.

Install Ollama

  1. 공식 사이트에서 Ollama를 다운로드하고 설치합니다.

  2. 터미널에서 설치를 확인합니다:

    ollama --version

Run a Model

하드웨어(RAM/CPU/GPU)에 맞는 모델을 선택하세요. 코딩 작업의 경우 qwen3-coder:7b가 좋은 시작점입니다.

ollama run qwen3-coder

모델은 처음 실행할 때 자동으로 다운로드됩니다. Ollama GUI를 통해 모델을 테스트할 수도 있습니다.

Install a VS Code Extension

Ollama를 지원하는 인기 확장 프로그램은 Continue입니다.

  1. VS Code를 엽니다.
  2. Extensions 뷰(Ctrl+Shift+X)로 이동합니다.
  3. Continue를 검색하고 Install을 클릭합니다.

Configure the Extension to Use Ollama

보통 ~/.continue/config.json에 위치한 Continue 설정 파일을 열고 로컬 Ollama 모델을 추가합니다:

{
  "models": [
    {
      "title": "My Qwen3 Coder Model",
      "provider": "ollama",
      "model": "qwen3-coder:7b"
    }
  ]
}

파일을 저장하고 VS Code를 재시작합니다.

Using the Assistant

이제 IDE에서 직접 질문하거나 명령을 내릴 수 있습니다. 예시:

  • “이 코드베이스를 설명해 주세요.”
  • “다음 기능을 추가해 주세요 …”
  • UserService.cs 파일에 대한 단위 테스트를 작성해 주세요.”

모든 요청은 설정한 모델을 사용해 Ollama를 통해 로컬에서 처리됩니다.

Ollama는 개인적이고 오프라인인 AI 코딩 어시스턴트를 제공하며, ChatGPT나 Claude와 같은 클라우드 기반 도구의 대안이 될 수 있습니다—특히 오프라인 접근이 필요하거나 크레딧이 소진되었을 때, 혹은 프라이버시를 우선시할 때 유용합니다. 무료로 실행할 수 있으며 많은 오픈소스 모델과 함께 작동합니다.

0 조회
Back to Blog

관련 글

더 보기 »