Tabby에 대한 노트: Llama.cpp, Model Caching, 및 Access Tokens

발행: (2026년 1월 20일 오전 11:51 GMT+9)
3 min read
원문: Dev.to

Source: Dev.to

Tabby는 내부적으로 llama.cpp를 사용합니다

주목할 만한 점은 Tabby가 llama.cpp를 기반으로 동작한다는 것입니다. 실제로 이는 Tabby가 llama.cpp가 알려진 가볍고 로컬 추론 방식을 활용할 수 있음을 의미하며, 로컬 머신에서 LLM을 효율적으로 실행하는 데 자주 사용됩니다.

모델 캐시 위치: TABBY_MODEL_CACHE_ROOT

Tabby는 캐시된 모델 파일을 저장하는 위치를 설정할 수 있습니다. 환경 변수 TABBY_MODEL_CACHE_ROOT는 Tabby의 모델 캐시 루트 디렉터리를 제어하는 데 사용됩니다. 이 변수를 설정하면 디스크 사용량을 관리하거나, 모델을 더 빠른 드라이브에 배치하거나, 여러 환경에서 저장 경로를 표준화하는 것이 간단해집니다.

레지스트리 참조: registry-tabby

Tabby의 모델 레지스트리는 여기에서 확인할 수 있습니다. 이 저장소는 사용 가능한 모델이 무엇인지 또는 Tabby 레지스트리 항목이 어떻게 구성되어 있는지 이해하는 데 유용한 참고 자료입니다.

토큰 확인 방법

인증된 접근을 위해 필요한 토큰을 확인하려면:

  1. 웹 브라우저를 통해 서비스에 접속합니다.
  2. 계정을 생성하고 로그인합니다.
  3. 로그인 후, 계정 또는 사용자 설정 영역에서 토큰을 찾아 확인합니다.

토큰은 한 번의 브라우저 기반 계정 설정 및 로그인 후에 검증할 수 있습니다.

Back to Blog

관련 글

더 보기 »