2026년 셀프 호스티드 AI: Ollama와 Bash를 사용한 Linux 워크플로 자동화

발행: (2026년 2월 16일 오후 08:49 GMT+9)
4 분 소요
원문: Dev.to

Source: Dev.to

Cover image for Self-Hosted AI in 2026: Automating Your Linux Workflow with Ollama and Bash

왜 자동화를 위해 AI를 자체 호스팅해야 할까요?

  • 프라이버시 – 시스템 로그, 내부 스크립트, 서버 설정이 절대 머신을 떠나지 않습니다.
  • 제로 레이턴시 – 외부 서버와의 왕복이 없습니다.
  • 비용 – Llama 3 혹은 Mistral 같은 모델을 전기 요금 수준으로 실행할 수 있습니다.
  • 오프라인 기능 – 인터넷이 끊겨도 자동화가 계속 동작합니다.

기본 환경 구축: Ollama + systemd

설치

curl -fsSL https://ollama.com/install.sh | sh

systemd 서비스

Ollama 설치 프로그램이 보통 서비스를 자동으로 생성합니다. 서비스를 확인하고 부팅 시 자동 시작하도록 활성화하세요:

sudo systemctl daemon-reload
sudo systemctl enable ollama
sudo systemctl start ollama

상태 확인:

systemctl status ollama

한 단계 업그레이드: “AI‑SysAdmin” Bash 스크립트

ask-ai.sh 스크립트

#!/bin/bash

# A simple wrapper to interact with local Ollama for Linux tasks
MODEL="llama3"   # You can use mistral, codellama, etc.
PROMPT="You are a senior Linux SysAdmin. Output only the bash commands needed to fulfill the request. No explanation unless asked."

if [ -z "$1" ]; then
    echo "Usage: ./ask-ai.sh 'Your request here'"
    exit 1
fi

REQUEST="$1"

# Combine context and request
FULL_PROMPT="$PROMPT\n\nRequest: $REQUEST"

# Call Ollama API via curl (local only)
RESPONSE=$(curl -s http://localhost:11434/api/generate -d "{
  \"model\": \"$MODEL\",
  \"prompt\": \"$FULL_PROMPT\",
  \"stream\": false
}")

# Extract response (requires jq)
COMMAND=$(echo "$RESPONSE" | jq -r '.response')

echo -e "\033[1;34mAI Suggestion:\033[0m"
echo "$COMMAND"

# Ask for confirmation before executing
read -p "Execute these commands? (y/N): " confirm
if [[ $confirm == [yY] || $confirm == [yY][eE][sS] ]]; then
    eval "$COMMAND"
else
    echo "Execution cancelled."
fi

사용 방법

  1. 스크립트를 실행 가능하게 만들기: chmod +x ask-ai.sh.
  2. jq(JSON 파서) 설치: sudo apt install jq (배포판에 맞는 명령).
  3. 요청 실행 예시:
./ask-ai.sh "Find all files larger than 100MB in /var/log and show their sizes"

전문가 팁: 정기 유지보수 스케줄링

스크립트를 cron이나 systemd 타이머와 결합해 주기적인 유지보수를 수행할 수 있습니다. 매주 일요일 새벽 3시에 실행되는 예시 cron 작업:

0 3 * * 0 /path/to/ask-ai.sh "Check for broken symlinks in /usr/local/bin and log them to /var/log/ai_cleanup.log" --auto

(자동화 작업에서는 확인 프롬프트를 건너뛰기 위해 스크립트에 --auto 플래그를 추가하세요.)

요약 및 참고 자료

AI 자체 호스팅은 단순히 채팅을 위한 것이 아니라, 더 똑똑하고 자율적인 환경을 구축하는 것입니다. Ollama를 Bash와 결합하면 언어 모델을 DevOps 툴킷의 실용적인 구성원으로 만들 수 있습니다.

Sources & Further Reading

0 조회
Back to Blog

관련 글

더 보기 »