2026년 셀프 호스티드 AI: Ollama와 Bash를 사용한 Linux 워크플로 자동화
Source: Dev.to
왜 자동화를 위해 AI를 자체 호스팅해야 할까요?
- 프라이버시 – 시스템 로그, 내부 스크립트, 서버 설정이 절대 머신을 떠나지 않습니다.
- 제로 레이턴시 – 외부 서버와의 왕복이 없습니다.
- 비용 – Llama 3 혹은 Mistral 같은 모델을 전기 요금 수준으로 실행할 수 있습니다.
- 오프라인 기능 – 인터넷이 끊겨도 자동화가 계속 동작합니다.
기본 환경 구축: Ollama + systemd
설치
curl -fsSL https://ollama.com/install.sh | sh
systemd 서비스
Ollama 설치 프로그램이 보통 서비스를 자동으로 생성합니다. 서비스를 확인하고 부팅 시 자동 시작하도록 활성화하세요:
sudo systemctl daemon-reload
sudo systemctl enable ollama
sudo systemctl start ollama
상태 확인:
systemctl status ollama
한 단계 업그레이드: “AI‑SysAdmin” Bash 스크립트
ask-ai.sh 스크립트
#!/bin/bash
# A simple wrapper to interact with local Ollama for Linux tasks
MODEL="llama3" # You can use mistral, codellama, etc.
PROMPT="You are a senior Linux SysAdmin. Output only the bash commands needed to fulfill the request. No explanation unless asked."
if [ -z "$1" ]; then
echo "Usage: ./ask-ai.sh 'Your request here'"
exit 1
fi
REQUEST="$1"
# Combine context and request
FULL_PROMPT="$PROMPT\n\nRequest: $REQUEST"
# Call Ollama API via curl (local only)
RESPONSE=$(curl -s http://localhost:11434/api/generate -d "{
\"model\": \"$MODEL\",
\"prompt\": \"$FULL_PROMPT\",
\"stream\": false
}")
# Extract response (requires jq)
COMMAND=$(echo "$RESPONSE" | jq -r '.response')
echo -e "\033[1;34mAI Suggestion:\033[0m"
echo "$COMMAND"
# Ask for confirmation before executing
read -p "Execute these commands? (y/N): " confirm
if [[ $confirm == [yY] || $confirm == [yY][eE][sS] ]]; then
eval "$COMMAND"
else
echo "Execution cancelled."
fi
사용 방법
- 스크립트를 실행 가능하게 만들기:
chmod +x ask-ai.sh. jq(JSON 파서) 설치:sudo apt install jq(배포판에 맞는 명령).- 요청 실행 예시:
./ask-ai.sh "Find all files larger than 100MB in /var/log and show their sizes"
전문가 팁: 정기 유지보수 스케줄링
스크립트를 cron이나 systemd 타이머와 결합해 주기적인 유지보수를 수행할 수 있습니다. 매주 일요일 새벽 3시에 실행되는 예시 cron 작업:
0 3 * * 0 /path/to/ask-ai.sh "Check for broken symlinks in /usr/local/bin and log them to /var/log/ai_cleanup.log" --auto
(자동화 작업에서는 확인 프롬프트를 건너뛰기 위해 스크립트에 --auto 플래그를 추가하세요.)
요약 및 참고 자료
AI 자체 호스팅은 단순히 채팅을 위한 것이 아니라, 더 똑똑하고 자율적인 환경을 구축하는 것입니다. Ollama를 Bash와 결합하면 언어 모델을 DevOps 툴킷의 실용적인 구성원으로 만들 수 있습니다.