왜 나는 'DevPulse'를 만들었는가: 프라이버시 우선, AI 기반 리더 (실제로 로컬에서 실행되는)
Source: Dev.to
왜 DevPulse를 만들었나요
개발자는 끊임없이 정보에 휘몰아칩니다. Dev.to, Hacker News, Twitter 같은 사이트를 찾아 특정 지식을 얻으려 하지만, 종종 블랙박스 알고리즘이 만든 “Top 10 VS Code Extensions” 리스트를 무의식적으로 스크롤하게 됩니다.
목표
읽기 경험을 다음과 같이 만들고 싶었습니다:
- 의도적 –
#rust,#system-design,#ai등 관심 있는 주제만 구독. - 프라이버시 – 트래킹 픽셀 없이, “For You” 유지 해킹도 없음.
- 스마트 – 긴 글을 읽기 전에 요약할 수 있는 기능.
가장 중요한 것은 내 읽기 습관이 외부 AI 서버에 전송되지 않도록 하는 것이었습니다.
“핵심” 기능: 로컬 AI
OpenAI 크레딧을 지불하거나 기사 데이터를 클라우드에 보내는 대신, DevPulse는 Ollama를 로컬 머신에서 실행하도록 통합합니다.
- 흥미로운 제목을 보면 ✨ Summarize 버튼을 클릭합니다.
- 앱이 기사 텍스트를 가져옵니다.
- 텍스트를
localhost:11434(여기에gemma3:4b모델이 실행 중)로 보냅니다. - 두 문장 요약을 즉시 받습니다.
모든 데이터는 내 컴퓨터에 머무릅니다. 모델이 GPU에서 실행되므로 경험이 무료이고, 프라이버시가 보장되며, 엄청나게 빠릅니다.
기술 스택
| 레이어 | 기술 |
|---|---|
| 프론트엔드 | React + Vite (빠르고 최소 번들) |
| 스타일링 | 커스텀 CSS 변수(모노크롬, 고대비, 무거운 프레임워크 없음) |
| AI | Ollama (gemma3:4b 모델) |
| 스토리지 | IndexedDB (오프라인 북마크 및 환경설정) |
로컬 AI가 중요한 이유
우리는 “로컬 AI” 시대에 진입하고 있습니다. 요약 같은 간단한 작업도 이제 거대한 클라우드 데이터센터가 필요하지 않습니다. 모델을 데이터(브라우저) 가까이 가져옴으로써 이전에는 불가능했던 프라이버시와 제로 레이턴시 경험을 제공할 수 있습니다.
코드 받기
GitHub에서 저장소를 확인하세요: