시놀로지 NAS n8n + Claude API 연동으로 24시간 나만의 AI 비서 만들기

Posted: 2026-05-08

시놀로지 NAS 로컬 AI 성능 한계를 Claude API로 해결하는 방법 — n8n으로 연동하면 NAS가 자동화 허브, Claude가 AI 엔진 역할. 실제 비용과 워크플로 설정까지 정리했습니다.

시놀로지 NAS의 기본 성능이 부족해도 충분히 24시간 비서로 활용할 수 있는 방법이 있습니다.

NAS의 역할을 AI 엔진에서 자동화 허브로 바꾸면 됩니다. n8n이 자동화 파이프라인을 담당하고, AI 처리는 Claude API가 맡는 구조예요. NAS는 24시간 켜져 있는 자동화 서버로만 쓰고, 성능이 필요한 부분만 API로 넘기는 방식입니다. 이렇게 되면 클로드에 내가 직접 접속하지 않아도 자동으로 24시간 요청한 내용을 시놀로지 NAS를 통해 처리할 수 있습니다.

이 글에서는 n8n과 Claude API를 연동해서 실제로 24시간 AI 자동화를 구성하는 방법을 정리합니다.

3줄 요약
• NAS 로컬 모델(1.5B~2B)은 자동화 트리거 역할은 충분하지만 AI 답변 품질엔 한계가 있음
• n8n + Claude API 조합은 NAS가 자동화 허브, Claude가 AI 엔진 — 역할을 분리하는 구조
• 비용은 가벼운 자동화 기준 월 500원~2,000원 수준 — 생각보다 많이 나오지 않습니다

Ollama vs Claude API — 내 용도에 맞춰 사용하세요

두 가지를 대체 관계로 볼 필요가 없어요. 용도에 따라 나눠 쓰는 게 현실적입니다.

항목 Ollama (로컬) Claude API
비용 완전 무료 사용량 기반 과금
답변 품질 1.5B~2B 수준 — 단순 작업 가능 실무급 — 복잡한 요약·분석 가능
처리 속도 느림 (CPU 연산) 빠름 (Anthropic 서버)
외부 전송 없음 Anthropic 서버로 전송
맞는 용도 간단한 파일 분류, 태그 생성 문서 요약, 답변 생성, 분석
NAS RAM 부담 2~4GB 상시 사용 거의 없음 (API 호출만)

표에서 흥미로운 지점은 RAM 부담이에요. Claude API를 쓰면 NAS에서 Ollama를 돌릴 필요가 없어서 RAM이 비어요. 그 RAM을 Speaches나 다른 용도로 쓸 수 있습니다. 민감하지 않은 파일이라면 Claude API가 오히려 NAS 자원 효율도 높이는 선택이에요.

Claude API 키 발급 방법

Claude API는 Anthropic 콘솔에서 발급합니다.

① Anthropic Console 접속
console.anthropic.com → 구글 계정 또는 이메일로 가입

② 결제 수단 등록
좌측 메뉴 Billing → 신용카드 등록. 실제 사용량만큼만 청구되고, 미리 결제하는 방식이 아니에요.

③ API 키 생성
좌측 메뉴 API Keys → Create Key → 이름 입력 → 생성
생성 직후에만 전체 키가 표시돼요. 반드시 복사해서 안전한 곳에 보관하세요. 화면을 벗어나면 다시 볼 수 없고 새로 만들어야 합니다.

주의 — API 키는 절대 공개하면 안 됩니다
GitHub, 블로그, 카카오톡 등에 API 키를 공유하면 타인이 내 계정으로 과금을 유발할 수 있어요. n8n credentials에 저장해서 쓰고, 키 자체를 코드나 텍스트에 직접 넣지 마세요. Anthropic Console에서 Usage Limits를 설정해두면 월 한도 초과 시 자동으로 차단됩니다.

Claude API 비용 — 실제로 얼마나 나오나

가장 저렴한 Haiku 4.5 모델 기준으로 계산하면 생각보다 많이 나오지 않아요.

Haiku 4.5 실제 비용 계산 (2026년 5월 기준)
입력: $1 / 100만 토큰  |  출력: $5 / 100만 토큰문서 요약 1건 (입력 1,000토큰 + 출력 300토큰)
→ $0.001 + $0.0015 = 약 0.35원텔레그램 질문 1건 (입력 200토큰 + 출력 150토큰)
→ $0.0002 + $0.00075 = 약 0.14원월 사용량 예시
• 문서 요약 100건 + 텔레그램 질문 300건 = 약 70원~80원
• 활발하게 쓰는 경우 (요약 500건 + 질문 1,000건) = 약 300원~500원

Ollama 무료랑 비교하면 당연히 비용이 발생하는 건 맞아요. 그런데 월 500원짜리 성능 차이가 실제로 얼마나 크냐는 직접 써봐야 느낌이 와요. 복잡한 문서를 3줄로 정확하게 요약하는 걸 봤을 때 "아, 이게 쓸 만하다"는 체감이 바로 나옵니다.



n8n에서 Claude API 연동하기

n8n에서 Claude API를 연동하는 방법은 두 가지예요. n8n 내장 Anthropic 노드를 쓰거나, HTTP Request 노드로 직접 연결하거나. 내장 노드가 더 쉽지만 HTTP Request 방식이 설정을 더 유연하게 조정할 수 있어요. 둘 다 설명합니다.

방법 ① n8n 내장 Anthropic 노드 (더 쉬움)

① Credentials 등록
n8n 좌측 메뉴 Credentials → Add Credential → Anthropic API 검색 → API Key 입력 → Save

② 워크플로에서 노드 추가
+ 버튼 → 검색창에 "Anthropic" 또는 "Claude" 입력 → Anthropic Chat Model 선택

③ 노드 설정

  • Credential: 위에서 등록한 API Key 선택
  • Model: claude-haiku-4-5-20251001 (가장 저렴, 일반 자동화에 충분)
  • Messages: 처리할 내용 입력

방법 ② HTTP Request 노드 (직접 연결)

내장 노드가 없거나 세부 설정이 필요한 경우에 씁니다.

+ 버튼 → HTTP Request 선택 후 아래와 같이 설정합니다.

HTTP Request 노드 설정값

Method: POST
URL: https://api.anthropic.com/v1/messages

Headers (3개 추가):
x-api-key : 발급받은 API 키
anthropic-version : 2023-06-01
content-type : application/json

Body Type: JSON

Body JSON (아래 복사해서 붙여넣기):

{
"model": "claude-haiku-4-5-20251001",
"max_tokens": 1024,
"messages": [
{
"role": "user",
"content": "다음 내용을 3줄로 요약해줘:\n{{ $json.fileContent }}"
}
]
}

응답에서 텍스트 추출하는 방법
HTTP Request 응답은 JSON 형태로 돌아옵니다. 실제 텍스트는 아래 경로에 있어요.
{{ $json.content[0].text }}다음 노드에서 파일로 저장할 때 이 값을 File Content에 넣으면 됩니다.

실전 워크플로 — 문서 자동 요약

Ollama 연동 때와 노드 구조는 동일해요. HTTP Request 노드의 URL과 설정만 Claude API로 바뀝니다.

Claude API 문서 요약 파이프라인

On a schedule — 매일 새벽 3시
Read/Write Files from Disk — inbox 폴더 파일 읽기
HTTP Request — Claude API 호출 (위 설정 적용)
Read/Write Files from Disk{{ $json.content[0].text }} 를 파일로 저장
Move or Copy Files — 원본을 done 폴더로 이동

Ollama 때와 달라지는 부분은 ③번뿐이에요. 나머지 노드 구성은 그대로 씁니다. 이미 Ollama 워크플로를 만들어뒀다면 HTTP Request 노드만 교체하면 됩니다.



텔레그램 봇 연동 — 24시간 AI 비서 만들기

n8n + Claude API 조합에서 가장 실용적인 활용 중 하나가 텔레그램 봇이에요. 텔레그램으로 질문을 보내면 Claude가 답변하는 구조입니다. NAS가 24시간 켜져 있으니까 내가 없어도 가족이나 팀원이 쓸 수 있어요.

텔레그램 봇 생성 (1회만)

텔레그램 앱 → BotFather 검색 → /newbot → 이름 입력 → Bot Token 발급

텔레그램 봇 워크플로 구성

On webhook call (트리거)
→ Webhook URL을 텔레그램 봇에 등록

HTTP Request — Claude API 호출
→ content: {{ $json.body.message.text }} (텔레그램 메시지 내용)

HTTP Request — 텔레그램으로 답변 전송
→ URL: https://api.telegram.org/bot[토큰]/sendMessage
→ Body: chat_id + Claude 응답 텍스트

주의 — 텔레그램 웹훅은 외부 접속 가능한 NAS URL이 필요합니다
내부망에서만 n8n을 쓰고 있다면 텔레그램 웹훅이 연결되지 않아요. 외부에서 접속 가능한 도메인이나 Synology DDNS 주소가 있어야 합니다. 내부망에서만 쓰는 경우라면 Schedule Trigger + 텔레그램 전송 방향(Push Only)으로 구성하는 게 현실적이에요.

라즈베리파이 vs 시놀로지 NAS — AI 자동화 허브로 쓸 때 차이

"24시간 Claude API 비서"를 만드는 용도라면 둘 다 하는 역할이 같아요. AI는 Anthropic 서버에서 돌아가고, 기기는 그냥 n8n을 실행해서 API를 호출하는 허브 역할만 합니다. 그러면 기기 성능보다 안정성과 비용이 더 중요한 기준이 돼요.

항목 라즈베리파이 5 (8GB) 시놀로지 NAS
초기 비용 20만~30만원 (보드+주변기기) 이미 있다면 0원
24시간 운영 가능 (별도 전원 연결) 이미 24시간 운영 중
안정성 SD카드 손상 위험 있음 HDD/SSD 기반으로 안정적
스토리지 SD카드 별도 구매 필요 대용량 스토리지 기본 탑재
추가 활용 자동화 허브 전용 파일 서버, Speaches, Ollama 병행
라즈베리파이가 유리한 경우 NAS가 없고, 소비전력을 최소화하고 싶을 때. 전력 소비가 NAS보다 적어요.

NAS가 이미 집에서 돌아가고 있다면 라즈베리파이를 살 이유가 없어요. Claude API를 호출하는 건 네트워크 요청 하나라서 기기 성능이 거의 필요 없거든요. n8n 설치가 아직 안 됐다면 시놀로지 NAS n8n 설치 + Ollama 연동 가이드를 먼저 보고 오세요.

상황별 판단 기준 — 어떤 조합이 내 상황에 맞나

NAS RAM이 8GB이고 단순 자막 자동화만 필요한 경우
Ollama 없이 Speaches + n8n 조합만으로 충분합니다. Claude API도 필요 없어요.

문서 요약·분류가 필요한데 로컬 모델 품질이 아쉬운 경우
Claude API Haiku 4.5로 교체하는 게 맞아요. 비용 대비 품질 차이가 큽니다.

민감한 내부 문서라 외부 전송이 절대 안 되는 경우
Ollama 유지가 맞습니다. 품질 아쉬움은 프롬프트를 구체적으로 짜는 방향으로 보완하는 게 현실적이에요.

텔레그램 봇으로 여러 사람이 쓰게 하고 싶은 경우
Claude API가 맞는 선택입니다. 동시 요청도 처리되고, 답변 품질도 실용적인 수준이에요.

자주 묻는 질문

Q. Claude API 요금이 예상보다 많이 나올 수 있나요?

Anthropic Console → Settings → Limits에서 월 최대 사용 한도를 설정할 수 있어요. 예를 들어 $5로 설정해두면 그 이상은 자동으로 차단됩니다. 처음에는 $3~$5로 설정해두고 실제 사용량을 확인한 뒤 조정하는 방식이 안전해요.

Q. Haiku 4.5와 Sonnet 4.6 중 어떤 걸 써야 하나요?

일반적인 문서 요약, 간단한 질문 답변, 파일 분류 정도라면 Haiku 4.5로 충분합니다. 복잡한 분석이나 긴 문서를 다루거나 답변 품질이 더 중요한 경우에 Sonnet 4.6을 쓰는 게 맞아요. Haiku가 Sonnet보다 3배 저렴하니까 먼저 Haiku로 테스트해보고 품질이 부족하다 싶을 때 Sonnet으로 올리는 순서가 맞습니다.

Q. Ollama와 Claude API를 같은 워크플로에서 섞어 쓸 수 있나요?

가능합니다. 예를 들어 파일 분류처럼 단순한 작업은 Ollama로, 요약이나 답변 생성처럼 품질이 중요한 작업은 Claude API로 분기하는 구조를 n8n에서 만들 수 있어요. If 노드로 파일 종류나 크기에 따라 경로를 나누면 됩니다.

Q. API 키를 n8n에 저장해도 안전한가요?

n8n의 Credentials는 암호화해서 저장합니다. 워크플로에서 키 값이 직접 노출되지 않고 Credential 참조 방식으로 동작해요. NAS가 내부망에서만 접근 가능하다면 보안 수준은 충분합니다. 외부 접속이 가능한 환경이라면 n8n 계정 비밀번호를 강하게 설정해두는 게 맞아요.

Q. OpenAI API도 같은 방식으로 연동할 수 있나요?

됩니다. n8n에는 OpenAI 내장 노드도 있어요. HTTP Request 방식으로 직접 연동할 때는 URL과 헤더 형식이 다르지만 구조는 같습니다. Claude API와 OpenAI API를 비교해서 쓰고 싶다면 워크플로를 복사해서 URL만 바꿔서 테스트해볼 수 있어요.

NAS 로컬 AI의 한계를 처음 느꼈을 때 "설치까지 다 해놨는데 결국 못 쓰겠다"는 생각이 들 수 있어요. 그런데 역할을 바꿔 생각하면 달라집니다. NAS는 24시간 켜져 있는 자동화 서버로서 가치가 있고, AI 성능은 API로 채우면 됩니다. 두 가지를 합치면 개인이 운영하는 자동화 시스템으로서 충분히 쓸 만한 구조가 만들어져요.

NAS 로컬 AI 전체 활용법이 궁금하다면 시놀로지 NAS 로컬 AI 활용법 전체 정리에서 시리즈 전체 흐름을 확인할 수 있습니다.

이 글과 연결된 가이드

📌 시놀로지 NAS n8n 설치 + Ollama 연동 자동화 가이드
n8n 설치 및 기본 워크플로 구성 방법

📌 시놀로지 Container Manager + Ollama 설치 가이드
로컬 AI 환경 처음 구성하는 방법

📌 시놀로지 NAS 기종별 로컬 AI 모델 실행 조건
내 NAS RAM에서 어떤 모델이 가능한지 확인

Contents