집에 NAS를 운용하시는 분이라면 요새 유행하는 오픈소스 AI모델을 로컬 AI 모델로 설치해보면 어떨까 하는 생각을 하신 적 있을 거예요.
실제로 시놀로지 NAS에서 Gemma, LLaMA, Mistral 같은 오픈소스 AI 모델을 실행하는 건 가능합니다. 다만, 어떤 기종인지, RAM이 얼마인지, 어떤 모델 사이즈를 쓰는지에 따라 결과는 완전히 다르게 나타납니다. 속도가 실사용 가능한 수준인지, 아니면 그냥 느려서 못 쓰는 수준인지 미리 확인해 보셔야 이런 시행착오를 줄일 수 있습니다.
이 글에서는 시놀로지 NAS에서 로컬 AI 모델을 돌리기 위한 기종 조건 · 가능한 모델 크기 · 비용 구조 · 현실적인 한계를 정리하려고 합니다. 구독형 AI를 끊고 NAS에 로컬 AI모델로 넘어갈 수 있는지, 혹은 병행 사용이 더 현실적인지 아래 글을 읽어보시고 판단하시기 바랍니다.
대부분 구독료 문제에서 시작합니다. ChatGPT Plus, Claude Pro, Gemini Advanced — 각각 월 20~30달러 수준인데, 여러 개 구독하면 매 달 7만원은 우습게 나가거든요. 특히, 요즘 같은 고환율 시대에서는 더 부담이 되는 것이 사실입니다. ChatGPT 결제를 달러로 할지 원화로 할지 고민해본 적 있다면, 이미 구독 비용에 많이 신경 쓰인다는 것이겠죠.
여기에 개인정보 보호 문제도 있습니다. 사내 문서나 개인 데이터를 외부 서버에 올리기 걱정되는 경우, 로컬에서 돌리는 AI가 훨씬 좋은 대안이 될 수 있습니다. 이미 NAS가 있다면 추가 하드웨어 없이 시도해볼 수 있다는 것도 메리트겠지요.
가장 중요한 것은 NAS가 있다고 다 되는 게 아니라, 내 NAS 사양이 어떤 모델까지 현실적으로 지원할 수 있는지를 먼저 봐야 합니다.
시놀로지는 자체 AI 기능을 제공하지 않습니다. 대신 Container Manager(구 Docker)를 통해 외부 오픈소스 도구를 설치하는 방식으로 AI 모델을 실행합니다.
가장 많이 쓰는 조합은 이렇습니다.
설치 흐름은 단순한 편이에요. Container Manager에서 Ollama 이미지를 받고, 포트 설정 후 실행 → 터미널에서 원하는 모델을 pull → Open WebUI를 추가 컨테이너로 실행하면 됩니다. 구체적인 설치 과정은 다음 글 Gemma 4 설치 단계별 가이드에서 자세한 내용을 확인하실 수 있습니다.
CPU 성능도 중요하지만, 로컬 AI 모델 실행에서는 RAM이 더 직접적으로 결과를 결정합니다. 모델 전체가 RAM에 올라가야 추론이 가능하기 때문이에요.
표에서 가장 먼저 봐야 할 부분은 "실사용 수준" 부분입니다. 기술적으로 실행이 되더라도 응답에 30초~2분이 걸린다면 실제로 쓰기 어렵거든요. 특히, 8GB 기종에서 7B 모델을 돌리면 이런 상황이 자주 나옵니다. RAM 16GB 이상이 되면 체감이 꽤 달라지는데, DS923+는 최대 32GB까지 증설이 되니까 처음부터 증설 계획을 같이 보는 게 현실적이에요.
12GB 구성(4GB 기본 + 8GB 증설)은 시놀로지 유저들이 실제로 가장 많이 사용하는 사양이에요. 이 조건이라면 Gemma 4 E4B가 속도와 품질 균형 면에서 가장 쾌적한 선택입니다. 7B Q4도 올라가긴 하지만, E4B 쪽이 이 메모리 대역에서 더 안정적으로 돌아가는 편이에요.
시놀로지 NAS CPU는 크게 두 가지로 나뉩니다. 인텔 x86 계열과 ARM 계열(Realtek, Annapurna Labs)인데, AI 모델 실행에서는 차이가 꽤 크게 납니다.
중저가 NAS 중에 ARM 기반이 많아요. 혹시 내 NAS 스펙에서 CPU 제조사를 확인하지 않았다면, 시놀로지 공식 스펙 페이지에서 먼저 확인하는 게 좋습니다.
"혹시 내 NAS가 AI를 감당할 수 있는지 헷갈린다면? 시놀로지 공식 스펙 비교 페이지에서 모델명을 검색해 보세요. 만약 기기 업그레이드를 고민 중이라면, 제가 정리한 시놀로지 기종별 가성비 추천 가이드가 도움이 될 겁니다."
구독료만 놓고 보면 로컬 AI가 장기적으로 유리해 보이지만, 초기 투자 비용과 운영 비용을 같이 봐야 정확합니다.
표를 볼 때 가장 중요한 건 "이미 NAS가 있는지"입니다. 이미 시놀로지 NAS를 쓰고 있다면 추가 비용이 거의 없으니 손익분기가 빠릅니다. 반면 AI만을 위해 NAS를 새로 산다면 이야기가 달라지거든요. NAS를 처음 구매하는 비용이 최소 40~80만 원 수준인데, 구독료 대비 손익분기까지 최소 1년 이상 걸릴 수 있습니다.
클라우드 AI 구독료를 달러로 내는지 원화로 내는지에 따라 월 부담이 달라지는 부분도 있어요. ChatGPT 장기 구독 시 원화 결제가 유리한지 달러 결제가 유리한지 미리 확인해두면, 로컬 전환 판단에도 도움이 됩니다.
조건별로 나눠보면 판단이 더 빠릅니다.
설치 후 응답이 기대보다 많이 느린 경우, 모델 크기 문제 이전에 확인할 게 있습니다.
설치는 됐는데 이상하게 잘 안 된다는 경우, 대부분 아래 세 가지 중 하나입니다.
정리하면 이렇습니다.
Gemma 4를 실제로 시놀로지에 설치하는 구체적인 절차는 Container Manager + Ollama 기반 설치 단계별 가이드에서 이어집니다.
네, CPU만으로 실행됩니다. 다만 GPU 대비 응답 속도가 훨씬 느리기 때문에 모델 크기를 조건에 맞게 선택하는 게 중요합니다. RAM 16GB 이상 + 인텔 CPU 기준으로 9B 모델은 실사용 가능한 속도가 나오는 편이에요.
기술적으로 Ollama 설치는 시도할 수 있지만, ARM 기반 CPU + 2GB RAM 구성인 경우 모델 로딩 중 오류가 빈번합니다. 이 기종들은 AI 실행보다는 파일 서버·백업 용도에 맞춰진 사양이에요.
Ollama가 지원하는 모델은 모두 가능합니다. LLaMA 3.1, Mistral, Qwen2.5, Phi-3 등을 같은 방식으로 설치해서 쓸 수 있어요. 모델마다 RAM 요구량이 다르니 Ollama 공식 페이지에서 크기별 사양을 확인하고 선택하는 게 좋습니다.
모델 다운로드는 인터넷이 필요하지만, 한 번 설치 후에는 NAS가 인터넷에 연결되지 않아도 내부 네트워크에서 사용 가능합니다. 외부 데이터 유출 걱정 없이 사용 가능합니다.
AI 모델이 RAM과 CPU를 상당히 점유하기 때문에, 동시에 대용량 파일 전송이나 트랜스코딩이 걸리면 전체 성능이 떨어질 수 있어요. 사용 시간대를 분리하거나, AI 전용 컨테이너에 리소스 제한을 두는 방식으로 관리하는 게 현실적입니다.
Container Manager는 DSM 7.0 이상에서 지원합니다. DSM 6.x 이하에서는 구버전 Docker 패키지를 써야 하는데, 호환성 문제가 생길 수 있어요. DSM 7.2 이상 환경을 권장합니다.
시놀로지 NAS에서 로컬 AI 모델을 실행하는 건 생각보다 접근 가능한 영역입니다. 다만 내 NAS 사양이 어느 모델 크기까지 현실적으로 받쳐주는지를 먼저 확인하는 게 순서예요. 클라우드 AI를 완전히 대체하겠다는 목표보다, 어떤 작업을 로컬로 옮길지 범위를 먼저 정하는 쪽이 더 실용적이기도 합니다.
Gemma 4를 실제로 설치하는 방법, 기종별 추론 속도 비교, 클라우드 AI와의 비용 비교는 아래 글에서 이어집니다.
시놀로지 Gemma 4 설치 방법 — Container Manager + Ollama 단계별 가이드 바로 가기