최근 커뮤니티를 뜨겁게 달군 'OpenClaw 대란'에 힘입어, 저도 결국 로컬 AI 환경 구축을 위해 맥미니 M4를 주문했습니다.
1. 하드웨어 선택: 맥미니 M4 (RAM 32GB / SSD 256GB)
-
RAM 32GB를 선택한 이유: 애플 실리콘은 구조상 RAM 업그레이드가 불가능하며, CPU와 GPU가 메모리를 공유하는 '통합 메모리' 방식입니다. GPU VRAM으로도 활용되기 때문에 M4 기본 칩셋에서 선택 가능한 최대 용량인 32GB를 선택했습니다. (M4 Pro는 64GB까지 가능하지만, 가격 부담으로 32GB와 타협했습니다.)
-
SSD 256GB를 선택한 이유: 애플의 저장장치 옵션은 악명이 높죠. 1TB 추가 비용이 60만 원에 달하는 반면, 외부 알리발 업그레이드 키트는 30만 원 수준입니다. 우선 기본 사양으로 써본 뒤 추후 업그레이드를 결정하기로 했습니다.
2. 환경 세팅: OpenClaw 설치 및 API 연동
-
설치 팁:
npm install -g openclaw손쉽게 설치가능 (보통 여기서 실패사유는 SUDO가 아니어서) -
주의사항: 특정 버전(예: 2026년 3월 23일 배포본)에서 UI 리소스가 누락되는 이슈가 있습니다. 저도 2시간 동안 사투 끝에 이전 버전으로 재설치하는 고통을 겪었으니 설치 시 배포 노트를 꼭 확인하세요.
-
Gemini API 연동: 처음엔 Google AI One 구독권으로 해결하려 했으나, API 호출은 별도의 과금 체계(Google AI Studio)를 따릅니다. 결제 정보를 등록하지 않으면
Context exceed error가 발생할 수 있으니 주의가 필요합니다. -
체감 성능: 로컬 파일 분석 및 요약 기능은 매우 만족스러웠습니다. 다만, 실시간으로 차감되는 API 비용을 보니 결국 로컬 LLM으로 눈을 돌리게 되더군요. (3일만에 2만원 소비)
3. 로컬 LLM 서버(Runner) 선택
로컬에서 모델을 돌리기 위해 3가지 플랫폼을 테스트해 보았습니다.
| 구분 | 장점 | 단점 |
| LM Studio | 직관적인 UI, 쉬운 모델 관리 및 서버 설정 | MLX 최적화 미흡, KV Cache 관련 오류 잦음 |
| vLLM-MLX / mlx-lm | 애플 실리콘 최적화, 낮은 메모리 점유율 | 터미널 기반 설정의 번거로움, 재시작 필수 |
최종 선택은 LM Studio: 일부 모델이 MLX 계열에서 답변 반복이나 404 에러를 일으키는 경우가 있었으나, LM Studio는 상대적으로 안정적인 구동이 가능했습니다.
4. 사양별 모델 테스트 및 추천
32GB 램 환경에서 여러 모델을 올려본 결과입니다.
-
경량 모델 (Qwen 2.5 9B 등): 속도는 쾌적하지만 지능 면에서 아쉬움이 남습니다.
-
Speculative Decoding (1.5B + 14B): 작은 모델(Draft)이 초안을 잡고 큰 모델이 검증하는 방식입니다. 응답은 즉각적이지만, 작은 모델이 맥락을 놓치면 대화가 산으로 가는 경향이 있어 결국 포기했습니다.
-
중량 모델 (Qwen 3.5 32B): 답변을 기다리다 '늙어 죽겠다'는 생각이 들 정도로 느립니다. 32GB 램으로는 버거운 느낌입니다.
-
최적의 추천 (OpenAI-OSS-20B): 현재 제가 메인으로 사용하는 모델입니다. 속도는 상용 AI보다 느리지만, 문서 요약이나 녹음 파일 마크업 변환 등 실무용으로 충분히 쓸만한 퍼포먼스를 보여줍니다.
-
엔비디아 네모 (Nemotron-3-Super) : 온라인에서 무료로 사용 가능합니다. 언어가 투박하고 기대한 수준의 품질이 안나오는것 같습니다. (https://openrouter.ai/ 에서 무료로 사용가능)
5. 할루시네이션 방지를 위한 System Prompt 설정
로컬 모델 특유의 '투머치토커' 기질과 환각 현상을 잡기 위해 아래와 같은 가이드라인을 설정했습니다.
한국어로 답변할 것 (3문장 이내 요약)
모르는 내용은 지어내지 말고 '모른다'고 답할 것
제공된 텍스트 근거 외의 추측은 금지하며, 의견 제시 시 사실과 명확히 구분할 것
외부 작업 수행 시 반드시 사전 승인을 받을 것
6. 외부 스킬 추천
Web Serach 는 Tavily web search API 사용합니다. 월 1천건까지 무료입니다. BRave 등 API들이 유료화 해버려서 현재 쓸마한녀석이 tavily 인것 같습니다. (WEB Search 스킬이 없으면 AI가 더욱더 멍청해지는느낌입니다)
💡 결론
32GB 램으로 로컬 LLM을 쾌적하게 돌리기는 솔직히 '팍팍합니다.' 유료 API의 속도와 지능을 기대한다면 실망할 수도 있습니다.
하지만 배치 작업(파일 던져두고 딴짓하기) 용도로는 충분히 훌륭하며, 메모리 압박(활성상태보기 메모리 탭에서 노란불)을 견디는 맥미니를 보면 32GB 사양으로 선택하길 잘했다"는 셍긱닙나디 로컬 AI에 입문하시려는 분들께 제 경험이 도움이 되길 바랍니다!
이것 저것 해보려고 메모리랑 ssd를 업 했는데. 64GB로 할껄 그랬나 싶네요. ^^
16램이시면 9B 모델까지는 잘 돌아갈것 같습니다. 단 결과물이 원하는 수준인지가 이슈일것 같구요
처음 말했떤 내용이 중간중간 지멋대로 중간 몸통짤라먹고 문맥이 틀어지거나 하는 이슈가 잇을수있습니다.
저는 대화주제가 바뀔때 새션을 초기화하도록 설정해두고 대화 내용이 길어져서 해매는 경우를 방지하고있습니다.
되도록 주고받고 횟수를 줄이는게 문맥 유지에 도움이 되는것 같습니다
혹시 mistral small 도 비교해보셨을까요? 지피티는 계속 이걸 추천해 주네요. 24기가 모델입니다.
mistral 모델은 안써봤습니다. 사용해본 모델은
nvidia nemo - 덜다듬어진 AI 느낌
qwen 2.5 / 3.5 - 높은 모델은 플러그인 같은거 만드는데 확실히 좋아보이나 응답 속도나 문장 생성 속도에서 open AI보다 느림
openAI - 가장 용량대비 반응속도 좋음 / 문장도 깔끔함 / 처리하는데 있어 지맘대로 처리하려는 경향이 보이나, 이부분은 사전 정의 설정으로 어느정도 가이드 가능
정도였습니다.
Qwen 모델에 Coder가 붙은 모델은 Mixture-of-Experts (MoE) 구조를 이용해서 Qwen에 Claude 을 짬뽕한 녀석으로 이해하고 돌려보았으나 현재 저에겐 OpenAI 가 적합하다는 결론이었습니다
openai 에서 작은 걸로 한번 찾아봐야겠네요. 감사합니다!
oepnai 에서는 20b 모델이 최저입니다. 제 시스템 메모리 기준으로 20gb 정도 소비하고있어서 24gb면 구동 가능할것 같습니다.
https://openrouter.ai 에서 엔비디아 nemo는 공짜로 사용 가능합니다 API key 방식으로요
한번 돌려보겠습니다
그리고 각 LLM에서 다 CLI를 지원하는걸로 알고 있는데 openclaw는 아직 CLI를 통한 접근은 안되나 보네요.
openai API는 유료 구독아니면 응답이 거의 안옵니다. 재미나이가 토큰 소비하는걸로 보아 openAI도 크게 차이나지 않을거 같아요
아~ 완전 무료만 찾으시나 보네요.
OpenAI가 plus 구독만 하더라도 토큰 제공량이 작지가 않거든요.
그리고 5시간 1주 쿼터 형태로 토큰 제약이 초기화 되어서 plus 구독만으로도 왠간한 프로젝트 수행이 가능할 정도의 토큰량을 제공을 해줍니다.
그런데 월 29,000원대 비용도 모이면 작진 않겠네요.
AI on pro 구독중입니다. 토큰 100 개 1.4만원 제공해주더라구요 3일간 사용한 토큰이 2만원이라.. 이걸론 감당이 안될것 같습니다
오픈클로를 무제한으로 쓸수있어서 만족합니다.
gpt-5.4의 경우 한번씩 터미널 권한 실행이 안되는 이슈가 있어서 cdoex-5.3을 메인으로 쓰고 있는데
5.4랑 체감상 거의 동급으로 동작합니다.
단순 답변이 아니라 코드를 짜고 크롤링을 하고 실행하는 등의 동작을 하려면, codex-5.3급은 되야 쓸만해지더라고요.
그리고 적어도 바이브코딩을 하실줄 알아야 오픈클로를 원활히 사용하실수있을거에요.
작년에 처음 깔았을 때는 API 비용이 너무 부담돼서 싼 모델만 쓰다가 “이거 별로인데…” 하고 접을 뻔했거든요.
근데 요즘은 ChatGPT Pro에 물려서 쓰니까 완전 다른 물건입니다. 거의 자비스 느낌 나요.
슬랙에 붙여서 돌리니까 더 체감이 큰데, 이게 그냥 툴이 아니라 팀원 하나 들어온 느낌입니다 ㅋㅋ
디스코드는 얘가 작성중... 이 떠서 멈췄는지 알수있는데, 슬렉도 그렇게 보시는지 어떻게 사용하는지 궁금합니다.
알리발 업그레이드 키트로 개복하는 것이 부담스러우면 Thunderbolt4 외장 하드로 내장 SSD랑 유사한 속도까지 낼 수 있는 더 저렴한 옵션도 있습니다.
네 알리발 1tb SSD로 업글했습니다. 램은 CPU랑 한몸이라 업글도 안되고 선택 가능한 가장 높은 램 선택하는게 맞는선택 같고 게다가 RAM가격이 올라서 다나와에서 32기가램이 70만원 정도하는거같더라구요.. 그래서 RAM 은 32기가를..
맥미니가 지금 주문하면 7월말 수령가능으로 뜹니다. 맥미니 M5가 7월말에 출시하는것은 아닌지 하는 생각이 듭니다.