CLIEN

본문 바로가기 메뉴 바로가기 보기설정 테마설정
톺아보기 공감글
커뮤니티 커뮤니티전체 C 모두의광장 F 모두의공원 I 사진게시판 Q 아무거나질문 D 정보와자료 N 새로운소식 T 유용한사이트 P 자료실 E 강좌/사용기 L 팁과강좌 U 사용기 · 체험단사용기 W 사고팔고 J 알뜰구매 S 회원중고장터 B 직접홍보 · 보험상담실 H 클리앙홈
소모임 소모임전체 ·굴러간당 ·아이포니앙 ·주식한당 ·MaClien ·일본산당 ·방탄소년당 ·자전거당 ·개발한당 ·AI당 ·이륜차당 ·안드로메당 ·콘솔한당 ·소시당 ·소셜게임한당 ·걸그룹당 ·골프당 ·키보드당 ·갖고다닌당 ·육아당 ·노젓는당 ·퐁당퐁당 ·나스당 ·PC튜닝한당 ·테니스친당 ·위스키당 ·디아블로당 ·IoT당 ·바다건너당 ·라즈베리파이당 ·클다방 ·여행을떠난당 ·어학당 ·3D메이킹 ·X세대당 ·ADHD당 ·AI그림당 ·날아간당 ·사과시계당 ·배드민턴당 ·야구당 ·농구당 ·블랙베리당 ·곰돌이당 ·비어있당 ·FM당구당 ·블록체인당 ·보드게임당 ·활자중독당 ·볼링친당 ·캠핑간당 ·냐옹이당 ·문명하셨당 ·클래시앙 ·요리한당 ·쿠키런당 ·대구당 ·DANGER당 ·뚝딱뚝당 ·개판이당 ·동숲한당 ·날아올랑 ·전기자전거당 ·e북본당 ·이브한당 ·패셔니앙 ·물고기당 ·도시어부당 ·FM한당 ·맛있겠당 ·포뮬러당 ·젬워한당 ·안경쓴당 ·차턴당 ·총쏜당 ·땀흘린당 ·하스스톤한당 ·히어로즈한당 ·인스타한당 ·KARA당 ·꼬들한당 ·덕질한당 ·가죽당 ·레고당 ·리눅서당 ·LOLien ·Mabinogien ·임시소모임 ·미드당 ·밀리터리당 ·땅판당 ·헌팅한당 ·오른당 ·영화본당 ·MTG한당 ·소리당 ·노키앙 ·적는당 ·방송한당 ·찰칵찍당 ·그림그린당 ·소풍간당 ·심는당 ·패스오브엑자일당 ·품앱이당 ·리듬탄당 ·달린당 ·Sea마당 ·SimSim하당 ·심야식당 ·윈태블릿당 ·미끄러진당 ·축구당 ·나혼자산당 ·스타한당 ·스팀한당 ·파도탄당 ·테스트당 ·빨콩이당 ·공대시계당 ·터치패드당 ·트윗당 ·가상화폐당 ·창업한당 ·VR당 ·시계찬당 ·WebOs당 ·와인마신당 ·WOW당 ·윈폰이당
임시소모임
고객지원
  • 게시물 삭제 요청
  • 불법촬영물등 신고
  • 쪽지 신고
  • 닉네임 신고
  • 제보 및 기타 제안
© CLIEN.NET
공지[점검] 잠시후 서비스 점검을 위해 약 30분간 접속이 차단됩니다. (금일 18:15 ~ 18:45)

모두의공원

LLM삽질기: 150GB크기 DeepSeek V4 Flash Q4를 M1 Max 64GB에서 실행하기 25

7
2026-05-02 17:36:03 수정일 : 2026-05-02 18:23:03 130.♡.15.182
데이스타777

안녕하세요.

최근에 개인적으로 재미있는 실험을 하나 해서 공유해봅니다.

요지는 이겁니다.

284B 파라미터짜리 MoE 모델인 DeepSeek V4 Flash를
64GB 메모리의 M1 Max 맥에서 한번 돌려보고,
그 과정에서 병목을 조금 줄여본 프로젝트입니다.

깃허브는 여기입니다.

https://github.com/daystar7777/MoE-MADV

사용한 모델은 GGUF 기준 약 150GB짜리 모델입니다.

  • 모델: DeepSeek V4 Flash GGUF
  • 파일 크기: 약 150GB
  • 테스트 머신: Apple Silicon / M1 Max / 64GB unified memory
  • 방식: mmap 기반 실행
  • 핵심 실험: MoE expert가 필요해지는 시점에 MADV_WILLNEED 힌트 주기

처음에는 “150GB 모델을 64GB 메모리에서 돌리는 게 되나?” 쪽이 관심사였는데, 막상 해보니 더 재미있는 병목은 따로 있었습니다.

일반적인 dense LLM은 대체로 같은 가중치를 계속 재사용하는 성격이 강한데, MoE 모델은 토큰마다 선택되는 expert가 바뀔 수 있습니다.

그래서 모델 전체를 메모리에 올릴 수 없는 환경에서는 계산 자체보다도,

“다음에 필요한 expert 가중치 페이지를 얼마나 빨리 불러오느냐”

가 꽤 중요한 병목이 되더군요.

이번 프로젝트에서는 MoE 라우팅 결과로 active expert가 정해진 뒤, 해당 expert의 파일 페이지 범위에 MADV_WILLNEED를 호출하도록 patched llama.cpp 런타임을 구성해봤습니다.

결과는 아래 정도였습니다.

화면 캡처 2026-05-02 173454.png


기본 실행: - expert 페이지 힌트 없음 - 디코드 속도: 0.98 tok/s - 걸린 시간: 115.5초 최적화 실행: - MADV_WILLNEED 사용 - 디코드 속도: 1.23 tok/s - 걸린 시간: 103.1초 

정리하면 모델 자체를 바꾸지 않고도,

  • 디코드 생성 처리량 약 25.4% 증가
  • 디코드 전체 시간 약 10.7% 감소

정도의 개선이 있었습니다.

물론 이게 “64GB 맥에서 284B 모델을 실사용 속도로 쾌적하게 돌린다”는 뜻은 아닙니다.
그보다는 메모리보다 큰 MoE 모델을 로컬에서 실행할 때, 병목을 단순히 연산량으로만 보면 안 되고 expert page loading 자체도 최적화 대상으로 봐야 한다는 쪽에 가깝습니다.

개인적으로 흥미로웠던 관찰은 이렇습니다.

  • 초기 trace에서는 page-in/disk-read proxy 기준으로 I/O-active 비중이 매우 컸습니다.
  • prefill과 decode는 둘 다 I/O 영향을 받지만 병목 양상이 달랐습니다.
  • prefill은 넓은 범위의 layer/page를 한꺼번에 읽는 느낌이 강했습니다.
  • decode는 토큰마다 expert 선택이 달라지면서 생기는 지연이 더 중요했습니다.
  • static top-k expert prewarm은 cold start에는 도움이 되지만, steady-state에서는 꼭 최선은 아니었습니다.
  • 가장 명확한 개선은 MADV_WILLNEED 쪽이었습니다.

저장소에는 다음 내용을 정리해두었습니다.

  • 실행 스크립트
  • 모델 다운로드 스크립트
  • patched llama.cpp 런타임 준비 방법
  • 성능 비교 스크립트
  • 5시간 장기 벤치마크 결과
  • 사용한 모델 출처와 재현 방법

재현하려면 디스크 공간은 꽤 필요합니다.
최종 GGUF 모델만 받아도 약 150GB가 필요하고, 여유 공간은 200GB 이상 잡는 게 낫습니다.

프로젝트 이름은 MoE-MADV입니다.

MoE, 즉 Mixture-of-Experts와
MADV_WILLNEED의 MADV를 합친 이름입니다.

혹시 로컬 LLM, Apple Silicon, GGUF, MoE 모델 쪽에 관심 있으신 분들께 참고가 되었으면 합니다.

깃허브 링크입니다.

https://github.com/daystar7777/MoE-MADV

README 한국어 버전도 따로 적어두었습니다.

https://github.com/daystar7777/MoE-MADV/blob/main/README.ko.md

한줄요약: 141G모델도 64G에서 돌릴 수는 있다. 쓸만하지는 않지만 시도는 해봄.

부록:

구동영상 쇼츠입니다

데이스타777 님의 게시글 댓글
SIGNATURE
언제나 지금처럼 ( 개인위키 : daywiki.kr )
서명 더 보기 서명 가리기
  • 주소복사
  • Facebook
  • X(Twitter)
댓글 • [25]
marino
IP 119.♡.213.13
05-02 2026-05-02 17:49:47 / 수정일: 2026-05-02 17:54:48
·
llm 열풍으로 요즘은 64gb 램도 적다는 느낌이네요.
암튼 재미있는글 감사합니다.
데이스타777
IP 130.♡.15.182
05-02 2026-05-02 21:40:20
·
@marino님 아마도 LLM표준 구동이128G언더에서 자리잡힐 가능성이 높을 거 같습니다. 그 아래는 고반응성으로 가야할거 같구요
그냥그런이
IP 121.♡.205.29
05-02 2026-05-02 17:52:20
·
로컬 llm은 쓸만하다는 소리를 별로 못듣는것 같네요
굄성
IP 210.♡.200.50
05-02 2026-05-02 18:19:57
·
@그냥그런이님
DeepSeek V4 Pro 써보시면 꽤 괜찮습니다. 추론이 좀 길어서 그렇지 Sonnet 4.5급은 됩니다.
__ei
IP 101.♡.149.164
05-02 2026-05-02 18:44:22
·
@굄성님
오 그정도 인가요?
맥스튜디오 128기가 배송받았는데 아직 안뜯고 있습니다. 반품할까 고민중이거든요.
레두
IP 125.♡.135.42
05-02 2026-05-02 20:14:27
·
@__ei님 맥스튜디오 128에서 테스트를 부탁 드리고 싶네요 ㅠㅜ
데이스타777
IP 130.♡.15.182
05-02 2026-05-02 21:41:17
·
@그냥그런이님 로컬LLM을 보면 한세대가 지나면 확실히 작은 규모에서 이전 세대의 더큰규모를 따라잡는게 보입니다. 프론티어가 아주 잘하고 있을 뿐 로컬LLM도 많이 좋아졌습니다.
OLIVER
IP 39.♡.212.216
05-02 2026-05-02 17:59:20
·
m1max 64gb 사용하고 있습니다. 생각만 해봤던건데 좋은 정보 감사합니다. 1tps 수준이면 실사용은 안된다고 봐야겠군요..
아띠팡
IP 58.♡.132.183
05-02 2026-05-02 18:29:20
·
@OLIVER님 헉 1tps라니.... 못참을 속도네요..
데이스타777
IP 130.♡.15.182
05-02 2026-05-02 21:41:46
·
@OLIVER님 지금 flash 돌리려면 180기가 이상 메모리가 필수입니다. q2.8은 못쓰겠더라구요
CalluponME
IP 172.♡.94.43
05-02 2026-05-02 18:03:09
·
이쪽 방면에 매우 관심 있는 사람으로써 이번 실험은 매우 흥미롭고 가치있다고 생각합니다. 좋은 글 올려 주셔서 감사합니다.
데이스타777
IP 130.♡.15.182
05-02 2026-05-02 21:42:07
·
@CalluponME님 잘봐주셔서 감사합니다 다음에는 DGX Spark에서 돌려볼려구요
삭제 되었습니다.
굄성
IP 210.♡.200.50
05-02 2026-05-02 18:19:19
·
훌륭합니다... 근데 실사용은 못쓰겠군요 흑흑
데이스타777
IP 130.♡.15.182
05-02 2026-05-02 21:42:22
·
@굄성님 일종의 지금은 이정도까지는 된다 정도로 봐주심 될 거 같습니다
야야냐샤
IP 118.♡.84.87
05-02 2026-05-02 18:29:23
·
m5맥스튜디오 나오면 m5울트라 256기가 지르려합니도...
쭈태공
IP 106.♡.197.190
05-02 2026-05-02 20:25:28
·
@야야냐샤님 가격이 얼마나.되려나요?
야야냐샤
IP 118.♡.84.87
05-02 2026-05-02 21:22:20
·
@쭈태공님 m3울트라버전 256기가가 천만원가까이되서 .. m5울트라버전 나오면 천이백만원넘길거같아요
데이스타777
IP 130.♡.15.182
05-02 2026-05-02 21:42:38
·
@야야냐샤님 엄청 풍족한 환경이죠...ㄷㄷㄷ
농부의근성
IP 218.♡.159.6
05-02 2026-05-02 18:33:12
·
m4 128g 지르고 재밌게 조물닥 거리고 있긴 합니다.
이러나 저러나 현시점엔 local llm 은 qwen 포함한 중국산이 최고의 가성비인 것 같긴 합니다.
데이스타777
IP 130.♡.15.182
05-02 2026-05-02 21:43:11
·
@농부의근성님 128이라니 부럽습니다. 지금은 qwen/gemma 정도가 로컬의 답이긴 합니다.
솔라
IP 61.♡.66.8
05-02 2026-05-02 21:15:50 / 수정일: 2026-05-02 21:58:34
·
이미 중국산도 qwen이외에는 너무 크거나 클라우드 서비스만 하거나 하는쪽으로 가는거 겉네요. 대여 GPU서버로 150GB보델 오프로딩 없이 돌리려면 시간당 최소 1만5000원은 들여야 하구요. api를 이용하면 아직 무료도 있지만 계속 쓸 수있는것도 아니고 로컬도 아니죠. 시간이 지나면 접근성이 조금 더 나아질까요?
데이스타777
IP 130.♡.15.182
05-02 2026-05-02 21:39:10
·
@솔라님 엔비디아의 말에 따르면 더 좋은 컨텍스트를 넣으면 작은모델로도 큰 모델을 어느정도따라잡는다고 합니다. 지금의 젬마4만 하더라도 이전세대 70b보다 성능이 좋은면이 있죠. 아마 다음세대쯤에는 128기가 밑에서 지금의 150기가 이상의 성능은 나올듯 합니다.
솔라
IP 61.♡.66.8
05-02 2026-05-02 22:02:51
·
@데이스타777님 저도 RTX4090으로 젬마4, QWEN 3.6, nemotron 3 nano omni 등을 돌려봤는데요. 예전과 비교할 수 없을 만큼 좋아지긴 했는데 검색을 연결하지 않으면 할루시네이션을 피하기 어렵고 검증된 답과는 거리가 있더라구요. 눈이 너무 높아졌어요.
hogar
IP 1.♡.153.197
05-02 2026-05-02 22:49:00
·
llama.cpp 에 mmap 이 이미 적용된거 아닌가..하고 읽었는데 MoE 에서도 mmap 이 다시 활용될수 있는거군요?
local llm 은 언제 보든 도전하고 싶게 만드는 뭔가가 있는거 같아요
부산행
IP 66.♡.134.231
00:13 2026-05-03 00:13:21
·
아주 좋은 취미라 생각합니다. 어서 더 발전했음 좋겠습니다.
새로운 댓글이 없습니다.
이미지 최대 업로드 용량 15 MB / 업로드 가능 확장자 jpg,gif,png,jpeg,webp
지나치게 큰 이미지의 크기는 조정될 수 있습니다.
목록으로
글쓰기
글쓰기
목록으로 댓글보기 이전글 다음글
아이디  ·  비밀번호 찾기 회원가입
이용규칙 운영알림판 운영소통 재검토요청 도움말 버그신고
개인정보처리방침 이용약관 책임의 한계와 법적고지 청소년 보호정책
©   •  CLIEN.NET
보안 강화를 위한 이메일 인증
안전한 서비스 이용을 위해 이메일 인증을 완료해 주세요. 현재 회원님은 이메일 인증이 완료되지 않은 상태입니다.
최근 급증하는 해킹 및 도용 시도로부터 계정을 보호하기 위해 인증 절차가 강화되었습니다.

  • 이메일 미인증 시 글쓰기, 댓글 작성 등 게시판 활동이 제한됩니다.
  • 이후 새로운 기기에서 로그인할 때마다 반드시 이메일 인증을 거쳐야 합니다.
  • 2단계 인증 사용 회원도 최초 1회는 반드시 인증하여야 합니다.
  • 개인정보에서도 이메일 인증을 할 수 있습니다.
지금 이메일 인증하기
등록된 이메일 주소를 확인하고 인증번호를 입력하여
인증을 완료해 주세요.