CLIEN

본문 바로가기 메뉴 바로가기 보기설정 테마설정
톺아보기 공감글
커뮤니티 커뮤니티전체 C 모두의광장 F 모두의공원 I 사진게시판 Q 아무거나질문 D 정보와자료 N 새로운소식 T 유용한사이트 P 자료실 E 강좌/사용기 L 팁과강좌 U 사용기 · 체험단사용기 W 사고팔고 J 알뜰구매 S 회원중고장터 B 직접홍보 · 보험상담실 H 클리앙홈
소모임 소모임전체 ·굴러간당 ·아이포니앙 ·주식한당 ·MaClien ·일본산당 ·방탄소년당 ·자전거당 ·개발한당 ·AI당 ·이륜차당 ·안드로메당 ·콘솔한당 ·소시당 ·소셜게임한당 ·걸그룹당 ·골프당 ·키보드당 ·갖고다닌당 ·육아당 ·노젓는당 ·퐁당퐁당 ·나스당 ·PC튜닝한당 ·테니스친당 ·위스키당 ·디아블로당 ·IoT당 ·바다건너당 ·라즈베리파이당 ·클다방 ·여행을떠난당 ·어학당 ·3D메이킹 ·X세대당 ·ADHD당 ·AI그림당 ·날아간당 ·사과시계당 ·배드민턴당 ·야구당 ·농구당 ·블랙베리당 ·곰돌이당 ·비어있당 ·FM당구당 ·블록체인당 ·보드게임당 ·활자중독당 ·볼링친당 ·캠핑간당 ·냐옹이당 ·문명하셨당 ·클래시앙 ·요리한당 ·쿠키런당 ·대구당 ·DANGER당 ·뚝딱뚝당 ·개판이당 ·동숲한당 ·날아올랑 ·전기자전거당 ·e북본당 ·이브한당 ·패셔니앙 ·물고기당 ·도시어부당 ·FM한당 ·맛있겠당 ·포뮬러당 ·젬워한당 ·안경쓴당 ·차턴당 ·총쏜당 ·땀흘린당 ·하스스톤한당 ·히어로즈한당 ·인스타한당 ·KARA당 ·꼬들한당 ·덕질한당 ·가죽당 ·레고당 ·리눅서당 ·LOLien ·Mabinogien ·임시소모임 ·미드당 ·밀리터리당 ·땅판당 ·헌팅한당 ·오른당 ·영화본당 ·MTG한당 ·소리당 ·노키앙 ·적는당 ·방송한당 ·찰칵찍당 ·그림그린당 ·소풍간당 ·심는당 ·패스오브엑자일당 ·품앱이당 ·리듬탄당 ·달린당 ·Sea마당 ·SimSim하당 ·심야식당 ·윈태블릿당 ·미끄러진당 ·축구당 ·나혼자산당 ·스타한당 ·스팀한당 ·파도탄당 ·테스트당 ·빨콩이당 ·공대시계당 ·터치패드당 ·트윗당 ·가상화폐당 ·창업한당 ·VR당 ·시계찬당 ·WebOs당 ·와인마신당 ·WOW당 ·윈폰이당
임시소모임
고객지원
  • 게시물 삭제 요청
  • 불법촬영물등 신고
  • 쪽지 신고
  • 닉네임 신고
  • 제보 및 기타 제안
© CLIEN.NET
공지[점검] 잠시후 서비스 점검을 위해 약 30분간 접속이 차단됩니다. (금일 18:15 ~ 18:45)

모두의공원

LLM삽질기: 150GB크기 DeepSeek V4 Flash Q4를 M1 Max 64GB에서 실행하기 10

5
2026-05-02 17:36:03 수정일 : 2026-05-02 18:23:03 130.♡.15.182
데이스타777

안녕하세요.

최근에 개인적으로 재미있는 실험을 하나 해서 공유해봅니다.

요지는 이겁니다.

284B 파라미터짜리 MoE 모델인 DeepSeek V4 Flash를
64GB 메모리의 M1 Max 맥에서 한번 돌려보고,
그 과정에서 병목을 조금 줄여본 프로젝트입니다.

깃허브는 여기입니다.

https://github.com/daystar7777/MoE-MADV

사용한 모델은 GGUF 기준 약 150GB짜리 모델입니다.

  • 모델: DeepSeek V4 Flash GGUF
  • 파일 크기: 약 150GB
  • 테스트 머신: Apple Silicon / M1 Max / 64GB unified memory
  • 방식: mmap 기반 실행
  • 핵심 실험: MoE expert가 필요해지는 시점에 MADV_WILLNEED 힌트 주기

처음에는 “150GB 모델을 64GB 메모리에서 돌리는 게 되나?” 쪽이 관심사였는데, 막상 해보니 더 재미있는 병목은 따로 있었습니다.

일반적인 dense LLM은 대체로 같은 가중치를 계속 재사용하는 성격이 강한데, MoE 모델은 토큰마다 선택되는 expert가 바뀔 수 있습니다.

그래서 모델 전체를 메모리에 올릴 수 없는 환경에서는 계산 자체보다도,

“다음에 필요한 expert 가중치 페이지를 얼마나 빨리 불러오느냐”

가 꽤 중요한 병목이 되더군요.

이번 프로젝트에서는 MoE 라우팅 결과로 active expert가 정해진 뒤, 해당 expert의 파일 페이지 범위에 MADV_WILLNEED를 호출하도록 patched llama.cpp 런타임을 구성해봤습니다.

결과는 아래 정도였습니다.

화면 캡처 2026-05-02 173454.png


기본 실행: - expert 페이지 힌트 없음 - 디코드 속도: 0.98 tok/s - 걸린 시간: 115.5초 최적화 실행: - MADV_WILLNEED 사용 - 디코드 속도: 1.23 tok/s - 걸린 시간: 103.1초 

정리하면 모델 자체를 바꾸지 않고도,

  • 디코드 생성 처리량 약 25.4% 증가
  • 디코드 전체 시간 약 10.7% 감소

정도의 개선이 있었습니다.

물론 이게 “64GB 맥에서 284B 모델을 실사용 속도로 쾌적하게 돌린다”는 뜻은 아닙니다.
그보다는 메모리보다 큰 MoE 모델을 로컬에서 실행할 때, 병목을 단순히 연산량으로만 보면 안 되고 expert page loading 자체도 최적화 대상으로 봐야 한다는 쪽에 가깝습니다.

개인적으로 흥미로웠던 관찰은 이렇습니다.

  • 초기 trace에서는 page-in/disk-read proxy 기준으로 I/O-active 비중이 매우 컸습니다.
  • prefill과 decode는 둘 다 I/O 영향을 받지만 병목 양상이 달랐습니다.
  • prefill은 넓은 범위의 layer/page를 한꺼번에 읽는 느낌이 강했습니다.
  • decode는 토큰마다 expert 선택이 달라지면서 생기는 지연이 더 중요했습니다.
  • static top-k expert prewarm은 cold start에는 도움이 되지만, steady-state에서는 꼭 최선은 아니었습니다.
  • 가장 명확한 개선은 MADV_WILLNEED 쪽이었습니다.

저장소에는 다음 내용을 정리해두었습니다.

  • 실행 스크립트
  • 모델 다운로드 스크립트
  • patched llama.cpp 런타임 준비 방법
  • 성능 비교 스크립트
  • 5시간 장기 벤치마크 결과
  • 사용한 모델 출처와 재현 방법

재현하려면 디스크 공간은 꽤 필요합니다.
최종 GGUF 모델만 받아도 약 150GB가 필요하고, 여유 공간은 200GB 이상 잡는 게 낫습니다.

프로젝트 이름은 MoE-MADV입니다.

MoE, 즉 Mixture-of-Experts와
MADV_WILLNEED의 MADV를 합친 이름입니다.

혹시 로컬 LLM, Apple Silicon, GGUF, MoE 모델 쪽에 관심 있으신 분들께 참고가 되었으면 합니다.

깃허브 링크입니다.

https://github.com/daystar7777/MoE-MADV

README 한국어 버전도 따로 적어두었습니다.

https://github.com/daystar7777/MoE-MADV/blob/main/README.ko.md

한줄요약: 141G모델도 64G에서 돌릴 수는 있다. 쓸만하지는 않지만 시도는 해봄.

부록:

구동영상 쇼츠입니다

데이스타777 님의 게시글 댓글
SIGNATURE
언제나 지금처럼 ( 개인위키 : daywiki.kr )
서명 더 보기 서명 가리기
  • 주소복사
  • Facebook
  • X(Twitter)
댓글 • [10]
marino
IP 119.♡.213.13
17:49 2026-05-02 17:49:47 / 수정일: 2026-05-02 17:54:48
·
llm 열풍으로 요즘은 64gb 램도 적다는 느낌이네요.
암튼 재미있는글 감사합니다.
그냥그런이
IP 121.♡.205.29
17:52 2026-05-02 17:52:20
·
로컬 llm은 쓸만하다는 소리를 별로 못듣는것 같네요
굄성
IP 210.♡.200.50
18:19 2026-05-02 18:19:57
·
@그냥그런이님
DeepSeek V4 Pro 써보시면 꽤 괜찮습니다. 추론이 좀 길어서 그렇지 Sonnet 4.5급은 됩니다.
__ei
IP 101.♡.149.164
18:44 2026-05-02 18:44:22
·
@굄성님
오 그정도 인가요?
맥스튜디오 128기가 배송받았는데 아직 안뜯고 있습니다. 반품할까 고민중이거든요.
OLIVER
IP 39.♡.212.216
17:59 2026-05-02 17:59:20
·
m1max 64gb 사용하고 있습니다. 생각만 해봤던건데 좋은 정보 감사합니다. 1tps 수준이면 실사용은 안된다고 봐야겠군요..
아띠팡
IP 58.♡.132.183
18:29 2026-05-02 18:29:20
·
@OLIVER님 헉 1tps라니.... 못참을 속도네요..
CalluponME
IP 172.♡.94.43
18:03 2026-05-02 18:03:09
·
이쪽 방면에 매우 관심 있는 사람으로써 이번 실험은 매우 흥미롭고 가치있다고 생각합니다. 좋은 글 올려 주셔서 감사합니다.
삭제 되었습니다.
굄성
IP 210.♡.200.50
18:19 2026-05-02 18:19:19
·
훌륭합니다... 근데 실사용은 못쓰겠군요 흑흑
야야냐샤
IP 118.♡.84.87
18:29 2026-05-02 18:29:23
·
m5맥스튜디오 나오면 m5울트라 256기가 지르려합니도...
농부의근성
IP 218.♡.159.6
18:33 2026-05-02 18:33:12
·
m4 128g 지르고 재밌게 조물닥 거리고 있긴 합니다.
이러나 저러나 현시점엔 local llm 은 qwen 포함한 중국산이 최고의 가성비인 것 같긴 합니다.
새로운 댓글이 없습니다.
이미지 최대 업로드 용량 15 MB / 업로드 가능 확장자 jpg,gif,png,jpeg,webp
지나치게 큰 이미지의 크기는 조정될 수 있습니다.
목록으로
글쓰기
글쓰기
목록으로 댓글보기 이전글 다음글
아이디  ·  비밀번호 찾기 회원가입
이용규칙 운영알림판 운영소통 재검토요청 도움말 버그신고
개인정보처리방침 이용약관 책임의 한계와 법적고지 청소년 보호정책
©   •  CLIEN.NET
보안 강화를 위한 이메일 인증
안전한 서비스 이용을 위해 이메일 인증을 완료해 주세요. 현재 회원님은 이메일 인증이 완료되지 않은 상태입니다.
최근 급증하는 해킹 및 도용 시도로부터 계정을 보호하기 위해 인증 절차가 강화되었습니다.

  • 이메일 미인증 시 글쓰기, 댓글 작성 등 게시판 활동이 제한됩니다.
  • 이후 새로운 기기에서 로그인할 때마다 반드시 이메일 인증을 거쳐야 합니다.
  • 2단계 인증 사용 회원도 최초 1회는 반드시 인증하여야 합니다.
  • 개인정보에서도 이메일 인증을 할 수 있습니다.
지금 이메일 인증하기
등록된 이메일 주소를 확인하고 인증번호를 입력하여
인증을 완료해 주세요.