CLIEN

본문 바로가기 메뉴 바로가기 보기설정 테마설정
톺아보기 공감글
커뮤니티 커뮤니티전체 C 모두의광장 F 모두의공원 I 사진게시판 Q 아무거나질문 D 정보와자료 N 새로운소식 T 유용한사이트 P 자료실 E 강좌/사용기 L 팁과강좌 U 사용기 · 체험단사용기 W 사고팔고 J 알뜰구매 S 회원중고장터 B 직접홍보 · 보험상담실 H 클리앙홈
소모임 소모임전체 ·굴러간당 ·방탄소년당 ·아이포니앙 ·주식한당 ·MaClien ·일본산당 ·자전거당 ·개발한당 ·이륜차당 ·바다건너당 ·클다방 ·안드로메당 ·노젓는당 ·AI당 ·가상화폐당 ·소시당 ·물고기당 ·찰칵찍당 ·여행을떠난당 ·소셜게임한당 ·걸그룹당 ·콘솔한당 ·갖고다닌당 ·VR당 ·골프당 ·캠핑간당 ·개판이당 ·전기자전거당 ·e북본당 ·나스당 ·키보드당 ·3D메이킹 ·X세대당 ·ADHD당 ·AI그림당 ·날아간당 ·사과시계당 ·육아당 ·배드민턴당 ·야구당 ·농구당 ·블랙베리당 ·곰돌이당 ·비어있당 ·FM당구당 ·블록체인당 ·보드게임당 ·활자중독당 ·볼링친당 ·냐옹이당 ·문명하셨당 ·클래시앙 ·요리한당 ·쿠키런당 ·대구당 ·DANGER당 ·뚝딱뚝당 ·디아블로당 ·동숲한당 ·날아올랑 ·이브한당 ·패셔니앙 ·도시어부당 ·FM한당 ·맛있겠당 ·포뮬러당 ·젬워한당 ·안경쓴당 ·차턴당 ·총쏜당 ·땀흘린당 ·하스스톤한당 ·히어로즈한당 ·인스타한당 ·IoT당 ·KARA당 ·꼬들한당 ·덕질한당 ·어학당 ·가죽당 ·레고당 ·리눅서당 ·LOLien ·Mabinogien ·임시소모임 ·미드당 ·밀리터리당 ·땅판당 ·헌팅한당 ·오른당 ·영화본당 ·MTG한당 ·소리당 ·노키앙 ·적는당 ·방송한당 ·PC튜닝한당 ·그림그린당 ·소풍간당 ·심는당 ·패스오브엑자일당 ·라즈베리파이당 ·품앱이당 ·리듬탄당 ·달린당 ·Sea마당 ·SimSim하당 ·심야식당 ·윈태블릿당 ·미끄러진당 ·축구당 ·나혼자산당 ·스타한당 ·스팀한당 ·파도탄당 ·퐁당퐁당 ·테니스친당 ·테스트당 ·빨콩이당 ·공대시계당 ·터치패드당 ·트윗당 ·창업한당 ·시계찬당 ·WebOs당 ·위스키당 ·와인마신당 ·WOW당 ·윈폰이당
임시소모임
고객지원
  • 게시물 삭제 요청
  • 불법촬영물등 신고
  • 쪽지 신고
  • 닉네임 신고
  • 제보 및 기타 제안
© CLIEN.NET
공지[점검] 잠시후 서비스 점검을 위해 약 30분간 접속이 차단됩니다. (금일 18:15 ~ 18:45)

모두의공원

펌, 3대의 맥 스튜디오로 완전한 로컬 AI 인프라 구축 32

3
2026-02-20 14:49:38 수정일 : 2026-02-20 14:54:53 110.♡.47.119
마음하늘

맥 스튜디오 3대로 구축한 로컬 AI 인프라
한 개인 개발자가 애플 맥 스튜디오(Mac Studio) 3대와 맥 미니 1대를 조합해 세계 최고 수준의 오픈소스 AI 모델 여러 개를 동시에 로컬로 구동하는 환경을 직접 구축했다는 X (구 트위터)의 글 입니다.

소개 내용(인용) https://x.com/babybluecream/status/2024661387579183374
원 글 https://x.com/AlexFinn/status/2024611636246695951

완전한 로컬 AI 환경이라니 놀랍네요. 미래엔 어떻게 될지 모르겠습니다.

.

HBjcmcnaIAAJMKk.jpg

20260220_144504.png

20260220_144638.png

20260220_145412.png

마음하늘 님의 게시글 댓글
SIGNATURE
- 세벌식 390 사용자 입니다.
- 이따금 전기차 관련 글을 올립니다 (볼트ev 2018)
- 구슴오를 가끔 타고 다닙니다 (99년식 수동 변속기 차량)
- 펌글을 올릴때는 그냥 별 뜻 없이 사무실에 갖혀 있는게 매우 답답하다는 뜻입니다.
. (글을 퍼 왔을 경우에도 그 글에 동의한다는 의미는 아닐 수 있습니다)
- 개발자(aka 프로그래머) 입니다만, 사실 회사원입니다.
서명 더 보기 서명 가리기
  • 주소복사
  • Facebook
  • X(Twitter)
댓글 • [32]
프랑지파니
IP 14.♡.253.234
02-20 2026-02-20 14:52:48
·
기가 맥히네요
수누
IP 211.♡.155.213
02-20 2026-02-20 14:54:01
·
감동적이네요. 터미네이터 만세
보수주의자
IP 218.♡.42.109
02-20 2026-02-20 14:54:23
·
아 이제 완벽히 이해했습니다 (전혀 이해못함)

문돌이는 웁니다....
Forecasting
IP 46.♡.171.122
02-20 2026-02-20 14:56:47
·
​트위터의 사례처럼 512GB 메모리를 구성하려면 가장 상위 칩셋인 M3 Ultra(또는 현재 판매 중인 최상위 Ultra 칩셋) 모델을 선택해야 합니다.
​기본 본체 (M3 Ultra 칩셋 모델): 약 6,590,000원부터 시작
​통합 메모리 업그레이드 (512GB): 약 8,000,000원 ~ 9,000,000원 추가
​참고: 기본 모델에서 메모리 용량을 최대로 높일 때 발생하는 추가 비용입니다.
​저장 장치 및 기타 옵션: 최소 1TB~2TB 기준 약 600,000원 ~ 1,200,000원 추가
​총 예상 금액: 약 15,440,000원 ~ 16,000,000원 (VAT 포함)
​2. 세 대를 병렬로 연결할 경우 (게시물 사례)
​게시물 속 인물은 이 사양의 Mac Studio를 3대 연결했으므로, 순수 본체 가격으로만 약 4,600만 원 ~ 4,800만 원 정도를 지출한 셈입니다.
​3. 왜 이렇게 비싼가요?
​일반적인 PC의 RAM과 달리, Mac의 **통합 메모리(Unified Memory)**는 GPU와 CPU가 초고속으로 공유하는 구조입니다. 이 때문에 AI 모델(LLM)을 돌릴 때 고가의 NVIDIA H100 GPU 같은 역할을 대신할 수 있어, 전문가들 사이에서는 오히려 "가성비 있는 AI 워크스테이션"으로 불리기도 합니다.
Youtube
IP 116.♡.178.141
02-20 2026-02-20 14:58:32
·
@Forecasting님 비싼 것 같다가도 같은 일을 사람이 한다고 생각하면 또 가성비고 그렇네요 ㄷㄷㄷ
Youtube
IP 116.♡.178.141
02-20 2026-02-20 14:57:01
·
저정도 시스템이면 구독 모델급 성능이 된다는건가요?
Forecasting
IP 46.♡.171.122
02-20 2026-02-20 15:01:01
·
@Youtube님512GB 맥 스튜디오 3대를 연결한 구성은 **'연구 목적'**이나 '자체 AI 서비스를 개발하는 기업' 수준의 오버스펙입니다.
​
​로컬 AI 체험: Mac Studio 기본형에 메모리만 64GB나 128GB로 올려도 현존하는 대부분의 강력한 AI 모델을 개인용으로 쓰는 데 아무런 지장이 없습니다.
​결국 트위터 사례는 **"클라우드 구독료 대신 하드웨어에 몰빵해서 나만의 슈퍼컴퓨터를 갖겠다"**는 상징적인 플렉스(Flex)에 가깝습니다

라고..하네요
When2Fly
IP 115.♡.136.26
02-20 2026-02-20 15:33:59
·
@Youtube님
구독모델 돌리는게 더 저렴합니다. 구독모델급 성능도 안나오고요.
Forecasting
IP 46.♡.171.122
02-20 2026-02-20 14:58:51
·
512GB 맥 스튜디오 1대의 위력
​이 정도 사양이면 현재 지구상에 나온 거의 모든 오픈소스 AI 모델을 단 한 대로 구동할 수 있습니다.

​DeepSeek-R1 (671B): 현존 최강 추론 모델 중 하나인 DeepSeek도 4비트 양자화(용량 압축)를 거치면 이 기기 한 대에서 돌아갑니다.
​Llama 3.1 405B: 메타의 가장 큰 모델 역시 쾌적하게 구동 가능합니다.

​이점: 일반 PC는 그래픽카드 여러 개를 꽂느라 전기를 엄청나게 먹고 소음도 심하지만, 맥 스튜디오는 책상 위에 두고 조용히 쓸 수 있다는 게 최대 장점입니다.

만약 1,600만 원이라는 금액이 부담스럽다면, 현시점에서 가장 효율적인 '입문용 고사양' 구성은 다음과 같습니다.

​Mac Studio (M4 Max 모델)
​메모리 128GB 구성 (약 600~700만 원대)

​이 정도만 되어도 현업에서 쓰이는 웬만한 모델(Llama 3 70B 등)은 아주 빠르게 돌릴 수 있어, 웹사이트 관리나 개인 IT 프로젝트용으로는 차고 넘칩니다.


라고 하네요...
drop2voicing
IP 182.♡.250.182
02-20 2026-02-20 14:59:34
·
뭔가 이글을 읽으니 갑자기 두렵네요
난 이 내용이 뭔소린지 모르겠고 저 글쓴이는 저걸로 돈을 버는데 난 무방비상태로 시간이 지나간다고 생각하니...ㅠ
닉이름닉
IP 116.♡.138.54
02-20 2026-02-20 15:00:07 / 수정일: 2026-02-20 15:06:15
·
아무개 회사 개미 : 램! 더 많은 램! (yo)
Forecasting
IP 46.♡.171.122
02-20 2026-02-20 15:01:42
·
@닉이름닉님 하이닉스를 사서 pc살돈을 마련!!
은근은근
IP 223.♡.82.74
02-20 2026-02-20 15:01:57
·
왠만한 개인은 엄두도 못낼 장비 가격이네요.그냥 계속 구독형 사용해야겠습니다ㅎㅎ ㅜ ㅜ
NoaeC
IP 211.♡.247.201
02-20 2026-02-20 15:02:08
·
이 시대가 머지 않았네요.

닉이름닉
IP 116.♡.138.54
02-20 2026-02-20 15:04:38 / 수정일: 2026-02-20 15:48:10
·
그런데 이게 nVIDIA DGX 보다 더 성능 좋은 건가요? (기기 값을 보고요)
jj34
IP 124.♡.250.178
02-20 2026-02-20 15:13:24
·
@닉이름닉님 DGX가 성능은 훨씬 좋죠. 검색해보니 오늘 엔비디아에서 설치법과 M3보다 3배 빠르다는 자료를 내놓았네요. 그런대 macOS의 기본 프로그램과 단축 명령어 등을 활용하여 개인 비서로 쓰는 것이라 지금까지는 macOS 위주로 설치하고 사용하는 것 같네요.
aqure84
IP 180.♡.204.252
02-20 2026-02-20 15:14:35 / 수정일: 2026-02-20 15:14:49
·
@닉이름닉님 DGX가 5070급 성능이고 DDR5 램을 128GB공유해서 씁니다. 파인튜닝은 당연히 DGX가 빠를텐데 일반 추론용모델을 그냥 돌리는거면 둘간 성능차가 그리 크진 않고 (DGX가 더 빠르긴합니다..) CPU와 공유해서 쓰는 m4 ultra가 좀더 유리할 수 있습니다...대역폭이 워낙 말이 안되서요.
그리고 일단 512GB라는 미친 램 용량때문에 무거운 모델을 올려서 쓸 수 있다는 엄청난 장점이 있죠.
aqure84
IP 180.♡.204.252
02-20 2026-02-20 15:08:56 / 수정일: 2026-02-20 15:09:24
·
일단 구축하는데 3~4천 들어가는건데
초기 구축비 생각하면 일반인이라면 claude나 codex 제일 비싼 구독 + API 사용량 켜는게 더 나을지도 모릅니다...
근데 러프하게 전기를 시간당 머신 4대가 총 1000w 쓴다고해도 한달 30일 30kw정도 쓰는거니 엄청 경제적이긴하겠네요.

초기 구축 비용 생각하면 정말 부자 아니면 힘들어보입니다 ㅋㅋㅋ
브그
IP 129.♡.65.8
02-20 2026-02-20 15:57:00
·
@고소.미님 로컬 LLM 은 SOTA LLM 보다 성능이 많이 떨어져서 직접 비교하긴 어렵습니다. gpt-oss-120B 와 gpt-5.3-codex 의 성능차이는 어마어마하죠.
aqure84
IP 180.♡.204.252
02-20 2026-02-20 16:19:05 / 수정일: 2026-02-20 16:20:19
·
@브그님 성능차는 당연히 크고요. 크롤링코드 만들고 분류하고 API로 집어넣는거 정도는 qwen3 14b모델로도 되긴합니다. 그런데 위에 예시처럼 qwen3.5 397b정도면 sonnet3.7과 비견될 정도라고 하니... max think 버전이 나오면 opus까지는 어렵겠지만 sonnet 대체 되는정도라면 충분하지 않나 싶기도 합니다.

솔직히 저정도 구축할 돈이면 그냥 구독료 + API 비용 켜고 쓰는게 더 성능과 가성비 측면에서 더 좋지 않나 싶습니다. 그런부분에서는 opus보다 좀 구리지만 gemini ultra 구독만 해도 gemini pro3.1 preview만 돌려도 정말 가성비가 넘치긴하죠.
Forecasting
IP 46.♡.171.122
02-20 2026-02-20 15:10:52
·
실전 가이드
​"내가 왜 900만 원(256GB)을 써야 할까?" 고민되신다면 아래 기준으로 판단해 보세요.

​128GB로 충분한 경우:
​현재 유료 ChatGPT(GPT-4) 정도의 성능만 로컬로 구현하고 싶다.
​웹사이트 코딩 보조, 블로그 글쓰기, 상담 초안 작성이 주 용도다.
​결론: 이 정도로도 3080 Ti보다는 훨씬 똑똑한 비서를 얻게 됩니다.

​256GB가 필요한 경우:
​DeepSeek-R1 같은 '추론형 AI'의 끝판왕 성능을 경험하고 싶다.
​외부 AI(OpenAI, Anthropic) 구독을 아예 끊고, 내 컴퓨터만으로 모든 전문 업무를 완결하고 싶다.
​한 번 사서 향후 3~4년간 나올 거대 모델들도 다 돌려보고 싶다.


256 검색해보니 836만원 하네요...
사고싶당...
빚아니빛
IP 106.♡.138.214
02-21 2026-02-21 15:03:46
·
@Forecasting님 24개월 무이자할부가 유혹합니다
아마티
IP 58.♡.230.60
02-20 2026-02-20 15:11:59 / 수정일: 2026-02-20 15:36:30
·
오픈소스 ai 모델 쓰는건 누구나 다 딸깍으로 할 수 있습니다. 저거 별거 아니라고 하는 건 아니지만, 개인 레벨에서는 구축하기 쉬워도 저런 걸 할 이유가 없습니다.

일단 문제는 비용이죠... "아직은" 램 폭등 가격을 반영하지 않은 맥스튜디오... 그것도 대당 1000만원 넘어가는 것 세대를 연결한건데... 게다가 속도도 상대적으로 매우 느리고, 성능(품질) 자체도 클로드 제미니 gpt 등의 비공개(?) 모델에 비해 많이 떨어지는 오픈소스 모델밖에 못쓰고, 평생 쓸수도 없으니 몇년 지나면 업그레이드 고려하고 고장률 생각하고, 전기요금 등을 생각하면... 저런 연구목적(?)이 아닌 개인은 그냥 제미니 적당한 요금제로 평생 구독하는게 낫습니다.
비용에 조금 더 자유로운 기업/연구소 입장에서는 저런 조합은 다른거 없이 통합 메모리에 대형 모델을 올릴 수 있고 저렴한(?) 비용으로 구축 가능한 게 장점인데, 실제로는 nvidia 중심으로 구현된 ai 생태계에 비해 속도와 도구 면에서 압도적으로 밀립니다. 매우 가성비 있는 건 맞는데, ai 연구하는 사람들이 저런 구성을 안쓰고 비싼 랙서버에 gpu 8개씩 박아서 쓰는 건 돈이 남아돌아서가 아니죠.

물론 개인적인 호기심이라면 말릴 이유는 없지만 (저도 약간은 끌립니다), 저걸 쓰고 싶다면 일단 현재 쓰는 구독 api 사용량 맥스로 끌어 써도 부족하다고 생각될 정도에나 고려하시면 됩니다.
콩심었어
IP 118.♡.4.40
02-20 2026-02-20 17:02:52 / 수정일: 2026-02-20 17:03:12
·
@아마티님
애플은 램 폭등전 부터 (램 가격이 사실상 원가이던 평시에도)8GB당 30만원 받아오고 있었습니다... 그래서 이번에 제품 가격 안올린다는 예상도 하더군요. 이번 기회에 맥 생태계를 넓히려는 목적으로요.
아마티
IP 58.♡.230.60
02-20 2026-02-20 18:57:13 / 수정일: 2026-02-20 18:57:48
·
@콩심었어님 겨우 이런 용도로 맥 생태계를 넓히려는 시도를 하는 것 같진 않습니다. 만약 정말 관심이 있었다면 오픈클로 개발자가 openai로 가는게 아니라 오픈클로 같은 앱 자체를 애플이 인수했겠죠.
그리고 애플 램 옵션은 정확히는 현물 가격과 연동하는게 아니라 전자제품 옵션 같은 느낌이라 기가당 얼마로 계산이 맞진 않았습니다. 그냥 몇단계가 얼마 두단계 업글하면 얼마 이런 느낌..

글쎄요... 메모리 칩을 쌓아뒀다면 모를까... 쌓아뒀더라도 애플 입장에서 수익에 악영향을 주는 램값 상황을 가격에 안할 거라는 기대는 애플을 너무 착하게 보는게 아닐까 싶습니다.
rA9rA9free
IP 223.♡.176.85
02-20 2026-02-20 15:29:21
·
레딧머신이...
브그
IP 129.♡.65.8
02-20 2026-02-20 15:55:13
·
제가 Mac studio M2 Ultra 128GB 사양으로 gpt-oss-120B 를 구동해보면... 많이 느립니다. 아마 512GB 면 쾌적할 순 있겠지만 제가 직접 해보질 않아서... 그러나 제 맥에서 gpt-oss-20B 구동시에도 아주 쾌적하지 않은 걸 보면 아마 로컬 LLM 구동의 한계는 있을 거예요. 요약) 돌긴 돌아도 쾌적하진 않을 수 있을 듯
OLIVER
IP 140.♡.29.2
02-20 2026-02-20 16:06:47 / 수정일: 2026-02-20 18:50:05
·
로컬모델이 지금보다 성능이 계속 좋아질건 확실할거 같아서 저는 해볼만 할거 같습니다.
물론 지금 당장도 아니고 개인적인 용도로도 아니고.. 예를들어 스타트업 창업하고 자본이 좀 있거나 시드 투자 받았다고 치면, 1명 채용 덜하는 대신 시원하게 지를거 같습니다. (물론 할부로...)

식대 커피간식 교통비 같은 복지지출부터 수당 연봉인상 과로 조퇴 결근 병가 없고, 연휴에 24시간 일시켜도 불평불만 없잖아요. 추가비용이나 인상요인 없는 고정비이고...
일단 부가세 10% 480만원은 세액공제 들어가고ㅎㅎ 계속 감가상각 처리하다 나중엔 중고로 처분해도 되구요..
여러모로 가성비인거 같은데요..
아마티
IP 58.♡.230.60
02-20 2026-02-20 16:55:04
·
@OLIVER님 솔직히 일개 개발자 입장에선 가장 무서운게 이겁니다. 자기가 창업할 수 있는 능동적인 사람이라면 모르겠지만, 저 월급 없고 24시간 일할 수 있다는 부분은 언제든지 본인한테도 비교될 수 있는 항목이거든요.
콩심었어
IP 118.♡.5.52
02-20 2026-02-20 17:05:21 / 수정일: 2026-02-20 17:32:48
·
@OLIVER님
보안 완벽, 24시간 무제한 사용, (일 8시간 일하는)신입연봉 1.5년 분.

클라우드 서비스 사용할 때의 월당 수백~천 몇 백 사용료 절감.

지금 로컬 모델들(400B~1T) 수준이 클라우드 모델들 몇 달 전 수준인데, 따라서 잘 만 사용하면 1.5년 만에 본전 뽑고, 기술 개발에 맞춰서 강력한 로컬모델들 업데이트 해 가면서 사용.

완벽하죠.
pillll
IP 222.♡.172.130
02-20 2026-02-20 17:57:57 / 수정일: 2026-02-20 17:58:30
·
단순하게 봐서는
현재든 미래든
클라우드든 로컬이든

AI처리의 매커니즘이 획기적으로 바뀌지 않는 한
제일 중요한건 '메모리' 반도체겠구나 싶네요
그 다음은 전력이고요

기승전 삼전닉스...
케이K
IP 118.♡.24.94
02-20 2026-02-20 17:58:39
·
엑소로 DGX와 맥스튜디오 병렬 구조로 구축할까 고민하고 비용만 걱정하고 있었는데 직접 실행하신 분이 계시군요.
왠지 부럽습니다
새로운 댓글이 없습니다.
이미지 최대 업로드 용량 15 MB / 업로드 가능 확장자 jpg,gif,png,jpeg,webp
지나치게 큰 이미지의 크기는 조정될 수 있습니다.
목록으로
글쓰기
글쓰기
목록으로 댓글보기 이전글 다음글
아이디  ·  비밀번호 찾기 회원가입
이용규칙 운영알림판 운영소통 재검토요청 도움말 버그신고
개인정보처리방침 이용약관 책임의 한계와 법적고지 청소년 보호정책
©   •  CLIEN.NET
보안 강화를 위한 이메일 인증
안전한 서비스 이용을 위해 이메일 인증을 완료해 주세요. 현재 회원님은 이메일 인증이 완료되지 않은 상태입니다.
최근 급증하는 해킹 및 도용 시도로부터 계정을 보호하기 위해 인증 절차가 강화되었습니다.

  • 이메일 미인증 시 글쓰기, 댓글 작성 등 게시판 활동이 제한됩니다.
  • 이후 새로운 기기에서 로그인할 때마다 반드시 이메일 인증을 거쳐야 합니다.
  • 2단계 인증 사용 회원도 최초 1회는 반드시 인증하여야 합니다.
  • 개인정보에서도 이메일 인증을 할 수 있습니다.
지금 이메일 인증하기
등록된 이메일 주소를 확인하고 인증번호를 입력하여
인증을 완료해 주세요.