CLIEN

본문 바로가기 메뉴 바로가기 보기설정 테마설정
톺아보기 공감글
커뮤니티 커뮤니티전체 C 모두의광장 F 모두의공원 I 사진게시판 Q 아무거나질문 D 정보와자료 N 새로운소식 T 유용한사이트 P 자료실 E 강좌/사용기 L 팁과강좌 U 사용기 · 체험단사용기 W 사고팔고 J 알뜰구매 S 회원중고장터 B 직접홍보 · 보험상담실 H 클리앙홈
소모임 소모임전체 ·굴러간당 ·주식한당 ·아이포니앙 ·MaClien ·방탄소년당 ·일본산당 ·개발한당 ·소시당 ·자전거당 ·이륜차당 ·AI당 ·패스오브엑자일당 ·안드로메당 ·바다건너당 ·나스당 ·클다방 ·곰돌이당 ·가상화폐당 ·키보드당 ·리눅서당 ·사과시계당 ·소셜게임한당 ·물고기당 ·전기자전거당 ·골프당 ·노젓는당 ·걸그룹당 ·콘솔한당 ·노키앙 ·윈폰이당 ·축구당 ·여행을떠난당 ·디아블로당 ·찰칵찍당 ·3D메이킹 ·X세대당 ·ADHD당 ·AI그림당 ·날아간당 ·육아당 ·배드민턴당 ·야구당 ·농구당 ·블랙베리당 ·비어있당 ·FM당구당 ·블록체인당 ·보드게임당 ·활자중독당 ·볼링친당 ·캠핑간당 ·냐옹이당 ·문명하셨당 ·클래시앙 ·요리한당 ·쿠키런당 ·대구당 ·DANGER당 ·뚝딱뚝당 ·개판이당 ·동숲한당 ·날아올랑 ·e북본당 ·갖고다닌당 ·이브한당 ·패셔니앙 ·도시어부당 ·FM한당 ·맛있겠당 ·포뮬러당 ·젬워한당 ·안경쓴당 ·차턴당 ·총쏜당 ·땀흘린당 ·하스스톤한당 ·히어로즈한당 ·인스타한당 ·IoT당 ·KARA당 ·꼬들한당 ·덕질한당 ·어학당 ·가죽당 ·레고당 ·LOLien ·Mabinogien ·임시소모임 ·미드당 ·밀리터리당 ·땅판당 ·헌팅한당 ·오른당 ·영화본당 ·MTG한당 ·소리당 ·적는당 ·방송한당 ·PC튜닝한당 ·그림그린당 ·소풍간당 ·심는당 ·라즈베리파이당 ·품앱이당 ·리듬탄당 ·달린당 ·Sea마당 ·SimSim하당 ·심야식당 ·윈태블릿당 ·미끄러진당 ·나혼자산당 ·스타한당 ·스팀한당 ·파도탄당 ·퐁당퐁당 ·테니스친당 ·테스트당 ·빨콩이당 ·공대시계당 ·터치패드당 ·트윗당 ·창업한당 ·VR당 ·시계찬당 ·WebOs당 ·위스키당 ·와인마신당 ·WOW당
임시소모임
고객지원
  • 게시물 삭제 요청
  • 불법촬영물등 신고
  • 쪽지 신고
  • 닉네임 신고
  • 제보 및 기타 제안
© CLIEN.NET
공지[점검] 잠시후 서비스 점검을 위해 약 30분간 접속이 차단됩니다. (금일 18:15 ~ 18:45)

MaClien

질문있어요 LLM 관련 M4 맥북 프로 질문 14

1
2024-10-31 22:56:40 수정일 : 2024-11-01 00:41:27 73.♡.124.251
팸비즐리

안녕하세요,


현재 M1 Pro 맥북프로 32GB RAM을 개인용 노트북으로 사용중입니다. 평소 가벼운 사용은 차고 넘치지만 회사에서는 computer vision 쪽만 하다보니 LLM과 Diffusion 모델로 이것저것 만들어보고 싶어서 맥북을 바꿔보려고 합니다. 현재 맥북으로 LLaMA 7B를 로컬로 사용해보니 실시간 대화를 하기에는 딜레이가 좀 있어 답답하더군요..!


미국에서 구매하는데 세금포함 $3000 미만으로 맞추려다보니 아래 두가지 구성 중 하나를 고민하고 있습니다. 주 사용은 일반 적인 노트북 사용과 local LLM과 Diffusion 모델을 사용하여 이것저것 어플리케이션을 만들기 입니다. 당연히 모델 training은 생각안하고 있고, inference 만 사용하여 여러 applicaiton을 만들거나 pruning 등을 연구해 보고싶습니다. 제가 서칭해서 알아본 정보들인데 어떻게 생각하시나요? LLM에 대해 더 아시는 분들께서 두 옵션중 추천해 주시면 감사하겠습니다.


1. M4 pro - 14-core CPU 20-core GPU and 16 core Neural Engine with 48 GB ram (273GB/s memory)

장점:

- 2번에 비해 12GB 많은 메모리 = 조금 더 큰 모델을 사용가능 및 diffusion 사용에도 범용성이 높아짐

단점:

- Memory Bandwidth가 두배 가까이 차이남 (inference 속도가 느림)

-GPU core 가 두배 가까이 차이남 (inference 속도가 느림)


2. M4 Max - 14-core CPU 32-core GPU and 16 core Neural Engine with 36 GB ram (410/s memory bandwidth)

장점:

- 1번에 비해 GPU core가 많고 Memory Bandwidth 가 빨라 inference 가 빠름

단점:

48GB 메모리는 0.75배 까지 VRAM에 할당 가능한데, 36 GB 메모리는 약 0.66배 정도의 메모리만 VRAM에 할당 가능 -복잡한 7B 모델 사용시 메모양의 부족으로 느려짐(?)


정리해보니 12GB 메모리 차이와 (48GB와 36GB), 그에 따른 가용 VRAM, 그리고 Memory Bandwidth 차이가 관건인데, 이중에 뭐가 더 제 용도에 조금이라도 맞을지 추천 해주시면 감사하겠습니다!



----------------------------------------------------------------------------------------------------------------------------------------

저와 비슷한 분이 계실까하여 reddit에서 이 글관련 베스트 댓글을 가져와 봤습니다.

https://www.reddit.com/r/hardware/comments/1gfol2x/comment/lukqdaf/?utm_source=share&utm_medium=web3x&utm_name=web3xcss&utm_term=1&utm_content=share_button


전 옵션 1으로 갈 것 같습니다!!


팸비즐리 님의 게시글 댓글
  • 주소복사
  • Facebook
  • X(Twitter)
댓글 • [14]
시카고핫도그
IP 73.♡.174.51
10-31 2024-10-31 23:04:18
·
이미 쓸만한 맥북 있으신데 굳이 맥북으로 가실 이유가 있을지 모르겠네요
맥미니로 가면 M4 pro 64GB 해도 2000밖에 안 나오는데요
아마 맥스튜디오 기다리시면 M4 max 64기가도 가능할 것 같고요 (울트나 나올때까지 기다려야 해서 이건 좀 오래걸릴수도..)
팸비즐리
IP 73.♡.124.251
10-31 2024-10-31 23:12:20
·
@시카고핫도그님 감사합니다! 맥북을 고르려는 이유는 1. 가끔 주말에 밖에 나가서 논문 읽고 코딩 2. budget상 현 맥북을 처분해서 새 구매에 보태려 합니다. 맥미니 옵션도 생각해봤는데, 개인적으로 가지고 다닐 맥북도 따로 있어야 해서 맥북 에어를 새로 사는 비용까지 하면 budget이 간당간당할 것 같네요..!!

맥미니는 pro만 가능한것 같은데, M4 max vs pro (2x memory bandwidth 포함)에 따른 inference 속도차이는 거의 없을까요?
forecast
IP 183.♡.33.232
10-31 2024-10-31 23:19:26 / 수정일: 2024-10-31 23:20:16
·
https://github.com/XiongjieDai/GPU-Benchmarks-on-LLM-Inference
m1 max m2 ultra m3 max 벤치 보시고 감내할 수 있는 속도인지 판단하시면 될 것 같습니다.
실 사용 경험으로는 본격적으로 chatgpt를 대체하기에는 prompt processing속도가 너무 느려서 추천할만한 선택지는 아니었습니다.
팸비즐리
IP 73.♡.124.251
10-31 2024-10-31 23:33:31
·
@forecast님 정보 정말 감사합니다!! 제 목표는 chatGPT같은 범용성 높은 모델 대체보단, 7B 모델을 (or 8B quantized) 사용해서 domain specific 한 applicaiton을 만들어보는 것 입니다. 예) 사용자의 기분 파악만 classification하는 챗봇.

주신 링크를 들어가보니 M1 MAX가 8B FP16 로드시 프롬프트가 ~355 token/s 답변이 ~18 token/s 인데 제가 알기론 실시간 챗은 8~15 token/s 정도면 되는 것으로 아는데, 실제로 사용해보면 이정도가 안나온다고 생각하면 될까요?
forecast
IP 183.♡.33.232
10-31 2024-10-31 23:51:21 / 수정일: 2024-10-31 23:52:33
·
저는 m3 max에 70b모델을 사용했는데 벤치상 pp속도가 60tk/s니까, 128k context를 던져넣으면 첫 토큰 대답까지 2,100초/35분이 걸리는 구조입니다. 출력은 10tk/s정도면 견딜만 한데 pp속도는 얼만큼의 컨텍스트를 넣으실지 예상해 보세요.
8b모델 쓰시고 컨텍스트 많이 안 넣으실거면 괜찮으실 것 같기도 합니다.
팸비즐리
IP 73.♡.124.251
11-01 2024-11-01 00:01:39
·
@forecast님 아...긴 글 summary 같은 task에서는 확실히 pp속도 때문에 답변 받는 시간이 느려지겠군요. 잘 이해했습니다. context가 클 것 같지는 않은데, pp를 생각하면 위에 두 옵션중에서는 12 GB 메모리를 더 얻는 거보다 GPU 코어와 메모리 bandwidth가 빠른 M4 MAX 36GB가 M4 PRO 48GB보다 나을것 같네요. 어자피 둘다 70B 같은 모델은 힘들것 같으니 말이죠..!
무사고10년
IP 172.♡.69.150
11-01 2024-11-01 00:19:15
·
@forecast님 안녕하세요~ 관련하여 궁금한게 있는데요. m4 max 에서 pp속도를 m3 max 와 비교하여 예상 가능할까요?
Trpimirovic
IP 1.♡.66.155
10-31 2024-10-31 23:40:59
·
차라리 M3 max 128기가 중고를 알아보시는건 어떨까요...
팸비즐리
IP 73.♡.124.251
11-01 2024-11-01 00:02:47
·
@Trpimirovic님 사실 이게 좋은 옵션인건 맞습니다만..개인적으로 새제품을 좋아서요!! ㅎㅎ
팸비즐리
IP 73.♡.124.251
11-01 2024-11-01 00:05:00
·
@Trpimirovic님 찾아보니 refurbished 옵션도 괜찮을 것 같네요! 비슷한 가격에 M2 MAX 65기가 옵션도 있네요!
Trpimirovic
IP 1.♡.66.155
11-01 2024-11-01 20:21:06
·
@팸비즐리님 리퍼도 나쁘지 않죠.
늑대와곰돌이
IP 218.♡.214.178
11-02 2024-11-02 15:04:07
·
저도 비슷한 고민중인데 감사합니다.
ph.d티모
IP 125.♡.248.193
11-03 2024-11-03 11:27:50 / 수정일: 2024-11-03 11:32:34
·
제가 그렇게.. M3 MAX 를 구매했는데.. 후기 입니다. ^^;
https://www.clien.net/service/board/cm_mac/18754985CLIEN

로컬에서 올라마 통해서 돌리는 LLM... 도 동작시켜보았습니다만,
뭐하나 돌리면 30~35초.. 품질도 chatGPT보다 떨어지고..
그래서.. 그냥 chatGPT 돌립니다;;
늑대와곰돌이
IP 106.♡.228.18
11-05 2024-11-05 12:53:56
·
@ph.d티모님 700만원짜리 m4 max고민중에 .. 감사합니다. 그냥 가볍게 가는게 최고군요.
새로운 댓글이 없습니다.
이미지 최대 업로드 용량 15 MB / 업로드 가능 확장자 jpg,gif,png,jpeg,webp
지나치게 큰 이미지의 크기는 조정될 수 있습니다.
목록으로
글쓰기
글쓰기
목록으로 댓글보기 이전글 다음글
아이디  ·  비밀번호 찾기 회원가입
이용규칙 운영알림판 운영소통 재검토요청 도움말 버그신고
개인정보처리방침 이용약관 책임의 한계와 법적고지 청소년 보호정책
©   •  CLIEN.NET
보안 강화를 위한 이메일 인증
안전한 서비스 이용을 위해 이메일 인증을 완료해 주세요. 현재 회원님은 이메일 인증이 완료되지 않은 상태입니다.
최근 급증하는 해킹 및 도용 시도로부터 계정을 보호하기 위해 인증 절차가 강화되었습니다.

  • 이메일 미인증 시 글쓰기, 댓글 작성 등 게시판 활동이 제한됩니다.
  • 이후 새로운 기기에서 로그인할 때마다 반드시 이메일 인증을 거쳐야 합니다.
  • 2단계 인증 사용 회원도 최초 1회는 반드시 인증하여야 합니다.
  • 개인정보에서도 이메일 인증을 할 수 있습니다.
지금 이메일 인증하기
등록된 이메일 주소를 확인하고 인증번호를 입력하여
인증을 완료해 주세요.