CLIEN

본문 바로가기 메뉴 바로가기 보기설정 테마설정
톺아보기 공감글
커뮤니티 커뮤니티전체 C 모두의광장 F 모두의공원 I 사진게시판 Q 아무거나질문 D 정보와자료 N 새로운소식 T 유용한사이트 P 자료실 E 강좌/사용기 L 팁과강좌 U 사용기 · 체험단사용기 W 사고팔고 J 알뜰구매 S 회원중고장터 B 직접홍보 · 보험상담실 H 클리앙홈
소모임 소모임전체 ·굴러간당 ·방탄소년당 ·아이포니앙 ·MaClien ·주식한당 ·일본산당 ·개발한당 ·자전거당 ·이륜차당 ·바다건너당 ·안드로메당 ·클다방 ·AI당 ·소시당 ·노젓는당 ·찰칵찍당 ·가상화폐당 ·VR당 ·물고기당 ·여행을떠난당 ·소셜게임한당 ·걸그룹당 ·달린당 ·패스오브엑자일당 ·골프당 ·콘솔한당 ·나스당 ·캠핑간당 ·개판이당 ·전기자전거당 ·e북본당 ·키보드당 ·육아당 ·3D메이킹 ·X세대당 ·ADHD당 ·AI그림당 ·날아간당 ·사과시계당 ·배드민턴당 ·야구당 ·농구당 ·블랙베리당 ·곰돌이당 ·비어있당 ·FM당구당 ·블록체인당 ·보드게임당 ·활자중독당 ·볼링친당 ·냐옹이당 ·문명하셨당 ·클래시앙 ·요리한당 ·쿠키런당 ·대구당 ·DANGER당 ·뚝딱뚝당 ·디아블로당 ·동숲한당 ·날아올랑 ·갖고다닌당 ·이브한당 ·패셔니앙 ·도시어부당 ·FM한당 ·맛있겠당 ·포뮬러당 ·젬워한당 ·안경쓴당 ·차턴당 ·총쏜당 ·땀흘린당 ·하스스톤한당 ·히어로즈한당 ·인스타한당 ·IoT당 ·KARA당 ·꼬들한당 ·덕질한당 ·어학당 ·가죽당 ·레고당 ·리눅서당 ·LOLien ·Mabinogien ·임시소모임 ·미드당 ·밀리터리당 ·땅판당 ·헌팅한당 ·오른당 ·영화본당 ·MTG한당 ·소리당 ·노키앙 ·적는당 ·방송한당 ·PC튜닝한당 ·그림그린당 ·소풍간당 ·심는당 ·라즈베리파이당 ·품앱이당 ·리듬탄당 ·Sea마당 ·SimSim하당 ·심야식당 ·윈태블릿당 ·미끄러진당 ·축구당 ·나혼자산당 ·스타한당 ·스팀한당 ·파도탄당 ·퐁당퐁당 ·테니스친당 ·테스트당 ·빨콩이당 ·공대시계당 ·터치패드당 ·트윗당 ·창업한당 ·시계찬당 ·WebOs당 ·위스키당 ·와인마신당 ·WOW당 ·윈폰이당
임시소모임
고객지원
  • 게시물 삭제 요청
  • 불법촬영물등 신고
  • 쪽지 신고
  • 닉네임 신고
  • 제보 및 기타 제안
© CLIEN.NET
공지[점검] 잠시후 서비스 점검을 위해 약 30분간 접속이 차단됩니다. (금일 18:15 ~ 18:45)

모두의공원

로컬 LLM은 왠지 최적의 사이즈로 내놓지 않는 느낌인데요. 8

1
2026-04-17 16:07:29 수정일 : 2026-04-17 16:09:01 122.♡.56.205
천문공

이 글은 그저 뇌피셜입니다. ㅎㅎ


보통 양자화를 해서 쓰는데요.

vram이 8GB면 시도가 어렵고,

대개 가장 많이 로컬을 찾는 브램이 16GB라고 보면,

양자화를 했을 때 4Q가 되어야 손실이 많지 않습니다.


최적은 Q4_K_S가 아니라 Q4_K_M입니다.

Q4_K_M의 용량이 27B 기준으로 양자화를 하면 대략 15GB 전후가 됩니다.

그럼 컨텍스트 할당량이 거의 없게 되죠.


물론 테스트 삼아 쓸 때는 오프로딩 하면 되지만...

실사용에서는 무리겠죠.


그렇다면 Q4_K_M 로 양자화 했을 때의 최적의 용량은

11GB 이내라고 볼 수 있습니다.

더군다나 근래에는 KV캐시 관련 연구가 뜨거운 상태라

컨텍스트를 128K 정도는 쓸 수 있게 될 듯 합니다.

256K는 좀... 브램이 커야 되고요.


암튼,

Q4_K_M 11GB 안쪽으로 나오면 21B 사이즈로 나와줘야 될텐데...

이 사이즈는 하나같이 피하더란 말이죠..ㅎㅎ

이 문제 제기가 뇌피셜입니다. ㅎㅎ 왠지 사용자층 많은 로컬은 피하는 거 아닐까....하는,

느낌 적인 느낌이랄까요.

천문공 님의 게시글 댓글
  • 주소복사
  • Facebook
  • X(Twitter)
댓글 • [8]
6116
IP 125.♡.9.34
16:13 2026-04-17 16:13:18
·
맥북이나 맥미니 통합메모리 유저가 더 많을 것 같네요.
비타민아저씨
IP 175.♡.208.55
16:25 2026-04-17 16:25:41 / 수정일: 2026-04-17 16:40:36
·
저도 비슷한 생각을 했습니다. 기업입장에서 결국 수익모델은 클라우드모델의 API과금과 구독요금이니까요. 기술 과시 홍보용으로 오픈소스로 내놓는 건 아슬아슬하게 쓸만하지 않은 정도거나 그돈씨 클라우드모델을 쓰는 게 낫다 싶은 딱 그 정도로만 내놓는게 아닌가 하는.
최근 gemma4 26B가 성능이 좋은 거 같은데, 그 중 일부 layer를 쳐낸 21B 버전과 19B 버전이 있길래 돌려봤더니 하필 한국어layer를 쳐냈더군요... 어떻게 만든 건지 몰라도 중국어를 쳐낸 버전을 내 주면 좋으련만.
happyWorld
IP 218.♡.232.21
16:32 2026-04-17 16:32:27 / 수정일: 2026-04-17 16:33:23
·
애초에 메모리를 64GB 이상으로 쓰면 되겠습니다. 실제 LLM 만 돌리는것이 아니라 부가적인 작업을 한다는 가정하에.
32GB 는 거의 빠듯할꺼 같기도 하구요.
게지히트
IP 223.♡.53.246
16:38 2026-04-17 16:38:33
·
@happyWorld님 글쓰신 분은 vram 말씀하시는것 같습니다. nvidia RTX 계열 컨슈머급에서는 32기가가 거의 한계죠
nariyada
IP 112.♡.25.78
16:35 2026-04-17 16:35:57
·
그나마 제공하던 중국 회사들도 오픈소스로 더이상 내놓지 않을것 같아서 로컬llm이 더 귀해질듯 합니다.
게지히트
IP 223.♡.53.246
16:36 2026-04-17 16:36:35
·
혹시 llama.cpp 에 있는 cpu offloading 기능 써보셨나요. 파생 엔진인 ik llama 는 특히 offloading 에서도 속도 방어를 상당히 잘합니다.
핫싱크
IP 220.♡.139.63
16:55 2026-04-17 16:55:30
·
전 로컬 llm을 어떻게 써야할 지 잘 모르겠더라구요. 이런 걸 잘 쓰는 분 보면 부럽습니다. 맥 스튜디오에 설치는 했는데, 잘못 쓴 건지 성능이 못 써먹을 수준이고 팬은 미친듯이 돌고요.
nariyada
IP 112.♡.25.78
16:58 2026-04-17 16:58:54
·
@핫싱크님 사용 목적이 분명해야합니다. 파운데이션 모델처럼 두루두루 다 잘하지는 못해요. 텍스트 정리,요약 피드백용으로 구글 젬마 테스트 해보고 있는데 쓸만은 합니다.
새로운 댓글이 없습니다.
이미지 최대 업로드 용량 15 MB / 업로드 가능 확장자 jpg,gif,png,jpeg,webp
지나치게 큰 이미지의 크기는 조정될 수 있습니다.
목록으로
글쓰기
글쓰기
목록으로 댓글보기 이전글 다음글
아이디  ·  비밀번호 찾기 회원가입
이용규칙 운영알림판 운영소통 재검토요청 도움말 버그신고
개인정보처리방침 이용약관 책임의 한계와 법적고지 청소년 보호정책
©   •  CLIEN.NET
보안 강화를 위한 이메일 인증
안전한 서비스 이용을 위해 이메일 인증을 완료해 주세요. 현재 회원님은 이메일 인증이 완료되지 않은 상태입니다.
최근 급증하는 해킹 및 도용 시도로부터 계정을 보호하기 위해 인증 절차가 강화되었습니다.

  • 이메일 미인증 시 글쓰기, 댓글 작성 등 게시판 활동이 제한됩니다.
  • 이후 새로운 기기에서 로그인할 때마다 반드시 이메일 인증을 거쳐야 합니다.
  • 2단계 인증 사용 회원도 최초 1회는 반드시 인증하여야 합니다.
  • 개인정보에서도 이메일 인증을 할 수 있습니다.
지금 이메일 인증하기
등록된 이메일 주소를 확인하고 인증번호를 입력하여
인증을 완료해 주세요.