CLIEN

본문 바로가기 메뉴 바로가기 보기설정 테마설정
톺아보기 공감글
커뮤니티 커뮤니티전체 C 모두의광장 F 모두의공원 I 사진게시판 Q 아무거나질문 D 정보와자료 N 새로운소식 T 유용한사이트 P 자료실 E 강좌/사용기 L 팁과강좌 U 사용기 · 체험단사용기 W 사고팔고 J 알뜰구매 S 회원중고장터 B 직접홍보 · 보험상담실 H 클리앙홈
소모임 소모임전체 ·굴러간당 ·아이포니앙 ·주식한당 ·MaClien ·일본산당 ·방탄소년당 ·자전거당 ·개발한당 ·AI당 ·이륜차당 ·안드로메당 ·콘솔한당 ·소시당 ·소셜게임한당 ·걸그룹당 ·골프당 ·키보드당 ·갖고다닌당 ·육아당 ·노젓는당 ·퐁당퐁당 ·나스당 ·PC튜닝한당 ·테니스친당 ·위스키당 ·디아블로당 ·IoT당 ·바다건너당 ·라즈베리파이당 ·클다방 ·여행을떠난당 ·어학당 ·3D메이킹 ·X세대당 ·ADHD당 ·AI그림당 ·날아간당 ·사과시계당 ·배드민턴당 ·야구당 ·농구당 ·블랙베리당 ·곰돌이당 ·비어있당 ·FM당구당 ·블록체인당 ·보드게임당 ·활자중독당 ·볼링친당 ·캠핑간당 ·냐옹이당 ·문명하셨당 ·클래시앙 ·요리한당 ·쿠키런당 ·대구당 ·DANGER당 ·뚝딱뚝당 ·개판이당 ·동숲한당 ·날아올랑 ·전기자전거당 ·e북본당 ·이브한당 ·패셔니앙 ·물고기당 ·도시어부당 ·FM한당 ·맛있겠당 ·포뮬러당 ·젬워한당 ·안경쓴당 ·차턴당 ·총쏜당 ·땀흘린당 ·하스스톤한당 ·히어로즈한당 ·인스타한당 ·KARA당 ·꼬들한당 ·덕질한당 ·가죽당 ·레고당 ·리눅서당 ·LOLien ·Mabinogien ·임시소모임 ·미드당 ·밀리터리당 ·땅판당 ·헌팅한당 ·오른당 ·영화본당 ·MTG한당 ·소리당 ·노키앙 ·적는당 ·방송한당 ·찰칵찍당 ·그림그린당 ·소풍간당 ·심는당 ·패스오브엑자일당 ·품앱이당 ·리듬탄당 ·달린당 ·Sea마당 ·SimSim하당 ·심야식당 ·윈태블릿당 ·미끄러진당 ·축구당 ·나혼자산당 ·스타한당 ·스팀한당 ·파도탄당 ·테스트당 ·빨콩이당 ·공대시계당 ·터치패드당 ·트윗당 ·가상화폐당 ·창업한당 ·VR당 ·시계찬당 ·WebOs당 ·와인마신당 ·WOW당 ·윈폰이당
임시소모임
고객지원
  • 게시물 삭제 요청
  • 불법촬영물등 신고
  • 쪽지 신고
  • 닉네임 신고
  • 제보 및 기타 제안
© CLIEN.NET
공지[점검] 잠시후 서비스 점검을 위해 약 30분간 접속이 차단됩니다. (금일 18:15 ~ 18:45)

모두의공원

온디바이스 AI에 대한 제 예상입니다. 8

1
2026-05-02 08:04:27 수정일 : 2026-05-02 08:08:51 122.♡.56.205
천문공

전 온디바이스를 두 가지로 구분해서 보아야 한다고 생각합니다.


- 기능

- 지식


이렇게 구분하는 이유가 있습니다.

앞으로 어찌 될지... 아무도 모르는 일이지만...


# 기능 

기능을 강조한다는 말은 달리 말하면 지식이 부족해도 큰 상관이 없는 작업을 뜻합니다.

그런데 생각보다 적습니다.

왜냐면 지식의 양이 결과의 퀄리티에 생각 보다 깊이 관여 되어 있어서입니다.

그렇다면 절충점을 찾을 수 있습니다.

기능 또한 두 가지로 나누어서,

말 그대로 사진 보정 하거나 폴더 내 파일 정리와 같은  8B 이하에서도 충분히 만족할 만한 성능을 위한 최소 지식 수준을 갖는 경우와 보다 높은 만족도를 꾀하고자 하는 12B 정도의 모델을 말입니다.


# 지식

지식의 양에 따라 답변의 퀄리티가 달라집니다.

예를 들어 고민 상담이 가장 많이 쓰이는 용도라고 하는데,

이런 것들은 어휘로 드러나는 감성의 영역을 포괄하며

관련 설문조사 통계로 보면 가장 많은 사용의 이유가 고민 상담이었습니다.


이렇게 나누어서 보는 이유는
과연 챗지피티, 제미나이, 그록, 클로드 등을 

스마트폰을 필두로 한 온디바이스로 대체할 때 역체감이 심하지 않을 수 있을까...

라는 질문 때문입니다.


즉, 현 사용자가 역체감을 최소화 하면서 사용하기 위한 지식의 양...

전 대략 30B 전후로 보고 있습니다.

로컬 모델의 업데이트가 진행 될 때 마다 반복 테스트를 해보면,

동 사이즈 대비해서 엄청난 성능 향상이 있었음을 체감할 수 있지만,

모델 사이즈가 30B이하와 이상은 그 지식에 따르는 답변의 만족도에서

꽤 크게 갈라졌습니다. 


정리합니다.

대중이 가장 많이 활용하는 방법에 눈높이를 두고 본다면,

30B 가량이 기준이 될 것 같습니다. 이하로는 만족도가 높기 어렵습니다.


배경 없애는 편집, 단순 번역, 폴더 정리 등등은

어떤 용도에 따라 다르지만 4B로도 충분한 케이스가 있으나

프런티어 모델에서 옮겨 올 때의 역체감을 최소화 시키려면

대개 8B 정도는 되어야 하지 않나 싶습니다.


물론 일반적인 온 디바이스 기준이고, 

업무 활용 및 다른 환경을 통합해서 보면...기준 점이 조금 더 올라갑니다.


특히 메모리 가격이 언제 떨어질지 알 수 없는 현실에서는,

과연 폰 안의 모델이 다른 맥이나 데스크탑에서의 활용을 대체 가능할까.. 에선 아닐 것 같습니다.

영역을  분리 할 뿐...




천문공 님의 게시글 댓글
  • 주소복사
  • Facebook
  • X(Twitter)
댓글 • [8]
후방은내게맡겨라
IP 172.♡.52.227
08:17 2026-05-02 08:17:09
·
노타 월요일에 들어 갈까요?
천문공
IP 122.♡.56.205
08:25 2026-05-02 08:25:51
·
@후방은내게맡겨라님
주식 관련한 질문이라면...
우리나라 온디바이스는 관심이 없습니다.
본인 판단으로 하셔야 할 듯 하네요.
주식에 너무 심취하지 않으셨으면 좋겠습니다.
만사 주식과 연관하면 피곤하지 않겠습니까.
후방은내게맡겨라
IP 140.♡.29.2
13:26 2026-05-02 13:26:18
·
@천문공님 헉… 모든 정보를 주식에 환장해 하는 이미지로 웃길까 했는데 실패 했네요 ㅠㅠ
홍천브람스
IP 118.♡.2.18
08:38 2026-05-02 08:38:02 / 수정일: 2026-05-02 08:38:27
·
ai가 살짝만 묻어있어도 체감이 확 나는영역이 아마 있을겁니다. 설비 예방정비쪽 같은곳 말이죠.
ㄷㄷㄷ헐
IP 118.♡.31.6
08:47 2026-05-02 08:47:56
·
ㅇ4비트 양자화 한다 해도 메모리양도 그렇고 휴대폰 성능도 그렇고 먼미래이겠네요
천문공
IP 122.♡.56.205
08:56 2026-05-02 08:56:12
·
@ㄷㄷㄷ헐님
지식도 구분해서 봐야 한다고 보고 있는데요.
2T 이상에선 아직 꽤 많은 발전의 가능성이 있습니다.
그런데 작은 사이즈.. 즉 30B 정도에선...거의 9부 능선은 온 것 같습니다.
학습데이터의 고도화를 말하는 건데요.
이미 거의 ...
2T 이상이 다른 것은 고도로 정제 된 데이터가 이 정도 이상으로 있지 않아서...
더 만들어 가야 하는 과정 중.


말씀하신 4비트 양자화해도 지식이 받쳐주는 경우 추론과 기억까지 감안하면
32GB는 되어야 하니... 지식 쪽의 대체는 어렵고,
학습 보단 못하지만 작은 모델의 기능적인 부분과 검색을 더한 ..
절충 된 서비스는 괜찮을 것 같습니다.
음성사서함
IP 211.♡.180.95
10:08 2026-05-02 10:08:42
·
MoE냐 Dense냐에 따라 또 달라지긴 하겠지만, 저도 대체적으로 30B가 쓸만한 사용자 경험의 기준인 것 같습니다.

그런데 유의해서 봐야할 점은 2년 전까지만 해도 그 기준이 70B였다는거죠. 그 사이에 2배 넘게 줄었습니다. 10B 이하 모델은 맞춤법 수정, 번역 작업 같은 기본 언어 기능 외에는 못써먹을 수준이었는데 이제 tool calling 등 agentic한 용도로는 어느정도 쓸만한 수준까지 올라왔구요.

어디까지 발전할지는 알 수 없지만 개인적으로는 1년 이내에 현재 30B 모델 정도의 성능을 내는 10-15B 모델이 나오리라 기대하고 있습니다. 그정도면 폰에서도 돌릴만 하거든요.
천문공
IP 122.♡.56.205
13:02 2026-05-02 13:02:36 / 수정일: 2026-05-02 13:04:28
·
@음성사서함님
정답은 모른다...가 아닐까 싶습니다.
다만, 각자의 판단이 있는 것이고,
전 이미 작은 사이즈에선 학습 데이터가 거의 최고조에 가까워져 있다고 보고 있습니다. 머리 끝까지는 모르겠지만 어깨 위로는 갔다고 보는 것입니다.
1년 전에는 허리였다가 이제는 어깨까지 왔기에 Qwen3.6이나 젬마4가 그 정도까지 왔다고 본 것입니다.
위에 댓글에도 달았지만 큰 모델의 경우 최적화된 데이터가 아직도 모자라기 때문에 이것을 확보하기 위한 전쟁이 벌어지고 있습니다. 아직 더 나아질 여지가 좀 더 많다는 것이고요.

기능적으로는 나아질 구석이 많겠죠. 말씀하신 tool 관련해서요. 저도 이 쪽으로는 꽤 남아 있다고 보고 있습니다.
그래서 성능 면에서...는 말씀하신 사이즈까지 내려가겠지만,
그것이 얽혀 있는 지식은... 힘들다고 보는 것입니다.

그 예로 지식 관련 벤치 점수는... 생각 보다 잘 안 오르고 있습니다.
에이전트, 멀티 모달 쪽으로 쑥쑥 오르는 것에 비해 상대적으로요.

지식의 부족에도 불구하고 최대한의 성능을 낼 수 있게 하겠지만,
지식의 부족을 완전히 메꿀 수... 어렵지 않나.. 하는 것이죠.
이런 판단은 30B의 학습 데이터가 현재 이미 최적화 되어 있다고 보는 관점에서의 판단입니다.
제 생각과 달리 아직 작은사이즈의 최적화도 갈길이 많아 남아있다면...
말씀하신대로 될 수도 있겠습니다.
새로운 댓글이 없습니다.
이미지 최대 업로드 용량 15 MB / 업로드 가능 확장자 jpg,gif,png,jpeg,webp
지나치게 큰 이미지의 크기는 조정될 수 있습니다.
목록으로
글쓰기
글쓰기
목록으로 댓글보기 이전글 다음글
아이디  ·  비밀번호 찾기 회원가입
이용규칙 운영알림판 운영소통 재검토요청 도움말 버그신고
개인정보처리방침 이용약관 책임의 한계와 법적고지 청소년 보호정책
©   •  CLIEN.NET
보안 강화를 위한 이메일 인증
안전한 서비스 이용을 위해 이메일 인증을 완료해 주세요. 현재 회원님은 이메일 인증이 완료되지 않은 상태입니다.
최근 급증하는 해킹 및 도용 시도로부터 계정을 보호하기 위해 인증 절차가 강화되었습니다.

  • 이메일 미인증 시 글쓰기, 댓글 작성 등 게시판 활동이 제한됩니다.
  • 이후 새로운 기기에서 로그인할 때마다 반드시 이메일 인증을 거쳐야 합니다.
  • 2단계 인증 사용 회원도 최초 1회는 반드시 인증하여야 합니다.
  • 개인정보에서도 이메일 인증을 할 수 있습니다.
지금 이메일 인증하기
등록된 이메일 주소를 확인하고 인증번호를 입력하여
인증을 완료해 주세요.