CLIEN

본문 바로가기 메뉴 바로가기 보기설정 테마설정
톺아보기 공감글
커뮤니티 커뮤니티전체 C 모두의광장 F 모두의공원 I 사진게시판 Q 아무거나질문 D 정보와자료 N 새로운소식 T 유용한사이트 P 자료실 E 강좌/사용기 L 팁과강좌 U 사용기 · 체험단사용기 W 사고팔고 J 알뜰구매 S 회원중고장터 B 직접홍보 · 보험상담실 H 클리앙홈
소모임 소모임전체 ·굴러간당 ·주식한당 ·아이포니앙 ·MaClien ·방탄소년당 ·일본산당 ·개발한당 ·소시당 ·자전거당 ·이륜차당 ·AI당 ·패스오브엑자일당 ·안드로메당 ·바다건너당 ·나스당 ·클다방 ·곰돌이당 ·가상화폐당 ·키보드당 ·리눅서당 ·사과시계당 ·소셜게임한당 ·물고기당 ·전기자전거당 ·골프당 ·노젓는당 ·걸그룹당 ·콘솔한당 ·노키앙 ·윈폰이당 ·축구당 ·여행을떠난당 ·디아블로당 ·찰칵찍당 ·3D메이킹 ·X세대당 ·ADHD당 ·AI그림당 ·날아간당 ·육아당 ·배드민턴당 ·야구당 ·농구당 ·블랙베리당 ·비어있당 ·FM당구당 ·블록체인당 ·보드게임당 ·활자중독당 ·볼링친당 ·캠핑간당 ·냐옹이당 ·문명하셨당 ·클래시앙 ·요리한당 ·쿠키런당 ·대구당 ·DANGER당 ·뚝딱뚝당 ·개판이당 ·동숲한당 ·날아올랑 ·e북본당 ·갖고다닌당 ·이브한당 ·패셔니앙 ·도시어부당 ·FM한당 ·맛있겠당 ·포뮬러당 ·젬워한당 ·안경쓴당 ·차턴당 ·총쏜당 ·땀흘린당 ·하스스톤한당 ·히어로즈한당 ·인스타한당 ·IoT당 ·KARA당 ·꼬들한당 ·덕질한당 ·어학당 ·가죽당 ·레고당 ·LOLien ·Mabinogien ·임시소모임 ·미드당 ·밀리터리당 ·땅판당 ·헌팅한당 ·오른당 ·영화본당 ·MTG한당 ·소리당 ·적는당 ·방송한당 ·PC튜닝한당 ·그림그린당 ·소풍간당 ·심는당 ·라즈베리파이당 ·품앱이당 ·리듬탄당 ·달린당 ·Sea마당 ·SimSim하당 ·심야식당 ·윈태블릿당 ·미끄러진당 ·나혼자산당 ·스타한당 ·스팀한당 ·파도탄당 ·퐁당퐁당 ·테니스친당 ·테스트당 ·빨콩이당 ·공대시계당 ·터치패드당 ·트윗당 ·창업한당 ·VR당 ·시계찬당 ·WebOs당 ·위스키당 ·와인마신당 ·WOW당
임시소모임
고객지원
  • 게시물 삭제 요청
  • 불법촬영물등 신고
  • 쪽지 신고
  • 닉네임 신고
  • 제보 및 기타 제안
© CLIEN.NET
공지[점검] 잠시후 서비스 점검을 위해 약 30분간 접속이 차단됩니다. (금일 18:15 ~ 18:45)

모두의공원

터보퀀트관련 ai 발전에 하드웨어와 소프트웨어의 동시 발전은 필연적이죠 8

1
2026-03-26 11:43:13 수정일 : 2026-03-26 11:46:37 59.♡.182.175
memberst

터보퀀트가 나온다고 해서 메모리 수요가 극적으로 줄지는 않을겁니다 오히려..

기존에 ai 접근이 힘든 로컬하드웨어에서 접근성이 더 올라가서 실제 사용자 

수요는 배로 증가할것으로 예상됩니다 

지금도 로컬에서 ai 돌릴려면 128gb 메모리로도 부족한 경우가 허다 하니깐요 

로컬 llm이 1/6 수준으로 작동 한다면 128gb 정도되는 고용량 메모리 수요는 오히려 상대적으로 늘어날겁니다

물론 가격은 하락하겠지만 시장 수요 자체는 전체적으로 늘어날 가능성이 큽니다 


이게 우리가 흔히 이야기 하는 비용절감의 사례죠 

ai 기업들도 메모리랑 처리속도 최적화에 엄청난 비용을 투자하는 이유고요 

개인적으로 앞으로 3년안에 로컬ai 수요 창출이 가능한 영역으로는 GPU 처럼 

개인 PC에 별도의 NPU가 장착 되지 않을까 합니다


memberst 님의 게시글 댓글
SIGNATURE
조태흠 기자님 안녕하세요 
고소는 하지마세요

아참 뉴스타파 많이들 도와주세요 
https://www.newstapa.org/donate_info 

서명 더 보기 서명 가리기
  • 주소복사
  • Facebook
  • X(Twitter)
댓글 • [8]
자연지능
IP 221.♡.82.48
03-26 2026-03-26 12:06:08
·
제 생각에는 터보퀀트로 인해 LLM이 사용하는 메모리 량이 1/6로 줄어드는 것이 아니라
LLM이 다룰 수 있는 메모리 량이 6배로 늘어날 것 같아요.. ^^
섬마을생산직
IP 106.♡.3.236
03-26 2026-03-26 12:18:02
·
이미 클로드에서는 채팅이 길어지면 메모리 압축 들어가던데요. 터보퀀트도 비슷한 기술 아닐까요?
macman
IP 103.♡.62.247
03-26 2026-03-26 12:21:40
·
로컬 에이전트가 대중화가 되고 수요가 만배쯤 늘겠죠ㅎㅎ
말님
IP 182.♡.71.59
03-26 2026-03-26 13:18:58 / 수정일: 2026-03-26 13:27:57
·
GPU 메모리 사용량 (예: 10B 모델, 4bit 양자화, 32K 컨텍스트)

저도 궁금해서, 구글 블로그글을 클로드에 주고 문답을 해봤어요.
기존의 모델 사이즈에는 적용되지 않고, 추론시에, '컨텍스트' 에 사용되는
메모리의 크기를 줄일 수 있다고 하네요. 구글 발표로는 크기는 6배, 속도는 8배
대단한 기술은 맞긴 한거 같아요. 위에 있는 그림은 클로드가 수고해 줬습니다.
소금망치
IP 106.♡.226.234
03-26 2026-03-26 13:21:10
·
압축/해제시 loss율이 Zero 영역에 가깝다면 이거야말로 대박일텐데..
그게아닌, 속도와 용량의 타협점을 찾는거라면..결국 가진자만 더 많은 용량을 확보할것 같습니다.
블루텀
IP 202.♡.5.119
03-26 2026-03-26 13:23:09
·
반대로 메모리가 내는 효율이 6배가 올라가는 거니 가치도 6배 올라가는 거 아닐까요? 대신 AI가 순간 더 똑똑해 질테구요. ㄷㄷ
솔라
IP 218.♡.78.90
03-26 2026-03-26 13:47:23
·
메모리를 6배 절약한다는 말은 과거 기술과의 이론적인 계산일 뿐 실제는 그렇지 않습니다. 왜냐하면 이미 KV캐시를 줄이는 여러 기술을 쓰고 있기 때문에 논문에서 비교대상으로 삼은 llama 3.1같은 예전 트랜스포머랑의 비교와는 다르기 때문이죠.
설사 효과가 생겨서 메모리 소요량이 적어졌다고 하더라도 현재의 성능 경쟁에서는 실사용성을 늘려서 오히려 더 많은 수요가 생길 가능성이 늘겠죠.
전에는 별로 쓸만하지 않았는데 이제 쓸만해지는 단계에 더 빨리 올라가면 여러 분야에서 수요가 더 올라갈 겁니다.
Mr.UN
IP 14.♡.43.15
03-27 2026-03-27 10:21:03
·
KV캐시 절약 기술은 다양하게 많고, 실제로 IBM의 Granite 4 시리즈 등은 컨텍스트 크기를 키워도 KV캐시 추가요구가 현저히 적습니다. 7~10B급 Q4 모델 정도면 4~5GB로 충분히 돌아가기 때문에 개인PC나 모바일기기에서도 문제가 없습니다. 온디바이스 모델은 최상위LLM 같은 백과사전처럼 이용하는 것 보다는 역할 별로 특화 학습된 모델들을 교체해가면서 사용하게될 가능성이 높기 때문에 개인 디바이스의 메모리가 크게 늘어날 가능성도 높지 않다고 봅니다. 지금 그대로의 모바일, PC환경에서 온디바이스 사용 환경이 좋아져서 다양한 시도가 시작될 것으로 생각됩니다.
새로운 댓글이 없습니다.
이미지 최대 업로드 용량 15 MB / 업로드 가능 확장자 jpg,gif,png,jpeg,webp
지나치게 큰 이미지의 크기는 조정될 수 있습니다.
목록으로
글쓰기
글쓰기
목록으로 댓글보기 이전글 다음글
아이디  ·  비밀번호 찾기 회원가입
이용규칙 운영알림판 운영소통 재검토요청 도움말 버그신고
개인정보처리방침 이용약관 책임의 한계와 법적고지 청소년 보호정책
©   •  CLIEN.NET
보안 강화를 위한 이메일 인증
안전한 서비스 이용을 위해 이메일 인증을 완료해 주세요. 현재 회원님은 이메일 인증이 완료되지 않은 상태입니다.
최근 급증하는 해킹 및 도용 시도로부터 계정을 보호하기 위해 인증 절차가 강화되었습니다.

  • 이메일 미인증 시 글쓰기, 댓글 작성 등 게시판 활동이 제한됩니다.
  • 이후 새로운 기기에서 로그인할 때마다 반드시 이메일 인증을 거쳐야 합니다.
  • 2단계 인증 사용 회원도 최초 1회는 반드시 인증하여야 합니다.
  • 개인정보에서도 이메일 인증을 할 수 있습니다.
지금 이메일 인증하기
등록된 이메일 주소를 확인하고 인증번호를 입력하여
인증을 완료해 주세요.