우리가 쉽게 쓰는 제미나이, ChatGPT, 클로드가 항공모함이라면.. 로컬 LLM은 모터보트 수준입니다.
컨텍스트 지원 범위도 작고 그 컨텍스트를 확실하게 다 처리한다는 보장도 없습니다.
맥미니가 가성비라는건 알지만 LLM에 구동 성능에서 엔비디아 카드랑 비교하면 처첨합니다.
엔비디아 카드도 4090정도나 되야 32B짜리 쓸만하게 돌립니다.
최저사양은 3090이구요.
오픈 클로 돌리실분들은 API연결해서 가상머신으로 일단 도려보고 이거다 싶을때 미니피씨 같은 전용머신을 구매하시는것을 추천합니다.
구글의 경우 처음 GCP결제 정보를 등록하면 버텍스 API 사용가능한 크레딧을 30만원인가 줍니다.
이걸로 제미나이 API공짜로 쓰시면 됩니다.
그리고 제미나이 프로 요금제 이상 구독중이신분들은 한달에 10달러씩 크레딧 주니 이것도 받으셔서 사용하시면 됩니다.
반면 제미나이 물리니 제가 직전 글처럼 잘 돌아가더군요
글픽램이 중요한데 글픽램이 통합이다보니 16기가?를 쓸 수 있어서 어지간한 글픽카드보다 램이 높은셈이라고 하더군요.
그 가격대에서는 가성비라는 얘기죠.
CPU. 메모리. GPU. 뉴런엔진 통합칩이라 대역폭이 넘사벽에다 메모리를 공유하니 탑재된 메모리를 GPU에서 쓸 수 있다는게 큰 메리트입니다.
그것으로 100B 전후로 돌리면 나름 쓸 만한 모델 돌릴 수 있긴 합니다.
그런데, 그 돈이면 그냥 제미나이 연간 구독...ㅎㅎ
절대적 성능과 cuda 생태계를 제외하면 크기, 전력소모량, 발열, 소음…모든면에서 유리하긴 하죠.
애플이 AI에 특화된 맥을 출시하면 끝장나겠어요.
사실 기밀 자료 유출 때문에 로컬 LLM 사용이 강제 될때가 있어서...