개발한당에 올렸던 글을 AI당 있는거 알아서 여기도 올립니다.

제가 사용 중인 제품은 NVIDIA 레퍼런스 모델이 아니라 MSI에서 만든 EdgeXpert 버전입니다. 그래픽카드도 레퍼런스보다 커스텀 제품을 더 많이 쓰는 것처럼, 이왕이면 신뢰할 수 있는 제조사 제품을 선택하는 게 낫다고 생각했습니다.
■ AI 슈퍼컴퓨터?
패키지 박스에도 그렇고 NVIDIA에서도 이 제품을 “AI 슈퍼컴퓨터”라고 홍보하고 있습니다.
실물 크기는 미니 PC 정도 사이즈라서 책상 위에 올려두기 부담 없는 크기입니다.
■ 성능
체감 성능은 대략 RTX 5070 정도 수준으로 느껴집니다.
하지만 이 제품의 핵심은 128GB 통합 메모리입니다.
이 덕분에:
-
최대 200B급 AI 엔진 구동 가능
-
현재는 GPT-OSS 120B를 주력으로 사용 중
-
개인 환경에서 대형 모델을 직접 돌릴 수 있다는 점이 가장 큰 장점
물론 최신 ChatGPT(클라우드 기반 모델)와 비교하면 성능이나 응답 품질에서 부족함은 있습니다.
하지만 개인 PC에서 이 정도 모델을 직접 구동할 수 있다는 점 자체가 상당히 매력적입니다.
■ 장점
1️⃣ 전력 효율
-
대기 전력: 약
37W-> 25W (nvidia 펌웨어 업데이트 이후에 변동) -
GPT-OSS 120B 구동 시: 약 120W 내외
일반적인 고성능 데스크탑보다 오히려 전력 소모가 적습니다.
이 부분은 정말 인상적이었습니다.
2️⃣ 원칩에 가까운 구조
CPU와 GPU가 거의 원칩 구조에 가까운 설계이며,
ARM 기반 + 저전력 통합 메모리 구조라서 전력 효율이 매우 좋습니다.
3️⃣ 로컬 AI 환경 구축 가능
저는 Ollama를 사용해 모델을 올리고 있으며,
Web UI를 붙여서 일반 AI 서비스처럼 사용하고 있습니다.
요즘 핫한 CODEX, Claude Code 계열도 API를 쓰지 않고
DGX SPARK를 통해 완전 로컬 환경에서 구동 가능하다는 점이 큰 장점입니다.
■ 단점
가장 큰 단점은 역시 가격입니다.
-
1TB 모델: 약 550만원
-
4TB 모델: 650~700만원대
가격 부담이 상당합니다.
같은 가격대의 Mac Studio와 비교했을 때 순수 연산 성능은 다소 떨어진다는 평가도 있습니다.
메모리 대역폭 차이가 크기 때문에 이 부분은 구조적인 한계라고 생각됩니다.
■ 꼭 알아둘 점 (중요)
이 제품은 리눅스에 익숙한 사람이 구매하는 것이 좋습니다.
기본적으로 AI 개발 및 모델 구동을 전제로 한 장비이기 때문에:
-
터미널 사용이 익숙해야 하고
-
Docker, CUDA, 드라이버 설정 등에 대한 이해가 필요하며
-
각종 라이브러리 충돌이나 환경 설정 문제를 직접 해결할 수 있어야 합니다
윈도우 기반 일반 PC처럼 “사서 바로 쓰는” 제품은 아닙니다.
어느 정도 개발 환경 세팅 경험이 있는 사용자,
특히 리눅스 환경에서 작업해본 경험이 있는 분들께 적합한 장비라고 생각합니다.
■ 총평
DGX SPARK는
✔️ “최고 가성비” 제품은 아닙니다.
✔️ “절대 성능 최고” 제품도 아닙니다.
하지만
대형 AI 모델을 로컬에서 직접 돌리고 싶은 사람에게는 매우 매력적인 선택지입니다.
전력 효율, 128GB 통합 메모리, ARM 기반 구조라는 특성이 확실한 차별점이며,
AI 개발자나 개인 연구용 머신으로는 충분히 가치가 있다고 봅니다.
단, 리눅스 및 개발 환경에 익숙한 사용자에게 추천합니다.
내용 추가) ARM64(리눅스) 환경 관련
DGX SPARK는 리눅스 기반이긴 하지만 ARM64 아키텍처라서, 초반 맥 실리콘처럼 호환성 이슈가 체감되는 부분이 있습니다.
예를 들어 크롬(Chrome)은 바로 설치가 어렵고, 대신 Chromium은 설치가 가능합니다. 저는 웹 브라우징이 주 목적은 아니라서 굳이 설치하지 않았고, 기본으로 탑재된 Firefox를 주로 사용하고 있습니다.
개발 환경은 전반적으로 무난합니다. 기본 패키지로 설치 가능한 것들은 대부분 설치가 되고, 만약 특정 라이브러리나 의존성 충돌이 생기면 Docker나 Python venv 가상환경을 활용하면 대체로 해결 가능합니다.
(ARM64 특성상 “그냥 x86처럼 전부 깔리겠지”라고 기대하면 한 번씩 걸리는 지점이 있습니다.)
NVIDIA Sync 관련 (초보자에게 유용하지만 현재는 비권장)
이 장비에는 NVIDIA Sync라는 관리/모니터링 성격의 프로그램이 있어서,
서버 상태 확인이나 서비스 실행 같은 작업을 초보자도 쉽게 할 수 있게 도와주는 도구가 있습니다.
다만 제 경우, 며칠 동안은 잘 동작하다가 OS 업그레이드 이후 접속이 되지 않는 문제가 발생했습니다.
원인 분석을 깊게 하기도 애매했고, 개인적으로는 필수 기능은 아니라서 별도로 해결하지 않았습니다.
그래서 현 시점 기준으로는 이 기능은 “있으면 좋지만, 안정적으로 쓸 수 있다고 보장하긴 어렵다” 정도로 보시는 게 맞을 것 같습니다.
현재 구성 (제가 설치해서 쓰는 스택)
현재는 아래 정도를 설치해서 사용 중입니다.
-
Ollama + WebUI: 로컬 LLM 구동 및 일반 서비스처럼 사용
-
ComfyUI: 이미지 생성 워크플로우
-
OpenClaw: 요즘 핫한 로컬 AI 비서/에이전트 도구
DGX SPEARK 에서 GPT-OSS 120B로 돌린 샘플
https://wipi.ai.kr/htmlList.html 1페이지에 있는게 GPT-OSS 작업 내역
https://wipi.ai.kr/ko/%ED%95%B4%EB%B0%80%EB%A6%AC
https://wipi.ai.kr/ko/%EB%94%A5%EB%9F%AC%EB%8B%9D
https://wipi.ai.kr/ko/%EA%B9%80%EC%9B%94%EC%9A%A9
https://wipi.ai.kr/ko/%EC%B9%B4%EB%A6%AC%20%ED%8E%98%EC%9D%B4%ED%84%B4
전 LLM 모델 파인튜닝을 해보고 싶어 구입했는데
장점 : 메모리가 충분해 큰 모델 파인튜닝이 가능하다
단점 : gemma3-27b 모델에 5만개 정도 데이터로 파인튜닝 하는데 2박 3일 걸린다
라는 장단점이 있네요.
파인튜닝 용으로는 5070 보단 3080이나 4070 정도 성능이 나오는 것 같아요.
그래도 "할 수 있다"는 장점이 더 크고, 말씀하신 용도의 전용 LLM 서버로 돌릴 수 있다는 매력도 있습니다.