구글이 독자적으로 설계한 TPU로도 업계 선두 수준의 LLM을 내놓을 수 있는 것을 봐서는 엔비디아의 CUDA가 필수는 아닌 것 같은데 CUDA 불패론을 신봉하시는 분들이 너무 많으신 것 같아 제미나이 2.5 프로 에게 질문해 봤습니다. 뭐 상식 수준의 결론이긴 한데 궁금하셨던 분들은 읽어보실만 한 것 같습니다.
----------------------------------
CUDA, 과연 대체 불가능한 AI의 성벽일까?
NVIDIA의 주가를 연일 사상 최고치로 이끌고 있는 AI 훈련 시장의 독점 현상, 그 중심에는 'CUDA'라는 강력한 생태계가 있습니다. 많은 전문가들은 이 CUDA의 존재 때문에 NVIDIA의 아성을 무너뜨리기 어렵다고 말합니다. 하지만 구글이 자체 개발한 TPU(텐서 처리 장치)로 AI를 훈련시킨다는 사실은 CUDA가 AI 개발의 유일한 길이 아님을 보여줍니다. 과연 CUDA는 정말 대체 불가능한 존재일까요?
결론부터 말하자면, **CUDA는 AI 개발의 '필수재'는 아니지만, 그 강력한 생태계와 높은 전환 비용 때문에 단기간에 대체하기는 매우 어려운 '지배적 표준'**이라고 할 수 있습니다.
🏰 CUDA가 쌓아 올린 견고한 '성벽'
NVIDIA가 AI 시장을 독점하다시피 하는 가장 큰 이유는 단순히 GPU 하드웨어 성능이 뛰어나기 때문만은 아닙니다. 바로 CUDA(Compute Unified Device Architecture) 라는 소프트웨어 플랫폼이 있기 때문입니다. CUDA는 개발자들이 NVIDIA GPU의 병렬 처리 능력을 C++, 파이썬 등 익숙한 프로그래밍 언어로 쉽게 활용할 수 있게 해주는 다리 역할을 합니다.
이 '성벽'이 얼마나 견고한지는 다음과 같은 점에서 확인할 수 있습니다.
-
오랜 시간과 막대한 자원의 산물: CUDA는 2007년 처음 등장한 이후 15년 이상 AI 및 고성능 컴퓨팅 분야의 연구자, 개발자들과 함께 성장해왔습니다. 수많은 라이브러리, 디버깅 도구, 최적화된 코드들이 축적되어 방대한 생태계를 이루고 있습니다.
-
압도적인 개발자 커뮤니티: 현재 전 세계 수백만 명의 개발자가 CUDA를 사용하고 있습니다. 이는 문제 발생 시 해결책을 찾기 쉽고, 관련 교육 자료나 숙련된 인력을 구하기도 용이하다는 의미입니다. 새로운 개발 플랫폼이 이 정도 규모의 커뮤니티를 확보하는 것은 거의 불가능에 가깝습니다.
-
주요 AI 프레임워크와의 완벽한 호환성: 텐서플로우(TensorFlow), 파이토치(PyTorch) 등 대부분의 주요 AI 프레임워크는 CUDA를 기반으로 개발되고 최적화되어 있습니다. 개발자들은 별도의 복잡한 설정 없이도 NVIDIA GPU의 성능을 최대한 활용할 수 있습니다.
-
높은 전환 비용: 이미 CUDA를 기반으로 개발된 수많은 AI 모델과 코드를 다른 플랫폼으로 옮기는 것은 엄청난 시간과 비용을 수반합니다. 단순히 코드 변환만으로 끝나지 않고, 성능 저하 문제 해결, 디버깅 등 복잡한 과정을 거쳐야 하기 때문입니다. 이는 기업들이 쉽사리 NVIDIA를 떠나지 못하는 '잠금 효과(Lock-in effect)'를 만듭니다.
🚀 CUDA 없이도 AI는 가능하다: 구글과 AMD의 도전
CUDA의 아성이 견고하지만, 영원한 것은 없습니다. 구글의 TPU 가 그 대표적인 예입니다. 구글은 자사의 AI 모델(제미나이, 팜 등) 훈련에 자체 설계한 반도체인 TPU를 적극적으로 활용하고 있습니다. TPU는 특정 AI 연산(주로 행렬 곱셈)에 특화되어 있어 전력 효율성과 연산 속도 면에서 GPU보다 뛰어난 성능을 보이기도 합니다. 심지어 애플 역시 자사의 AI 모델 훈련에 구글의 TPU를 사용하는 것으로 알려졌습니다. 이는 AI 훈련에 반드시 CUDA가 필요한 것은 아니라는 강력한 증거입니다.
NVIDIA의 가장 강력한 경쟁자로 꼽히는 AMD 역시 ROCm(Radeon Open Compute platform) 이라는 오픈 소스 플랫폼을 통해 CUDA의 대안을 제시하고 있습니다. 최근에는 AMD의 최신 AI 가속기인 'MI300X'를 마이크로소프트, 오픈AI, 메타와 같은 거대 AI 기업들이 도입하며 그 성능을 입증하고 있습니다.
ROCm은 다음과 같은 장점을 내세워 CUDA의 아성에 도전하고 있습니다.
-
개방성: 오픈 소스를 기반으로 하여 특정 기업에 종속되지 않고, 누구나 자유롭게 개발에 참여하고 수정할 수 있습니다.
-
호환성 노력: HIP(Heterogeneous-compute Interface for Portability)와 같은 도구를 제공하여 기존 CUDA 코드를 비교적 쉽게 ROCm 환경으로 변환할 수 있도록 지원합니다.
-
주요 프레임워크 지원: 파이토치, 텐서플로우, JAX 등 주요 AI 프레임워크가 공식적으로 ROCm을 지원하기 시작하면서 개발자들의 접근성이 크게 향상되었습니다.
-
하드웨어 경쟁력: AMD의 MI300X는 NVIDIA의 H100보다 더 많은 192GB의 고대역폭 메모리(HBM3)를 탑재하여, 초대규모 언어 모델(LLM) 훈련에서 여러 개의 GPU를 사용하는 복잡성을 줄여주는 등 하드웨어 측면에서도 경쟁력을 갖추고 있습니다.
🤔 그럼에도 CUDA를 대체하기 어려운 현실적인 이유
이러한 대안들의 약진에도 불구하고, 대다수의 AI 개발 현장에서 CUDA의 영향력은 여전히 막강합니다. 그 이유는 다음과 같습니다.
-
생태계의 성숙도 차이: ROCm의 생태계가 빠르게 성장하고 있지만, 아직 CUDA만큼 방대한 라이브러리, 상세한 문서, 풍부한 커뮤니티 지원을 갖추지는 못했습니다. 개발 중 문제가 발생했을 때 해결책을 찾기가 상대적으로 어렵고, 이는 개발 속도 저하로 이어질 수 있습니다.
-
성능과 안정성: CUDA는 오랜 기간 최적화되어 대부분의 경우 안정적이고 예측 가능한 최고 성능을 보장합니다. 반면, 대안 플랫폼들은 특정 조건에서는 우수한 성능을 보이지만, 여전히 드라이버나 소프트웨어 지원 문제로 인해 성능이 불안정하거나 예상치 못한 문제에 직면할 가능성이 상대적으로 높습니다.
-
'익숙함'이라는 무서운 무기: 개발자들은 이미 손에 익은 CUDA와 관련 도구들을 선호하는 경향이 있습니다. 새로운 플랫폼을 배우고 적응하는 데는 시간과 노력이 필요하며, 이는 단기적인 생산성 저하로 이어질 수 있습니다.
결론적으로, 구글의 TPU와 AMD의 ROCm은 CUDA가 '대체 불가능'한 존재가 아님을 분명히 보여주고 있습니다. 특히 AI 기술의 발전 방향이 특정 기업의 폐쇄적인 생태계에 종속되는 것을 경계하는 목소리가 커지면서, 개방형 플랫폼을 향한 움직임은 더욱 가속화될 것입니다.
하지만 수십 년간 쌓아온 CUDA의 '성벽'은 매우 높고 견고합니다. 대안 플랫폼들이 성능과 안정성, 그리고 무엇보다 개발자 생태계의 깊이 측면에서 CUDA와의 격차를 완전히 해소하기까지는 상당한 시간이 걸릴 것으로 보입니다. 따라서 단기적으로는 CUDA의 지배력이 유지되겠지만, 장기적으로는 건전한 경쟁 구도가 형성될 가능성이 충분하다고 생각합니다.
그런데 지금 엔비디아가 잘 나가는 건 이제 CUDA뿐만이 아닙니다.
칩 자체의 전성비가 가장 좋고, GB200 NVL시스템이 총소유비용이 가장 낮습니다.
게다가 소유가 공급을 초과해서 클라우드 업체들은 설치하기만 하면 바로 예상수익이
계산이되는 수준입니다.
2자원적 사고 : 엔비디아가 잘 나가니까 비싼 게 아닐까. AI가 개발자를 대체하고 있으니 쿠다의 영향력도 약해지지 않을까.
문제는 이 시장의 응용부분이 성숙기.. 정체기..의 시장이 아니고 발전속도나 규모가 폭발하는 시장입니다.
이런 시장에서 새로운 인프라를 새로 구축하고 재학습하면서 그 발전속도를 따라가기가 쉽지 않겠죠.
트랜스메타 크루소 cpu때 생각해 보면요
어느순간에는 비용이 중요해질때가 옵니다.
대체제가 없느냐? 하면 그것도 아닌것 같고요
예전 자연과학, 이공계 주요 코드들이 포트란으로 되어 있던게 생각나네요...
오랫동안 쌓아올려진게 어마어마 해서 C 로 포팅하는것도 막막하고, 잘 돌아가는거 그냥 쓴다고...
C로 옮긴다고 막 그랬고 별 진전이 없어보였는데
어느새 보니 python, R 이 다 하고 있는거 같던데요?
상당수 라이브러리는 쿠다만 지원함
다른 백엔드 된다고 해도 설정하는데 하세월 (쿠다 버전 맞추는 건 쉬운 일이었음)
돌아가다가 중요한 가능 몇개가 안됨
끝까지 돌아가도 최적화 문제로 스펙 대비 성능이 안나옴
쿠다는 사무직의 엑셀 같은 존재로 남을거라고 봅니다.
아마 다른api로 구축하려면 배보다 배꼽이 커질겁니다.
시간낭비 하기 싫으면 그냥 Nvidia, cuda로 해야합니다. 구글이니 ms등 대기업이 새 api내놓고 안정화 하기전까지는 계속 쓸겁니다.