최근 AI를 위해 한계에 달한 전력과 처리량의 문제를 해결하기 위해 다양한 해결책이 나오고 그 해결책들을 조합하는 방안이 나오고 있습니다.
https://zdnet.co.kr/view/?no=20260201011657
기사는 가속기 종류와 관계없이 동일한 인터페이스와 런타임 환경에서 LLM을 서비스할 수 있는 통합 소프트웨어 스택을 개발했다고 합니다. 특히 GPU 중심으로 고착화된 기존 LLM 서빙 구조의 한계를 지적하고, 여러 종류의 AI 가속기를 하나의 시스템에서 함께 활용할 수 있는 ‘멀티 가속기 LLM 서빙 런타임 소프트웨어’를 핵심 기술로 제시했다고 합니다.
이를 활용한다면 기존의 GPU 의존적인 컴퓨팅에서 탈피, NPU/AIM, 양자 컴퓨팅등의 가속기를 적재적소 배치 및 활용이 가능할듯 합니다.. 양자컴퓨팅의 조합은 지난번에 썰을 풀었으니 제외하고~ AIM에 대해 살펴보겠습니다.
FCM 기반의 아날로그 AIM과 뉴로모픽 방식은 최근 주목받는 신경망 연산을 위한 최적의 방안입니다.
아날로그 방식의 전위 조절과 스파이크 연산은 FCM(강유전체) 소재를 만났을 때 비로소 완성됩니다.
FCM 소재는 전압의 크기에 따라 내부 분극 상태를 여러 단계로 조절할 수 있습니다. 이는 하나의 소자에 여러 비트의 가중치를 아날로그 값으로 저장할 수 있음을 의미합니다. (수평을 수직으로 압축 구현!)
Analog-AIM의 구현: FCM 소자 자체가 저항체 역할을 하여, 입력 전압을 가하면 옴의 법칙에 의해 연산 결과(전류)가 바로 나옵니다. 별도의 연산 장치로 데이터를 옮길 필요가 없는 '진정한 의미의 AIM'입니다.
뉴로모픽 스파이크: FCM은 에너지를 저장했다가 특정 임계점(Threshold)에서만 신호를 방출하는 '뉴런의 막 전위' 특성을 완벽히 모사합니다. 덕분에 평소엔 전력을 거의 쓰지 않다가 필요한 순간에만 '스파이크'를 쳐서 연산하므로 전력 소모를 획기적으로 줄입니다. 진짜 뇌와 똑같은 구조와 동작의 진정한 신경망 컴퓨팅인거죠~!
광반도체(Photonic Chip) 기술은 앞서 설명한 AIM의 개념을 '전기'에서 '빛'으로 확장한 것입니다.
멀티비트 광 저장 및 전달: 빛의 세기(Amplitude)나 위상(Phase)을 세밀하게 조절하여 하나의 광펄스에 여러 비트의 정보를 담습니다. 이는 FCM이 전위 레벨로 멀티비트를 구현하는 것과 매우 유사한 원리입니다.
하나의 통로(도파로)에 서로 다른 파장의 빛을 동시에 쏘아 보내, 수만 개의 연산을 병렬로 처리합니다. 이는 AIM이 크로스바 어레이에서 병렬 연산을 하는 것과 유사하지만, 전자보다 수천 배 빠르고 발열이 거의 없다는 압도적 장점이 있습니다. (WDM - 파장 분할 다중화)
빛이 소자를 통과하는 것 자체가 행렬 연산이 되는 구조로, 전력 소모가 연산량에 비례하지 않고 거의 일정하게 유지되는 꿈의 효율을 보여줍니다.
기존 프로세서(CPU/GPU)와의 결합 방식 및 이득
이러한 차세대 기술들은 독립적으로 쓰이기보다 FCM으로 아날로그 멀티비트 저장 → 광-AIM으로 광속 행렬 연산 → SW 런타임으로 디지털/아날로그 선택과 같이 조합하여 이용이 가능하며,
이는 데이터센터 전력/발열 문제를 근본 해결하며, SiC/GaN 고전력 반도체와 HVDC로 획기적인 전력 소모율과 처리량의 증가가 가능해 집니다.
특히 무게가 아주 예민한 로봇은 모터의 소형화와 전선의 무게가 아주 민감하게 작용하기에 HVDC가 필수적이죠~ ( 관절의 끝으로 갈수록 기하급수적인 영향)
악마의 운동 사레레의 원리!
이러한 기술들을 기반으로 근 미래에는 서버급 사이즈의 전력과 컴퓨팅이 필요한 연산을 스마트폰 수준에서 처리할수 있는 프로세서가 로봇들에 탑재되고 수많은 시청각 촉각 균형감각 온도등의 데이터를 실시간 수집 및 학습하고 평소에는 전력 소모 없이 대기 하다 이벤트 발생시에만 막대한 행렬 연산이 가능하게 됩니다.
링크의 내용은 GPU 종속 LLM 서빙을 벗어나기 위한 멀티-가속기 런타임/인터페이스 계층 이야기입니다.
또한 위의 글의 내용은 “폰 노이만 병목을 깨려는 방향”이라는 해석은 충분히 가능하지만, 당분간은 폰 노이만을 대체하기보다는 보완하는 이기종 컴퓨팅으로 보는 게 정확하다고 봅니다.
요컨데 천리길도 한걸음부터랄까요
일단 시리즈 a 스타트업은 상당한것으로~
그리고 이제부터는 ai가 ai구조를 설계하는 상황이니 가속도는 점점 빨라질듯합니다
기존 컴구조를 완전 뒤엎는건데 기존에 깔려있고 거기에 의존해 진화해 온 비즈니스들이 엄청나서 빨리 개발이 된다해도 대체가 쉽지 않을 것 같습니다.
그리고 메모리와 프로세서가 합쳐지는 건데... 우리나라 망하는 거 아닙니까??
결국 모든 종류의 ai 아키텍쳐는 타도 쿠다죠
사실 이게 가능한게 신경망연산이 다층구조의 가중치 연산이기에 아주 정밀할 필요가 없어 사소한 오류는 견뎌내기에 가능한 이야기죠
그래서 양자컴퓨팅 추론도 오류 극복이란 측면에서 어마어마하게 사용성이 높아지구
그걸 다 조합하는게 최고인점이죠
>>> 그렇다면 AI 연산에만 활용되고 전통적인 병렬 처리 연산 같은거는 기존 구조대로 가고.. 그렇게 되나요?
ai연산에서도 전통적인 산술연산이 필요하니까요
문제는 미적분도 암산하는 굇수들처럼 신경망컴퓨팅이 무한하게 성능이 올라가 굇수가 되면 결국 산술연산도 그냥 암산때릴듯 합니다
그까이꺼 대충하는데 여러번 다양하게 하고 그걸 보팅해서 참에 극한으로 수렴시킨뒤 답을 찾는거죠
호모사피엔스 이외의 인류이전 일부의 종의 dna가 흡수되는것과 마찬가지로 받아들이면 될듯합니다.
마치 세포의 미토콘드리아 처럼요