AI 기술의 발전이 놀랍습니다만.... 전 두가지 면에서 지금의 대규모 데이터 센터는 한계가 뚜렷하다고 생각합니다. 하나는 전기를 너무 많이 먹는다는 점. AI 기술이 분명 우리 생활을 편리하게 해주는건 사실이지만, 지금과 같이 어마어마한 전력 소비에 바탕한 방식은 지속 가능성이란 측면에서는 한계가 너무 뚜렷한게 아닌가 합니다. 또 하나는 그에 뒤따르는 정보의 집중 문제입니다. 마음만 먹으면 인류의 모든 지적 활동을 일개 기업이 철저하게 감시하는 세상이 더욱 성큼 다가오는건 피할수 없게 된 것같습니다. 그런 면에서 앞으로의 AI는 분산화 내지는 개별 디바이스로 개별화 시키는 방향으로 나가는게 맞지 않을까요? 물론 이런 문제제기는 지금 현재 AI의 발전 방향과는 거리가 있다고 생각합니다만... 다른 분들은 어떻게 생각하는지 궁금했습니다. 단순한 호기심이기도 하고 미래 투자의 측면에서도 한번쯤 생각해볼만한 가치가 있다고 생각합니다.
전력인프라 문제가 인공지능 발전에 걸림돌이 되고 있는 것은 사실입니만, 그 것이 인공지능 발전의 큰 방향성을 돌릴 상황은 아닙니다.
인공지능 기술은 국가의 전체 경쟁력을 좌우하는 패권 경쟁의 핵심으로 인지되어 여러가지 걸림돌에도 미국정부 주도로 발전을 지속할 가능성이 크다는게 현재의 중론입니다.
정보의 집중문제는 너무나 심각한 문제인데, 이 것을 어떻게 컨트롤 할지는 아직 아무도 모르고, 보다 많은 사람들이 이 문제를 심각하게 인지하고 관리감독하는 방법 밖에 없는거 같습니다. 독재적인 권력을 추구하는 일당이 인공지능을 무기화하는 것을 반드시 막아야 합니다.
전기 소모가 많든 공개된 정보를 많이 쓰든 돈만 된다면 신경 안쓸것 같네요
이제 저전력 실사용 칩이 필요하죠.
브로드컴이 괜히 뜨는게 아니겠죠.
똑같은 90번 그래픽카드를, 200W, 300W, 500W로 주고 써보면 각각 10%씩 성능차가 나요.
이럴거면 그냥 300W 정도로 팔면 되는게 아닌가? 싶지만,
300W면 2슬롯 GPU가 가능하고, 이게 가능하다는건
70번대 그래픽 카드가 150W 1슬롯 GPU가 가능해진다는거고,
그러면 2슬롯 GPU 4개 꽂기 vs 1슬롯 GPU 8개 꽂기라는 이상한 가성비 경쟁이 됩니다..?
(서버용이면 8레인 1슬롯 GPU 16개 꽂기라는 번외 경기가 가능해집니다)
그리고 NVIDIA의 가격 정책은 90이 70보다 2배 넘게 비싸고.
이건 워크스테이션, 서버용 GPU 라인업도 마찬가지입니다. 어쩌면 더하죠.
그래서 GPU 전력 소모는 어쩌면 NVIDIA가 갑 중 갑의 위치에 있기 때문에 나타나는 기현상이지
본질적인 문제는 아닐겁니다. 전성비 높이려면 그냥 높일 수 있어요, 이 회사.