CLIEN

본문 바로가기 메뉴 바로가기 보기설정 테마설정
톺아보기 공감글
커뮤니티 커뮤니티전체 C 모두의광장 F 모두의공원 I 사진게시판 Q 아무거나질문 D 정보와자료 N 새로운소식 T 유용한사이트 P 자료실 E 강좌/사용기 L 팁과강좌 U 사용기 · 체험단사용기 W 사고팔고 J 알뜰구매 S 회원중고장터 B 직접홍보 · 보험상담실 H 클리앙홈
소모임 소모임전체 ·굴러간당 ·아이포니앙 ·주식한당 ·MaClien ·방탄소년당 ·일본산당 ·개발한당 ·자전거당 ·소시당 ·이륜차당 ·AI당 ·골프당 ·안드로메당 ·소셜게임한당 ·콘솔한당 ·걸그룹당 ·나스당 ·키보드당 ·곰돌이당 ·퐁당퐁당 ·가상화폐당 ·바다건너당 ·리눅서당 ·노젓는당 ·위스키당 ·갖고다닌당 ·클다방 ·디아블로당 ·라즈베리파이당 ·찰칵찍당 ·육아당 ·3D메이킹 ·X세대당 ·ADHD당 ·AI그림당 ·날아간당 ·사과시계당 ·배드민턴당 ·야구당 ·농구당 ·블랙베리당 ·비어있당 ·FM당구당 ·블록체인당 ·보드게임당 ·활자중독당 ·볼링친당 ·캠핑간당 ·냐옹이당 ·문명하셨당 ·클래시앙 ·요리한당 ·쿠키런당 ·대구당 ·DANGER당 ·뚝딱뚝당 ·개판이당 ·동숲한당 ·날아올랑 ·전기자전거당 ·e북본당 ·이브한당 ·패셔니앙 ·물고기당 ·도시어부당 ·FM한당 ·맛있겠당 ·포뮬러당 ·젬워한당 ·안경쓴당 ·차턴당 ·총쏜당 ·땀흘린당 ·하스스톤한당 ·히어로즈한당 ·인스타한당 ·IoT당 ·KARA당 ·꼬들한당 ·덕질한당 ·어학당 ·가죽당 ·레고당 ·LOLien ·Mabinogien ·임시소모임 ·미드당 ·밀리터리당 ·땅판당 ·헌팅한당 ·오른당 ·영화본당 ·MTG한당 ·소리당 ·노키앙 ·적는당 ·방송한당 ·PC튜닝한당 ·그림그린당 ·소풍간당 ·심는당 ·패스오브엑자일당 ·품앱이당 ·리듬탄당 ·달린당 ·Sea마당 ·SimSim하당 ·심야식당 ·윈태블릿당 ·미끄러진당 ·축구당 ·나혼자산당 ·스타한당 ·스팀한당 ·파도탄당 ·테니스친당 ·테스트당 ·빨콩이당 ·공대시계당 ·여행을떠난당 ·터치패드당 ·트윗당 ·창업한당 ·VR당 ·시계찬당 ·WebOs당 ·와인마신당 ·WOW당 ·윈폰이당
임시소모임
고객지원
  • 게시물 삭제 요청
  • 불법촬영물등 신고
  • 쪽지 신고
  • 닉네임 신고
  • 제보 및 기타 제안
© CLIEN.NET
공지[점검] 잠시후 서비스 점검을 위해 약 30분간 접속이 차단됩니다. (금일 18:15 ~ 18:45)

모두의공원

딥시크 '오픈AI, 구글, 앤트로픽의 기술적 우위는 없다, 그들이 갖춘 건 컴퓨팅 뿐' 7

1
2025-12-02 19:56:08 수정일 : 2025-12-02 20:04:58 211.♡.196.177
언어분석

미국과 중국의 기술 패권 싸움

앞으로도 계속 되겠네요


스크린샷 2025-12-02 195219.png


결론 및 한계, 그리고 나아갈 길


이번 연구를 통해 우리는 'DeepSeek-V3.2'를 세상에 내놓았습니다. 이 프레임워크는 연산 효율성과 고도의 추론 능력, 그 사이에 존재하던 깊은 간극을 효과적으로 이어주는 가교 역할을 합니다. 우리는 DSA 기술을 활용하여, 긴 문맥을 처리하는 성능을 조금도 희생하지 않으면서도 치명적인 연산 복잡성 문제를 해결해냈습니다.


또한 연산 자원을 아낌없이 투입했을 때, DeepSeek-V3.2는 각종 추론 능력 평가에서 그 강력하다는 GPT-5와 어깨를 나란히 하는 성과를 보여주었습니다. 마지막으로, 대규모 에이전트 작업 합성 파이프라인을 통합함으로써 도구 활용 능력을 비약적으로 끌어올렸습니다. 이는 오픈 소스 LLM을 기반으로 한, 견고하고 범용적인 AI 에이전트가 활약할 새로운 지평을 연 것입니다. 더 나아가, 고성능 연산에 특화된 모델인 'DeepSeek-V3.2-Speciale'은 국제수학올림피아드(IMO)와 국제정보올림피아드(IOI)에서 금메달을 획득하며 그 실력을 입증했고, 오픈 소스 LLM 역사에 길이 남을 이정표를 세웠습니다.


하지만 이러한 눈부신 성과 뒤에는 분명한 한계도 존재합니다. 우리는 'Gemini-3.0-Pro'와 같은 최정상급 비공개(Closed-source) 모델들과 비교했을 때, 아직 부족한 점이 있음을 겸허히 인정합니다.


첫째, 총 학습 연산량(FLOPs)이 상대적으로 적은 탓에, DeepSeek-V3.2가 보유한 세상에 대한 지식의 폭은 선두를 달리는 독점 모델들에 비해 여전히 좁은 편입니다. 우리는 향후 버전에서 사전 학습(Pre-training)에 투입되는 연산 규모를 대폭 늘려, 이러한 지식의 격차를 메워 나갈 계획입니다.


둘째, 토큰 효율성 또한 여전히 해결해야 할 과제로 남아 있습니다. DeepSeek-V3.2가 Gemini-3.0-Pro 수준의 결과물을 내놓기 위해서는, 통상적으로 더 긴 생성 과정, 즉 더 많은 토큰을 소모해야만 합니다. 앞으로의 연구는 모델이 수행하는 추론 과정의 '지능 밀도'를 최적화하여, 더 적은 과정으로도 훌륭한 답을 낼 수 있도록 효율성을 높이는 데 집중될 것입니다.


셋째, 복잡한 과제를 해결하는 능력은 아직 최상위 모델들에 미치지 못합니다. 이러한 부족함은 우리가 기반 모델(Foundation model)과 사후 학습(Post-training) 기법을 더욱 정교하게 다듬어야 할 강력한 동기가 되어주고 있습니다.





*DEEPSEEK 입장에서의 유리한 측면 : 

독자적인 DSA(Dynamic Sparse Attention) 기술로 연산 효율성을 극대화하여, 오픈 모델임에도 불구하고 GPT-5 수준의 극한 추론 능력(IMO/IOI 금메달)을 확보함으로써 기술적 가성비를 입증함.


*DEEPSEEK 입장에서의 불리한 측면 : 

절대적인 학습 연산량(Training FLOPs)의 열세로 인해 경쟁사 대비 '지식의 범용성'이 부족하며, 동일한 품질을 내기 위해 더 많은 연산(토큰)을 소모해야 하는 낮은 '지능 밀도(Intelligence Density)' 문제를 안고 있음.

언어분석 님의 게시글 댓글
  • 주소복사
  • Facebook
  • X(Twitter)
댓글 • [7]
고멍
IP 121.♡.192.187
12-02 2025-12-02 21:41:55
·
챗gpt, 제미니 등 빅 AI가 발전을 거듭하다 역으로 멍청해지는 시점에 맞춰서
뒤늦게 상대적으로 똑똑해 보일 타이밍을 이용하려나요. 반 농담입니다.
제프리힌튼
IP 58.♡.20.251
12-02 2025-12-02 21:59:32
·
아직까지는 트랜스포머 특성에 따라 컴퓨팅 파워가 핵심이고 최적화는 곁다리일뿐인데 뭔가 어긋나는 논리 같습니다.
마린대지
IP 115.♡.221.20
12-02 2025-12-02 22:16:27
·
skepticism
IP 14.♡.14.52
12-02 2025-12-02 23:21:08
·
스케일 말고 다른 특별한 기술이 구글이나 오픈AI에 있을 거라고 흔히 생각하는데 그렇지 않다는 주장이군요.
뿌꾸빠
IP 211.♡.177.80
12-04 2025-12-04 03:41:21
·
@skepticism님
어차피 모두 트렌스포머 기반의 LLM이니까요.
테스타로사
IP 1.♡.234.201
12-03 2025-12-03 14:09:06
·
언어분석
IP 211.♡.196.148
02-14 2026-02-14 01:54:05
·
하다하다 재개발 단톡방에서 묘하게 자랑하는 사람이 있습니다 억울하다며


재개발 단톡방에서
한 조합원이 감정평가액을 6억 받았다며 억울해하더군요
그런데 이게 사실은 자랑이라고 합니다

이제는 조합원들끼리 모인 단톡방에서조차
이런 식의 자랑이 오가는 세상이 된 모양입니다

해당 조합원의 글은 대략 이런 내용이었습니다

억울한 이 :
"며칠 전 감정평가 통보를 받았다
몇 년 전에 7억 원에 산 집인데
감정평가액이 6억밖에 안 나왔다
전용 59형(25평) 조합원 분양가가 9억이라고 하니
억울해서 못 살겠다……"


이 글을 본 대부분의 조합원은 아무 말 없이 지켜보기만 했습니다
그런데 다른 조합원이 이렇게 답하더군요


??? :
조합원님
7억에 구입하셨는데 감정평가 6억이면
오히려 투자 성공이라고 봅니다
전용 59를 분양 신청하신다면
조합원 분양가가 9억 원이니
분담금 3억이 필요합니다
총 투자금 10억 원(매입가 7억 + 분담금 3억)으로
전용 59를 갖게 되시는 겁니다
시세가 16억이라면
6억 이상의 시세 차익이 발생한 셈입니다
축하드립니다


이 내용을 이후로 단톡방은 조용해졌습니다

객관적으로 보면 그 조합원의 상황은 분명 자랑거리인데
조합원들이 모인 단톡방에서 저런 글을 올렸다는 게 좀 의아합니다

다른 곳에서 억울함을 티나지 않게 호소했다면 모를까
재개발 사업 구조를 아는 사람들이라면
그게 자랑이라는 걸 바로 알아챘을텐데요

흔히 이런 말이 있다고 합니다

후진국에서는 대놓고 자랑하고
과거 동양에서는 검소함을 미덕으로 내세웠고
선진국일수록 은유와 비유를 써서
곰곰이 생각해야 비로소 알아챌 수 있게 자랑한다고요

우리나라도 이제 그 단계에 접어든 것 같습니다
새로운 댓글이 없습니다.
이미지 최대 업로드 용량 15 MB / 업로드 가능 확장자 jpg,gif,png,jpeg,webp
지나치게 큰 이미지의 크기는 조정될 수 있습니다.
목록으로
글쓰기
글쓰기
목록으로 댓글보기 이전글 다음글
아이디  ·  비밀번호 찾기 회원가입
이용규칙 운영알림판 운영소통 재검토요청 도움말 버그신고
개인정보처리방침 이용약관 책임의 한계와 법적고지 청소년 보호정책
©   •  CLIEN.NET
보안 강화를 위한 이메일 인증
안전한 서비스 이용을 위해 이메일 인증을 완료해 주세요. 현재 회원님은 이메일 인증이 완료되지 않은 상태입니다.
최근 급증하는 해킹 및 도용 시도로부터 계정을 보호하기 위해 인증 절차가 강화되었습니다.

  • 이메일 미인증 시 글쓰기, 댓글 작성 등 게시판 활동이 제한됩니다.
  • 이후 새로운 기기에서 로그인할 때마다 반드시 이메일 인증을 거쳐야 합니다.
  • 2단계 인증 사용 회원도 최초 1회는 반드시 인증하여야 합니다.
  • 개인정보에서도 이메일 인증을 할 수 있습니다.
지금 이메일 인증하기
등록된 이메일 주소를 확인하고 인증번호를 입력하여
인증을 완료해 주세요.