현 시점 AI 커뮤니티의 가장 오래 되고, 최근에도 핫한 주제는
장기 기억입니다.
구글의 2.5의 성능이 개인 마다 체감이 달라 평도 갈리지만,
백만 토큰이 넘어가도 성능이 거의 유지 되는 점이
굉장히 중요한 경쟁력으로, 해자이자 경쟁 포인트로 작용합니다.
구글 외의 다른 모든 AI기업들이 매우 중요시 한,
거의 첫 손으로 꼽는다고 해도 무방할 정도의 도전 과제 임에도,
이리 오래 걸리고 있는 것은 달성이 어렵다는 뜻이기도 합니다.
최근에 마소에서 비트넷 버전을 또 새로 공개 했습니다.
거대 모델을 학습 시킨 후 증류하는 것이 아니라
아예 양자화와 동시에 학습하는 방식의 모델입니다.
무슨 말이 하고픈 것이냐면,
오픈소스로 공개하든 아니면 폐쇄적 기술이든,
실제 구현 되어 적용 되는 모델을 우리는 하루가 다르게 쏟아지는
모델로 확인해 볼 수 있는데,
딥시크과 과연 R1 때처럼 R2로
실시간으로 발전하고 있는 경쟁사들과 성공적인 차별점을 만들어 낼 수 있을지...
또 한 번 세계 AI업계에 충격으로 작용할지
아니면 한 번 반짝 뜨고, 다시 영광을 재현할 수 없을 것인지,
혹은 한 번의 우연이 아니라 계속해서 나아갈 수 있는 역량을 갖춘 것인지는
R2로 판가름하게 되지 않나 싶습니다.
과연 어떤 성능이 나올 것인지...
어떤 기술을 개발해서 적용해서 얻은 성능인지,
들여다볼 것이 많으니, 아무래도 성능이 좋게 나온다는 전제 하에
향 후 한 달 이상 세계적인 이슈로 점화 할 것 같다는...생각입니다.
범위를 좁히자면,
제 개인적으로는 제미나이가 신 모델을 아레나에서 지속 테스트하고 있고,
모델 출시 과정이 상당히 짧아지고 있으며, 급격히 개선 되고 있는 것으로 보아
구글은 최종 승자를 가리기 위한 판에 남을 것으로 보고 있습니다.
구글이 마지막 남은 주자 중 하나가 되지 않나 싶고, 딥식이가 그 상대가 될지 아닐지
살펴 볼 수 있는 기회라는 생각입니다.
이것만 해도 타사보다 좋은거긴 하지만요.
벤치 개쩔게 나옴! 해서 써보면 늘 실망만...