올해 1월, 클로드 프로 20달러 플랜에 한계를 느껴 z.ai GLM으로 갈아타 4월말까지 썼습니다.
GLM으로 응답속도가 체감상 느리다고 느꼈지만
답변도 좋고, 저렴한 가격, 넉넉한 사용량으로 참고 썼습니다.
그런데 저번달에 모델 가격을 인상하면서, 다른 대체재를 알아보다 opencode go를 써봤는데 답변 속도가 너무 빠른겁니다.
같은 시간, 같은 GLM 모델, 같은 프롬프트, 거의 비슷한 결과물인데 응답시간이 거의 3배가 차이 났습니다.
- opencode go 2분 23초
- z.ai : 6분 2초
( prompt : unity 6 기준. 1:1 pong (유저 vs 유저) 코드 작성해줘. 학습을 위한 것이므로 유니티 필수개념과 무엇에 대한 코드인지 왜 코드를 이렇게 작성했는지 자세히 주석으로 작성해줘. )
물론 같은 서버에 돌고 있지 않겠지만 몇배로 차이가 나는데
저와 비슷한 경험 있으신 분 계신가요
+ opencode go 꽤 괜찮네요. 첫달 5달러, 그 후엔 10달러입니다.
레딧에 계속 5달러로 쓰는 방법 글을 본적 있는데 다시 찾으면 글 남기겠습니다.
여튼 glm 5.1, kimi k2.6, Qwen 3.6 plus, DeepSeek V4 Pro, Minimax M2.7
이 모델들 따로 구독 안 하고 다 쓸 수 있어서 좋았습니다.
사용량은 아직 최대까지 써보진 않았으나, z.ai에서 라이트와 프로 사이의 사용량으로 보입니다. (저도 풍문으로 들었습니다.)
그리고 opencode go 모델을 claude code에 연결해서 쓰고 있는데 결과물에 만족하고 있습니다. ( oc-go-cc )
한계까지 다 써보지 못 했는데, 다시 생각해봐야겠습니다. 감사합니다.
레닛리밋도 잘걸리고 사기당한 기분이죠
여기저기 레딧이나 타 커뮤보니 glm이 opus 증류해서 만든거라고 하더라고요