일단 무료이기에 연습삼아 한 번 설치중입니다...
맥북에어 m2 24gb 모델이라서 gemma4 e4b까진 잘 돌아갈 것 같다고 해서
설치 중입니다...
모델 성능이 정확하지는 않겠으나 대략 비교하면,
상업 llm 모델들 대비 많이 부족은 하긴 합니다.
오픈소스 llm들의 최강 성능들인데도 불구하고요...ㅎㅎ
거기에 지금 제가 설치하고 있는 건,
물리적 스펙 한계가 있어서 4B 모델이라 ㅎㅎ 1/3수준 정도 되려나요...ㅎㅎ
아님 그냥 수치대로 1/8이 되는 건가요? 개념도 없어서 ㅎㅎ
일단 코딩 정도 돌려볼 계획이라 잘 되는지 간을 보고,
괜찮으면, 맥미니 M4pro 나 뭐 그런 걸 한 번 나~중에 노려볼만할 것 같기도 하고...ㅎㅎ
와중에 딥시크는 진짜 대단하네요...ㅎㅎ
뭐 클로즈드 소스들을 이기는 경우도 있고...ㅎㅎ
사실 이게 큰 효용성이 없다는 의견도 많은 거 같긴 한데,
재미삼아 한 번 해봅니다 ㅎㅎ
| 구분 | 모델명 | 지능 지수 (MMLU/GPQA) | 코딩 (SWE-bench) | 추론 (Math/Logic) | 특징 |
| Closed | GPT-5.4 | 92.4% / 88.5% | 79.2% | 94.1% | 가장 균형 잡힌 성능, 1M+ 컨텍스트 |
| Closed | Claude 4 Sonnet | 90.8% / 89.9% | 82.5% | 92.8% | 최강의 코딩 에이전트 성능 |
| Open | DeepSeek V4 Pro | 91.2% / 87.8% | 76.4% | 95.2% | 수학/추론 분야 클로즈드 능가 |
| Open | Llama 4 Maverick | 89.5% / 84.2% | 72.8% | 88.6% | 가장 광범위한 생태계, 안정성 |
| Open | Gemma 4 31B | 85.2% / 78.6% | 68.5% | 84.1% | 효율적인 파라미터 대비 고성능 |
+
대충 유튜브 보고 왔는데, 위의 제 답변이 헛소리네요 ㅋㅋㅋㅋㅋ