인터넷검색이 포함되거나 해야 재대로 답을 할거에요. (thinking 모델 이나 인터넷 검색 체크) 지금 현재 모든 모델들이 사전학습 국내 데이터가 오래전 데이터 인것 같더라고요. 이건 유료버전도 마찬가지에요. 그래서 질문시점에서 어떤 모델로 답변을 하느냐에 따라 각각 답이 다르게 나오죠.
제미나이 flash-lite : 테스트 전부터 무섭습니다. 제미나이3 flash : 안 보고 답합니다. 제미나이3 pro : 대충 보고 답합니다. 추궁하면 일단 버티고 반박하기도 합니다. Opus 4.6 : 절반 정도 보고 답합니다. 추궁하면 팩트와 무관하게 사과합니다. ChatGPT 5 : 전부 읽어보고 아는 것만 답합니다. 추궁하면 팩트에 대해서는 인정합니다.
사실 이런 환각을 보이는 원흉은 GPT4 시리즈가 대표적이었습니다만, 그것으로 세계적으로 큰 물의를 많이 일으켰던 GPT는 대대적인 개선으로 팩트기반 답변을 하게 된 반면, 제미나이는 오히려 4를 벤치마크하여 초절정 거짓말장이가 되었습니다.
특히 제미나이는 자신이 그 정보를 학습한 날이 오늘이라고 단언하거나 인간에게 주의까지 줍니다. 프로그래밍 중에는 라이브러리를 1~2년 전 버전으로 멋대로 바꿔버린다거나, 과거 시점 기준에 맞춘 구조로 개조하는 등의 짓을 하는데, 이게 ssot 코어 문서인 gemini.md 등에 명확하게 금지문구로 넣어놔도 몇 턴 지나고 나면 또 같은 동작을 반복합니다.
보통 API호출로 프로그래밍시엔 0으로 (기본값은 1.0)바꾸면 되는데, 제미나이3 이상 버전은 1.0이하로 내리면 창의성이 떨어지고 제대로 답변이 안 나온다고 건드리지 말라고 경고합니다. (공식 가이드)
그래서 제경우엔 친인척들에게 제미나이3은 거짓이 섞여도 괜찮은 창작, 디자인 등에만 한정해서 사용하고, 불가피한 경우에는 GPT등으로 크로스첵 하라고 권하고 있습니다. 요즘 문제가 되는 공무원들 보고서의 인용 등을 엉망으로 만든 원흉이 아마도 제미나이3 시리즈일 거라고 봅니다.
* 유무료의 차이라기 보다는 모델 (flash, pro) 차이고, 답변이 이전 컨텍스트나 메모리에 따라 달라질 수 있다는 점을 감안하셔야 합니다.
생성형 AI는 자기가 만들어내는 글자 덩어리가 무슨 뜻인지 모릅니다.
그걸 인간이 자의적으로 이건 틀렸고 이건 맞고 라고 생각 할 뿐이죠.
제미나이3 flash : 안 보고 답합니다.
제미나이3 pro : 대충 보고 답합니다. 추궁하면 일단 버티고 반박하기도 합니다.
Opus 4.6 : 절반 정도 보고 답합니다. 추궁하면 팩트와 무관하게 사과합니다.
ChatGPT 5 : 전부 읽어보고 아는 것만 답합니다. 추궁하면 팩트에 대해서는 인정합니다.
사실 이런 환각을 보이는 원흉은 GPT4 시리즈가 대표적이었습니다만, 그것으로 세계적으로 큰 물의를 많이 일으켰던 GPT는 대대적인 개선으로 팩트기반 답변을 하게 된 반면, 제미나이는 오히려 4를 벤치마크하여 초절정 거짓말장이가 되었습니다.
특히 제미나이는 자신이 그 정보를 학습한 날이 오늘이라고 단언하거나 인간에게 주의까지 줍니다.
프로그래밍 중에는 라이브러리를 1~2년 전 버전으로 멋대로 바꿔버린다거나, 과거 시점 기준에 맞춘 구조로 개조하는 등의 짓을 하는데, 이게 ssot 코어 문서인 gemini.md 등에 명확하게 금지문구로 넣어놔도 몇 턴 지나고 나면 또 같은 동작을 반복합니다.
보통 API호출로 프로그래밍시엔 0으로 (기본값은 1.0)바꾸면 되는데, 제미나이3 이상 버전은 1.0이하로 내리면 창의성이 떨어지고 제대로 답변이 안 나온다고 건드리지 말라고 경고합니다. (공식 가이드)
그래서 제경우엔 친인척들에게 제미나이3은 거짓이 섞여도 괜찮은 창작, 디자인 등에만 한정해서 사용하고, 불가피한 경우에는 GPT등으로 크로스첵 하라고 권하고 있습니다.
요즘 문제가 되는 공무원들 보고서의 인용 등을 엉망으로 만든 원흉이 아마도 제미나이3 시리즈일 거라고 봅니다.
* 유무료의 차이라기 보다는 모델 (flash, pro) 차이고, 답변이 이전 컨텍스트나 메모리에 따라 달라질 수 있다는 점을 감안하셔야 합니다.
유료버전 제미나이