이 글에는 스포가 없지만, 댓글에는 스포가 있을 수 있습니다.
그리고 이 글은 흑백요리사2의 요리괴물로 시작 해서 결론은 AI로 끝나는? 글입니다.
글은 제가 썼고, 이미지는 나노 바나나로 그렸습니다.

넷플릭스 <흑백요리사: 요리 계급 전쟁> 시즌 2에는 후덕죽 쉐프와 요리 괴물의 구도가 눈에 띕니다.
-
요리괴물 (흑수저): 세계적인 미쉐린 스타 레스토랑들을 거치며 자신을 '천재'라 서슴없이 지칭하는, 강한 자기 확신으로 무장한 젊은 도전자

-
후덕죽 셰프 (백수저): 한국 중식의 전설, 신라호텔 '팔선'을 40년간 이끌며 국내 최초로 '불도장'을 선보인 57년 경력의 대가
사실, 악의적인 편집일 순 있으나, 왠지 요리괴물은 실력은 있는데 뭔가 재수없어? 보입니다.
매력적으로 그리기보단 다소 빌런으로 보이기도 합니다.
현우진 강사가 말한 더닝-크루거: 성장하면 겸손해지는 이유
현우진쌤의 "우매함의 봉우리"라 불리는 더닝-크루거 효과에 대해 들어보신 분들 계실겁니다.

이제 막 성취를 맛본 이의 넘치는 자신감과 오랜 세월을 견딘 대가의 정중함이 충돌할 때,
지식이 얕을 때 자신감이 치솟는 ‘우매함의 봉우리’에 섰다가,
현실을 마주하고 ‘절망의 계곡’으로 추락한다는 그래프 입니다.
반전: ‘우매함의 봉우리’ 그래프는 원논문에 없습니다
여기서 반전이 나옵니다.
인터넷에서 가장 유명한 ‘봉우리-계곡-비탈-고원’ 곡선은
더닝과 크루거의 1999년 원논문에 실린 그래프가 아닙니다.
오히려 그 형태는, 신기술이 등장한 뒤 기대가 과열됐다가 꺼지고,
시간이 지나 현실에 안착하는 과정을 설명하는 ‘가트너 하이프 사이클’과 놀랄 만큼 닮아 있습니다.
그럼에도 그 그래프가 강력한 이유는 분명합니다.
한 번에 이야기가 되기 때문입니다.
‘오만→현타→각성→성장’이라는 서사가 눈앞에 그려지면,
사람은 데이터보다 서사에 먼저 끌립니다.
그래서 “틀렸는데 더 잘 속이는” 그래프가 됩니다.
진짜 더닝-크루거: ‘오만한 바보’가 아니라 ‘자기채점의 실패’입니다
더닝-크루거 효과는 코넬 대학교의 데이비드 더닝(David Dunning)과
저스틴 크루거(Justin Kruger)가 1999년 발표한 논문에서 처음 소개된 개념입니다.
우리가 흔히 보는 요란한 곡선과 달리, 원논문이 보여준 핵심은 훨씬 담백합니다.

연구진은 참가자들에게 과제를 풀게 한 뒤,
“당신은 상위 몇 퍼센트일 것 같습니까?”를 물었습니다.
그 결과, 하위 성취자일수록 자기평가가 크게 빗나가는 경향이 확인됩니다.
실제 성적이 12백분위인 사람들이 스스로를 62백분위쯤으로 추정하는 식입니다.
여기서 중요한 오해 교정이 하나 있습니다.
더닝-크루거는 “초보가 전문가보다 자신감이 더 높다”는 이야기가 아닙니다.
절대적인 자신감의 크기가 아니라,
‘내가 어느 위치인지’를 맞추는 정확도, 즉 자기평가의 보정이 무너진다는 이야기입니다.
왜 하위 성취자에서 오차가 커질까요?
이유는 단순합니다. 실력이 부족하면 대개 두 가지가 함께 부족해집니다.
-
문제를 푸는 능력,
-
내가 왜 틀렸는지 알아차리는 능력입니다.
못하는데, 못하는 걸 판별할 ‘기준’도 부족하니, 틀려도 틀린 줄 모르기 쉽습니다.
이것이 더닝-크루거가 말한 메타인지의 함정입니다.
생성형 AI 시대의 우리는: 봉우리는 더 높아지고, 계곡은 더 깊어졌습니다
이제 무대를 생성형 AI로 옮기면, 이 곡선은 더 쉽게 현실이 됩니다.
LLM은 결과를 너무 빨리 보여줍니다.
보고서가 즉시 정리되고, 코드가 돌아가고, 설명이 그럴듯하게 완성됩니다.
그러면 사람은 자신이 ‘이해해서’ 한 것과 ‘도움받아서’ 된 것을 섞어 느끼기 쉽습니다.
경계가 흐려지는 순간, 자기평가는 더 어려워집니다.
실제 연구에서도 비슷한 장면이 관찰됩니다.
AI를 사용하면 과제 성과는 좋아질 수 있지만,
사람들은 자신이 얼마나 잘했는지 판단을 더 정확히 하지는 못하고,
오히려 성과를 과대평가하는 경향이 나타난다고 합니다.
생성형 AI 사용에 따른 '자기 능력 과대평가' 현상 분석 - WSU 연구진
그래서 제가 생각한 AI 시대의 결론은 "딥다이브" 입니다
AI 시대에는 더욱 철저한 검증을 요하는 시대로 넘어온 거 같습니다.
그리고 네이버나 구글 검색으로 끝나는게 아니라 ChatGPT나 gemini는 끝없는 질문으로 답을 구할 수 있습니다.
단순히 LLM을 요약, 정리하는 정도로 쓰는게 아니라
핵심 개념 하나만큼은 ‘내 말로’ 끝까지 설명해 보는 겁니다.
설명이 막히는 지점이 바로 지금 추적해야 할 무지이고,
그 지점을 파고들어 근거를 확인하는 순간부터 실력이된다고 봅니다.
어쩌면, AI 시대에 살아 남는 오만가지 방법중에 하나가 되지 않을까 생각해봅니다.