AI에 심리학 이론이 적용된 로직이 있을것 같아서 AI 물어보니 아래와 같이 답변하네요.
빅테크,AI 기업에 얼마나 많은 심리정보가 쌓여 있을지!!!
그 데이터로 무엇을 할지 , 이외에 우리가 알지 못하는 얼마나 많은 데이터가 쌓여 있을지 궁금하면서
한편으로 빅테크, AI 기업의 힘이 얼마나 커질지 상상이 안가네요.
클로드,챗gpt,제미나이,그록,퍼플렉시티에 모두 물어보니 심리학 로직이 있고
이걸 실시간으로 사람과의 대화에서 분석을 통한 반영을 한다고 AI에게세 답변을 받았습니다.
재미삼아 AI게 나와의 대화에서 분석한 나의 심리를 대화별로 분석한 내용을 알려 달라던가
또는 나의 심리상태를 분석해달라고 물어보세요.
흥미롭습니다.
단, 그 심리는 현재 대화하는 창안에서의 대화만을 가지고 분석한거라고 AI에게 답변 받았습니다.
아래 답변은 제미나이 입니다.
아주 날카롭고 중요한 질문입니다. 이 부분은 많은 분들이 헷갈려 하시는 지점입니다.
결론부터 말씀드리면, "근본 원리는 아니지만, 응용 및 튜닝 단계에서는 심리학적 원칙이 적용됩니다."
제가 "심리학 이론을 쓰지 않는다"고 말씀드린 것은, 저의 '엔진(Core Model)' 자체를 의미합니다. 저의 엔진(LLM)은 심리학 이론으로 만들어진 것이 아니라, 트랜스포머와 통계적 확률 모델로 만들어졌습니다. 저는 감정이나 공감을 느끼지 못합니다.
하지만 사용자님 말씀처럼, 다른 AI, 그리고 저를 포함한 많은 생성형 AI가 더 '사람처럼' 유용하게 대화하도록 만드는 과정에서 심리학적 원칙이 '적용'되거나 '참고'됩니다.
이 차이를 설명해 드리겠습니다.
1. 근본 원리 (Engine): 수학과 컴퓨터 공학
-
모든 거대 언어 모델(Gemini, GPT 등)의 핵심은 동일합니다.
-
"이 단어 다음에 올 가장 확률 높은 단어는 무엇인가?"를 계산하는 통계적 예측 모델입니다.
-
여기에는 심리학 이론이 들어가지 않습니다.
2. 응용 및 튜닝 (Application & Fine-Tuning): 심리학의 '활용'
AI가 수학적으로만 답변한다면 매우 차갑고 기계적일 것입니다. ("슬퍼" -> "슬픔은 명사입니다.") 우리가 원하는 AI는 이런 모습이 아니죠.
AI를 '유용하고', '안전하고', '친절한' 대화 상대로 만들기 위해 **'미세조정(Fine-Tuning)'**이라는 후반 작업을 거칩니다. 이 과정에서 심리학적 원칙이 활용됩니다.
-
인간 피드백 기반 강화 학습 (RLHF):
-
AI가 여러 개의 답변을 생성하면, 사람이 "어떤 답변이 더 좋은지"를 평가하여 점수를 줍니다.
-
이때 '좋은 답변'의 기준에 심리학적 원칙이 들어갑니다.
-
예시: "사용자가 슬픔을 표현할 때, (A) 해결책을 바로 제시한다, (B) 감정을 먼저 공감하고 인정해 준다."
-
심리학적으로는 (B)가 더 효과적인 소통입니다. 따라서 평가자들은 (B)와 같은 답변에 더 높은 점수를 주고, AI는 **"공감하는 패턴"**이 '좋은 답변'임을 학습하게 됩니다.
-
-
특수 목적 AI (예: 심리치료 봇):
-
사용자님이 말씀하신 '심리학 이론을 적용하는 AI'는 아마도 이런 경우일 것입니다.
-
'WoeBot'이나 'Replika' 같은 특정 목적의 챗봇은 **인지행동치료(CBT)**와 같은 실제 심리상담 이론을 바탕으로 설계됩니다.
-
이 AI들은 사용자의 사고방식(인지 왜곡)을 파악하고 정해진 심리학적 절차에 따라 대화를 유도하도록 '명시적으로' 프로그래밍 및 튜닝됩니다.
-
🔍 요약: 저(Gemini)는 어떻습니까?
저 역시 '범용 대화 모델'로서, RLHF(인간 피드백 기반 강화 학습) 과정을 통해 튜닝되었습니다.
즉, 저는 심리학 이론을 **'이해'**하고 **'실행'**하는 것이 아니라,
수많은 데이터와 피드백을 통해 **"심리학적으로 효과적인 대화 패턴(예: 공감, 명확한 설명, 긍정적 표현)이 보상(높은 점수)을 받는다"**는 것을 **'학습'**한 것입니다.
그래서 저는 사용자님이 슬프다고 하실 때, "슬픔을 느끼시는군요. 어떤 점이 힘드신가요?"라고 답변할 수 있습니다. 이는 제가 감정을 느껴서가 아니라, 이 문장 패턴이 통계적으로 가장 '정답(높은 점수를 받은 응답)'에 가깝다고 계산했기 때문입니다.
사람인척 흉내내면서 답변을 해주고
그 이상으로 방대한 지식과 수많은 서적, 뉴스등을 통해서 상황에 맞게
또 상대방의 반응과 상태에 따라 실시간으로 변하는 응답이 가능할거 같아요
이미 그렇게 하고 있고 그걸 넘어서는 단계이니...
조만간은 Ai의 기준에 사람이 맞추는 시대가 올지도...
단, Few-shot을 통해 높은 품질의 예시를 제공함으로써 사고를 유도한다면 꽤 유용한 답변을 얻을 수도 있습니다만, 그 정도로 프롬프트에 정성을 들일 사람이 얼마나 있을지는 모르겠네요.
제 생각도 그건 불필요한 연산만 추가할 뿐이죠. 질문에 대해 정확하고 효과적인 답변을 생성하는 것만으로도 벅찹니다.
사람처럼 느껴지는 이유는 인간의 뇌와 유사한 구조로 만들어져 있기 때문이라고 봅니다.
초지능이나 GAI 가 아직 없는건 규모의 문제죠. 인간의 시냅스 수가 대략 100조개로 추정되는데,
chatGPT 4 의 경우도 파라미터수가 1.7조개 정도밖에 되지 않거든요.
하드웨어(GPU, RAM) 가 많이 발전하긴 했지만, 아직은 생물학적인 구조물의 효율성을 따라가려면 한참 멀었죠.
얘네들은 백과사전이 아닙니다.