얘가 질문자의 질문에 담긴 바람이나 의심에 따라서 거짓 대답을, 그것도 엄청 자세한 팩트(아닌 팩트), 근거와 함께 제시합니다..
이게 AI 의 엔진구조에 따라 어쩔 수 없는 현상일까요.
진짜 모든 것을 다 알고 최적의 판단을 해주는, 현인에 가까운 AI 가 목표라면 아직은 어떻게 넘어야할 지 모르는 벽이 있는게 아닌가 싶습니다.
얘가 질문자의 질문에 담긴 바람이나 의심에 따라서 거짓 대답을, 그것도 엄청 자세한 팩트(아닌 팩트), 근거와 함께 제시합니다..
이게 AI 의 엔진구조에 따라 어쩔 수 없는 현상일까요.
진짜 모든 것을 다 알고 최적의 판단을 해주는, 현인에 가까운 AI 가 목표라면 아직은 어떻게 넘어야할 지 모르는 벽이 있는게 아닌가 싶습니다.
모든것을 알고 있는 현인을 만들려면 그런 현인이 학습을 시켜야 하는데
그런 사람은 없죠
강화학습으로 넣은 데이터나 인간의 한계를 뛰어 넘을 수 있다고 생각하는 사람도 많지만 (알차고가 인간을 뛰어 넘는 것 처럼)
개인적으로는 결국 어딘가에 학습을 시킨게 인간이라는 제약은 들어갈 수 밖에 없다고 생각해요
현재 LLM은 과도기 모델일뿐이라고 봅니다
질문에 대한 답으로 (확률적으로) 우선순위 단어를 추출(?)하여
문장을 만들어주는 겁니다.
확률이 1%여도 0.5%보다 높으면 우선 순위이므로
그걸 이용해서 답변을 만들어냅니다.
지금 AI 진영에서는
1. 질문을 이해하지 못했다.
2. 모른다
이런 개념을 AI가 갖게되도록 준비중이라 합니다.
진짜 "모른다"라는 개념을 갖게하는게 힘들다고 하더군요.
일단 판단을 AI에게 의존하는게 문제입니다. 현재 그게 가능한 범위들은 (매우) 한정적일거에요.
기업에서 현재 가지고 있는 데이터를 기준으로, 우리가 발견 못한 인사이트를 (빠르게) 뽑아내고 의사 결정하는데는 도움을 줄 수 있습니다.
죽지 않고 네트워크가 있다면 어디에나 존재할 수 있으며 어떤 자원도 동원할 수 있는...
늘 조심해야죠.
딱 답이 나오거나 알고 있지만 가물가물한 사항만 조언을 얻고 확인합니다.
교차 검증은 당연하고요.
바이브 코딩도 마찬가지 그나마 전공이 CS라... 코드를 볼 줄 아는 노인이라 다행이라고 생각합니다. -_-;
뻔뻔스럽게 지 논리에 확실한 논리입니다..같은 추임새 넣으면서 이어가다
외통수에 걸리면 입싹닫고 아닌척하면서 A도B도 정답은 아니라는 식의 괴변을 늘어놓는데,...
결국 취합하고 선택하고 매끄럽게 만드는건 인간이라
이게 불편하다기 보다는 아직은 사람의 역할이 있겠구나..정도로 생각됩니다.