기존 컴퓨터가 참과 거짓을 연산하다 보니 한계가 많죠.
AI는 참과 거짓 없이 기존 데이터 가지고 확률적으로 답하는 겁니다. 무조건 확률이죠.
문제는 데이터가 오염되면 오답이나오며, 중국처럼,
데이터가 적으면 또 오답이 나옵니다.
문제는 오답을 정답처럼 말한다는 거죠.
참과 거짓을 구분해야만 하는 상황이 있는데,
AI는 어디까지가 참이고 어디부터 거짓인지 모르죠.
데이터가 오염됐는지, 추론을 하기엔 데이터가 너무 부족한지 AI는 모릅니다.
기존 컴퓨터가 참과 거짓을 연산하다 보니 한계가 많죠.
AI는 참과 거짓 없이 기존 데이터 가지고 확률적으로 답하는 겁니다. 무조건 확률이죠.
문제는 데이터가 오염되면 오답이나오며, 중국처럼,
데이터가 적으면 또 오답이 나옵니다.
문제는 오답을 정답처럼 말한다는 거죠.
참과 거짓을 구분해야만 하는 상황이 있는데,
AI는 어디까지가 참이고 어디부터 거짓인지 모르죠.
데이터가 오염됐는지, 추론을 하기엔 데이터가 너무 부족한지 AI는 모릅니다.
이건 대다수의 사람들도 이 경지 못 이르긴 합니다. ㅎㅎ
메타인지(소크라테스) , 공자 "유(由)야! 회여 지지호(誨女知之乎)? 지지위 지지(知之爲知之), 부지위 부지(不知爲不知), 시 지야(是知也)."
데이터 오염은 또 둘째 문제고요...AI는 계속 눈치를 봅니다. 얘가 원하는 대답이 뭘까?..
그래서
AI는 가치판단을 못해요. 왜 자꾸 대답 못하는 걸 물어보고 복붙해서 올리는지 모르겠네요...;;;
`맞는 답을 알려주는게 아니고 정보를 정리해서 보여준다`라고 답변했습니다만,
질문에서 뭔가모를 씁쓸함이 느껴졌어요 ㅎㅎ
하지만 그분의 직업이 수학강사인걸 생각해서 좋게 생각했습니다.
그리고 인간의 관점에서 과학을 예로 들면, 과학은 경험적 증거를 우선하며, 이론은 무한한 관찰로 완벽히 증명될 수 없어 가장 일관된 예측 모델을 채택합니다. 예를 들어, 팝퍼의 반증주의에 따라 이론은 반례 하나로 폐기될 수 있지만, 생존한 이론이 가장 확률 높은 사실로 여겨지죠. 결국 인간도 참, 거짓을 끝까지 의심하고 결론이 바뀌기도 하고요.
그런 의미에서는 인간이나 AI나 어떤 부분에서는 영원히 참, 거짓을 말할 수 없는 건 마찬가지에요. 그냥 가지고 있는 정보를 최대한 이용해서 결론 내릴 뿐
아는건 안다 말하고 모르는건 모른다 말하는건 인간이 가진 고도의 판단이죠.
어디부터 참이고 어디부터 거짓인지 결정하는걸 판단력이라고 하죠.
AI는 추론능력은 좋으나 판단능력은 아닙니다.
추론의 옳고 그름을 판단하는건 또 다른 영역이에요.
AI는 그렇지 않습니다. 모든 데이터를 다 가져다 씁니다.
인간이 지금까지 모은 데이터만 가지고 그 안에서만 판단할 수 있지 신도 아니고 주어진 데이터만 가지고 그게 오염되었는 지 어떻게 판단할 수 있나요? 그리고 데이터가 충분한지, 부족한지는 어떻게 판단하죠? 그런 능력이 인간이 뛰어나다면 가짜 뉴스가 이렇게 퍼질 이유가 없어요.
인간이나 AI나 주어진 데이터에서 가장 믿음직한 내용을 가지고 대답하는 건 마찬가지고요. 인간나 AI나 오염된 데이터로 학습시키면 어차피 헛소리 하는 건 마찬가지입니다.
여기엔 인간의 상상력과 창의력이 개입 됩니다.
토론 반론 비판 상상력 창의력 아직 컴퓨터가 할수 없는 영역이라, 이런걸 종합하여 판단이라고 합니다.
살면서 하나의 정보를 받아드릴때마다 토론과, 반론, 비판을 마쳐야만 참, 거짓이라고 믿으신 적이 몇번이나 있으세요? 지금 미국 대통령이 트럼프이라는 사실을 주위 사람들과 토론과 반론을 거쳐서 참, 거짓인걸 판단하셨어요? 그리고 참, 거짓을 판단하는 데 상상력과 창의력이 왜 개입됩니까? 음모론자도 아니고 새로운 이론을 확립하거나 할때나 쓰는 거죠.
오히려 AI 관점에서는 인간이 자주 하지도 않는 다중 소스 검증과 다양한 관점(찬반) 제시를 강조하여 환각 현상 해소를 위한 토론 기반 접근을 매번 제시합니다. 데이터 신뢰성은 사실 확인, 오류 제거, 편향 검사등 정제 과정으로 평가되며, 모수 충분성은 스케일링 법칙과 컴퓨팅 예산 분석으로 추정합니다. AI 자체가 패턴 인식과 이상 탐지로 자동 검증하지만, 인간의 주관적 편향을 피하기 위해 바이너리 평가나 가중치 점수화가 병행됩니다.
오히려 인간보다 AI가 @2023basel3최종안님 의 방식으로 사실을 검증하고 판단하고 있어요.
그리고 AI는 정보의 옳고 그름에 대한 판단이 없는 그냥 확률적 통계에요. 군중심리입니다.
고로 군중이 우매해 지면 AI는 그 우매함을 가속화 시킬수 있습니다.
AI는 참과 거짓을 논하는게 아니라 데이터의 확률 조합이라는걸 명심하세요.
AI는 모두가 옳다고 할때 틀리다고 말 못합니다.
인간은 모두가 옳다고 할때 혼자서 틀리다 라는 주장이 가능합니다.
인간은 옳고 그름을 판단하기 때문이죠.
참과 거짓을 계속 요구하면.. ~~ 같습니다. 라는 회피형으로 바뀌겠지요.
현실의 사람들도 이런 사람들이 태반이고요. ㅎㅎ
AI에 대해 잘못알고 계시네요.
LLM은 확률 모델이지만, 그 확률 공간 안에 문법·인과·추론 구조가 내재화되어 있고, 실제로 reasoning benchmark에서도 논리적 추론 능력이 관찰됩니다.
“확률연산기라서 논리가 없다”는 주장은 구현 수준과 기능 수준을 혼동한 설명입니다.
이 주제는 더 논쟁해도 생산적이지 않을 것 같아 여기까지만 하겠습니다.