CLIEN

본문 바로가기 메뉴 바로가기 보기설정 테마설정
톺아보기 공감글
커뮤니티 커뮤니티전체 C 모두의광장 F 모두의공원 I 사진게시판 Q 아무거나질문 D 정보와자료 N 새로운소식 T 유용한사이트 P 자료실 E 강좌/사용기 L 팁과강좌 U 사용기 · 체험단사용기 W 사고팔고 J 알뜰구매 S 회원중고장터 B 직접홍보 · 보험상담실 H 클리앙홈
소모임 소모임전체 ·굴러간당 ·아이포니앙 ·방탄소년당 ·주식한당 ·MaClien ·일본산당 ·자전거당 ·개발한당 ·이륜차당 ·바다건너당 ·AI당 ·노젓는당 ·안드로메당 ·클다방 ·소셜게임한당 ·소시당 ·물고기당 ·콘솔한당 ·갖고다닌당 ·찰칵찍당 ·걸그룹당 ·가상화폐당 ·여행을떠난당 ·ADHD당 ·골프당 ·나스당 ·방송한당 ·캠핑간당 ·개판이당 ·e북본당 ·전기자전거당 ·3D메이킹 ·X세대당 ·AI그림당 ·날아간당 ·사과시계당 ·육아당 ·배드민턴당 ·야구당 ·농구당 ·블랙베리당 ·곰돌이당 ·비어있당 ·FM당구당 ·블록체인당 ·보드게임당 ·활자중독당 ·볼링친당 ·냐옹이당 ·문명하셨당 ·클래시앙 ·요리한당 ·쿠키런당 ·대구당 ·DANGER당 ·뚝딱뚝당 ·디아블로당 ·동숲한당 ·날아올랑 ·이브한당 ·패셔니앙 ·도시어부당 ·FM한당 ·맛있겠당 ·포뮬러당 ·젬워한당 ·안경쓴당 ·차턴당 ·총쏜당 ·땀흘린당 ·하스스톤한당 ·히어로즈한당 ·인스타한당 ·IoT당 ·KARA당 ·키보드당 ·꼬들한당 ·덕질한당 ·어학당 ·가죽당 ·레고당 ·리눅서당 ·LOLien ·Mabinogien ·임시소모임 ·미드당 ·밀리터리당 ·땅판당 ·헌팅한당 ·오른당 ·영화본당 ·MTG한당 ·소리당 ·노키앙 ·적는당 ·PC튜닝한당 ·그림그린당 ·소풍간당 ·심는당 ·패스오브엑자일당 ·라즈베리파이당 ·품앱이당 ·리듬탄당 ·달린당 ·Sea마당 ·SimSim하당 ·심야식당 ·윈태블릿당 ·미끄러진당 ·축구당 ·나혼자산당 ·스타한당 ·스팀한당 ·파도탄당 ·퐁당퐁당 ·테니스친당 ·테스트당 ·빨콩이당 ·공대시계당 ·터치패드당 ·트윗당 ·창업한당 ·VR당 ·시계찬당 ·WebOs당 ·위스키당 ·와인마신당 ·WOW당 ·윈폰이당
임시소모임
고객지원
  • 게시물 삭제 요청
  • 불법촬영물등 신고
  • 쪽지 신고
  • 닉네임 신고
  • 제보 및 기타 제안
© CLIEN.NET
공지[점검] 잠시후 서비스 점검을 위해 약 30분간 접속이 차단됩니다. (금일 18:15 ~ 18:45)

모두의공원

AI는 참과 거짓을 모릅니다. 26

2025-12-19 13:39:30 수정일 : 2025-12-19 13:40:31 211.♡.55.63
2023basel3최종안

기존 컴퓨터가 참과 거짓을 연산하다 보니 한계가 많죠.

AI는 참과 거짓 없이 기존 데이터 가지고 확률적으로 답하는 겁니다. 무조건 확률이죠.

문제는 데이터가 오염되면  오답이나오며, 중국처럼,

데이터가 적으면 또 오답이 나옵니다.

문제는 오답을 정답처럼 말한다는 거죠.


참과 거짓을 구분해야만 하는 상황이 있는데,

AI는 어디까지가 참이고 어디부터 거짓인지 모르죠.

데이터가 오염됐는지, 추론을 하기엔 데이터가 너무 부족한지 AI는 모릅니다.


2023basel3최종안 님의 게시글 댓글
  • 주소복사
  • Facebook
  • X(Twitter)
댓글 • [26]
민군이닷
IP 121.♡.83.229
12-19 2025-12-19 13:41:23
·
그래서 지금의 ai는 한계가 있다고 봅니다
센소다인시린이
IP 172.♡.252.16
12-19 2025-12-19 13:42:16
·
ㅋㅋㅋ 재밌어요
뎅뎅이!
IP 61.♡.246.17
12-19 2025-12-19 13:42:48 / 수정일: 2025-12-19 13:44:35
·
지능이 높다. = 내가 알고, 모른다는 것을 안다...

이건 대다수의 사람들도 이 경지 못 이르긴 합니다. ㅎㅎ

메타인지(소크라테스) , 공자 "유(由)야! 회여 지지호(誨女知之乎)? 지지위 지지(知之爲知之), 부지위 부지(不知爲不知), 시 지야(是知也)."
forgotmind
IP 182.♡.175.144
12-19 2025-12-19 13:47:55 / 수정일: 2025-12-19 13:49:14
·
같은 글 올리려다가 이 글 보고 참았네요..ㅋㅋㅋ
데이터 오염은 또 둘째 문제고요...AI는 계속 눈치를 봅니다. 얘가 원하는 대답이 뭘까?..
그래서
AI는 가치판단을 못해요. 왜 자꾸 대답 못하는 걸 물어보고 복붙해서 올리는지 모르겠네요...;;;
무릎긁고
IP 61.♡.119.137
12-19 2025-12-19 13:51:49
·
그러게요. 지인에게 퍼플랙시티 좋다면서 사용법 알려줬는데, `그게 맞는 답을 알려주는거냐?` 라고 묻더라고요..

`맞는 답을 알려주는게 아니고 정보를 정리해서 보여준다`라고 답변했습니다만,
질문에서 뭔가모를 씁쓸함이 느껴졌어요 ㅎㅎ
하지만 그분의 직업이 수학강사인걸 생각해서 좋게 생각했습니다.
Drone
IP 121.♡.89.133
12-19 2025-12-19 13:53:49
·
https://www.clien.net/service/board/park/18127353CLIEN
행복주식회사
IP 211.♡.231.247
12-19 2025-12-19 13:54:25 / 수정일: 2025-12-19 13:54:39
·
간단한 건 google notebook LM을 사용해보시고, 파이썬 할 줄 아신다면 RAG 구축해서 쓰면 많이 줄어들어요.
Wolowitz
IP 58.♡.2.33
12-19 2025-12-19 14:08:07 / 수정일: 2025-12-19 14:12:16
·
AI가 생각하는 참과 거짓을 말하는 거지. 알지 못한다고 할 순 없죠. 잘못된 정보를 입력해도 AI는 그걸 기반으로 대답을 하는 데 단순 입력값을 불러온 것일뿐 AI 입장에서 사실이긴 하죠.

그리고 인간의 관점에서 과학을 예로 들면, 과학은 경험적 증거를 우선하며, 이론은 무한한 관찰로 완벽히 증명될 수 없어 가장 일관된 예측 모델을 채택합니다. 예를 들어, 팝퍼의 반증주의에 따라 이론은 반례 하나로 폐기될 수 있지만, 생존한 이론이 가장 확률 높은 사실로 여겨지죠. 결국 인간도 참, 거짓을 끝까지 의심하고 결론이 바뀌기도 하고요.

그런 의미에서는 인간이나 AI나 어떤 부분에서는 영원히 참, 거짓을 말할 수 없는 건 마찬가지에요. 그냥 가지고 있는 정보를 최대한 이용해서 결론 내릴 뿐
2023basel3최종안
IP 211.♡.55.63
12-19 2025-12-19 14:18:06 / 수정일: 2025-12-19 14:20:03
·
@Wolowitz님 인간은 데이터가 오염됐다고 느끼거나, 데이터가 부족할때 참과 거짓을 논하지 않습니다.

아는건 안다 말하고 모르는건 모른다 말하는건 인간이 가진 고도의 판단이죠.

어디부터 참이고 어디부터 거짓인지 결정하는걸 판단력이라고 하죠.
AI는 추론능력은 좋으나 판단능력은 아닙니다.
추론의 옳고 그름을 판단하는건 또 다른 영역이에요.
Wolowitz
IP 58.♡.2.33
12-19 2025-12-19 14:19:27
·
@2023basel3최종안님 제 댓글을 제대로 안 읽으셨군요.
2023basel3최종안
IP 211.♡.55.63
12-19 2025-12-19 14:22:18 / 수정일: 2025-12-19 14:24:25
·
@Wolowitz님 님 글은 데이터가 최대한 믿을만하고 검증된 즉 걸러진 대이터만 이용 힌다는 전제인데요.
AI는 그렇지 않습니다. 모든 데이터를 다 가져다 씁니다.
Wolowitz
IP 58.♡.2.33
12-19 2025-12-19 14:34:30 / 수정일: 2025-12-19 14:39:32
·
@2023basel3최종안님 댓글 수정하시고 거기에 이젠 다른 이야기 쓰시니 어디에 논조를 맞춰야하는 지 모르겠네요.

인간이 지금까지 모은 데이터만 가지고 그 안에서만 판단할 수 있지 신도 아니고 주어진 데이터만 가지고 그게 오염되었는 지 어떻게 판단할 수 있나요? 그리고 데이터가 충분한지, 부족한지는 어떻게 판단하죠? 그런 능력이 인간이 뛰어나다면 가짜 뉴스가 이렇게 퍼질 이유가 없어요.

인간이나 AI나 주어진 데이터에서 가장 믿음직한 내용을 가지고 대답하는 건 마찬가지고요. 인간나 AI나 오염된 데이터로 학습시키면 어차피 헛소리 하는 건 마찬가지입니다.
2023basel3최종안
IP 211.♡.55.63
12-19 2025-12-19 14:39:47 / 수정일: 2025-12-19 14:41:25
·
@Wolowitz님 데이터가 신뢰할만한지 아닌지 모수가 충분한지 아닌지 그건 토론과 반론 비판으로 검증하죠.
여기엔 인간의 상상력과 창의력이 개입 됩니다.

토론 반론 비판 상상력 창의력 아직 컴퓨터가 할수 없는 영역이라, 이런걸 종합하여 판단이라고 합니다.
Wolowitz
IP 58.♡.2.33
12-19 2025-12-19 15:08:38
·
@2023basel3최종안님 좀 터무니 없는 이야기인거 같네요.

살면서 하나의 정보를 받아드릴때마다 토론과, 반론, 비판을 마쳐야만 참, 거짓이라고 믿으신 적이 몇번이나 있으세요? 지금 미국 대통령이 트럼프이라는 사실을 주위 사람들과 토론과 반론을 거쳐서 참, 거짓인걸 판단하셨어요? 그리고 참, 거짓을 판단하는 데 상상력과 창의력이 왜 개입됩니까? 음모론자도 아니고 새로운 이론을 확립하거나 할때나 쓰는 거죠.

오히려 AI 관점에서는 인간이 자주 하지도 않는 다중 소스 검증과 다양한 관점(찬반) 제시를 강조하여 환각 현상 해소를 위한 토론 기반 접근을 매번 제시합니다. 데이터 신뢰성은 사실 확인, 오류 제거, 편향 검사등 정제 과정으로 평가되며, 모수 충분성은 스케일링 법칙과 컴퓨팅 예산 분석으로 추정합니다. AI 자체가 패턴 인식과 이상 탐지로 자동 검증하지만, 인간의 주관적 편향을 피하기 위해 바이너리 평가나 가중치 점수화가 병행됩니다.

오히려 인간보다 AI가 @2023basel3최종안님 의 방식으로 사실을 검증하고 판단하고 있어요.
메가맨
IP 210.♡.229.81
12-19 2025-12-19 19:03:55
·
@2023basel3최종안님 그.. 좀 많이 틀린 것 같으세요. 상상력 창의력이 컴퓨터가 할 수 없는 것도 지금은 아니구요, 토론 가능한 추론 능력이 없는게 핵심입니다..
2023basel3최종안
IP 211.♡.55.63
12-19 2025-12-19 22:49:06 / 수정일: 2025-12-19 22:49:51
·
@Wolowitz님 어떠한 정보가 있을때, 인간의 상상력은 무궁무진해서 소위 억까를 하는게 가능하죠. 가량 달착륙 허구설이 그렇습니다. 그런 종류의 억까를 다 패스하고 더이상 억까가 안나와야 비로서 진실로 받아들이죠. AI는 이런과정 없습니다. 그냥 주입된것만 나열합니다.

그리고 AI는 정보의 옳고 그름에 대한 판단이 없는 그냥 확률적 통계에요. 군중심리입니다.
고로 군중이 우매해 지면 AI는 그 우매함을 가속화 시킬수 있습니다.
AI는 참과 거짓을 논하는게 아니라 데이터의 확률 조합이라는걸 명심하세요.

AI는 모두가 옳다고 할때 틀리다고 말 못합니다.
인간은 모두가 옳다고 할때 혼자서 틀리다 라는 주장이 가능합니다.
인간은 옳고 그름을 판단하기 때문이죠.
move3
IP 115.♡.174.98
12-19 2025-12-19 14:17:43
·
저는 거짓말을 캐치 할 때마다 모르는건 모른다고 말하고 아는것만 말하라고 계속 이야기 했더니 조금씩 고쳐지더군요.
뎅뎅이!
IP 61.♡.246.17
12-19 2025-12-19 14:22:44 / 수정일: 2025-12-19 14:23:10
·
AI에게

참과 거짓을 계속 요구하면.. ~~ 같습니다. 라는 회피형으로 바뀌겠지요.

현실의 사람들도 이런 사람들이 태반이고요. ㅎㅎ
메가맨
IP 210.♡.229.81
12-19 2025-12-19 19:05:32
·
정확한 말씀은 아닌 것 같습니다. 인간도 참과 거짓을 모릅니다. 그냥 참이라고 믿을 뿐이죠. LLM은 믿음이 모델링이 안되어있어서 참과 거짓을 모르는 것 처럼 보이는겁니다.
2023basel3최종안
IP 211.♡.55.63
12-19 2025-12-19 22:45:32 / 수정일: 2025-12-19 22:50:16
·
@메가맨님 인간에게 참과 거짓이 왜 없어요. 논리라는게 있는데요. 논리에 부합하면 참입니다. AI는 논리가 아닙니다. AI는 통계적 확률이에요.
메가맨
IP 106.♡.11.201
12-20 2025-12-20 02:30:42 / 수정일: 2025-12-20 11:15:37
·
@2023basel3최종안님 논리에 부합하는지 어떻게 압니까. 참이라고 믿는거죠. F=ma가 참이라고 생각하시나요? 그냥 실험적으로 반복적 관측이 가능하고 인간에게 유용해서 지구에서만 참이라고 믿는겁니다. 논리에 부합한다는 것 자체가 신념체계 입니다. 심지어 LLM에도 논리가 없지는 않습니다. 나름의 논리가 있으니까 답변을 내놓고 추론을 (잘은 못해도) 하기는 하죠.
2023basel3최종안
IP 211.♡.55.63
12-20 2025-12-20 12:46:41
·
@메가맨님 AI는 확률연산기입니다. AI는 논리연산기가 아닙니다.
AI에 대해 잘못알고 계시네요.
삭제 되었습니다.
메가맨
IP 106.♡.11.201
12-22 2025-12-22 11:31:03
·
@2023basel3최종안님 정작 잘못알고 계신분은 따로있네요. AI 모델 연구자는 아니지만 알만큼 알고있습니다. 할얘기 많지만 더 이상 말씀드리지 않겠습니다.
2023basel3최종안
IP 211.♡.55.63
12-22 2025-12-22 11:40:32
·
@메가맨님 논리와 확률은 전혀 다른겁니다. AI는 확률입니다.
메가맨
IP 106.♡.11.201
12-22 2025-12-22 12:59:13
·
@2023basel3최종안님 논리와 확률을 대립 개념으로 보는 건 현대 AI/인지과학 관점과 다릅니다.
LLM은 확률 모델이지만, 그 확률 공간 안에 문법·인과·추론 구조가 내재화되어 있고, 실제로 reasoning benchmark에서도 논리적 추론 능력이 관찰됩니다.

“확률연산기라서 논리가 없다”는 주장은 구현 수준과 기능 수준을 혼동한 설명입니다.

이 주제는 더 논쟁해도 생산적이지 않을 것 같아 여기까지만 하겠습니다.
아라미스
IP 211.♡.4.76
12-20 2025-12-20 17:36:41
·
메모 달린 몇몇도 참과 거짓을 구분 못하니 그들도 AI인걸까요?
새로운 댓글이 없습니다.
이미지 최대 업로드 용량 15 MB / 업로드 가능 확장자 jpg,gif,png,jpeg,webp
지나치게 큰 이미지의 크기는 조정될 수 있습니다.
목록으로
글쓰기
글쓰기
목록으로 댓글보기 이전글 다음글
아이디  ·  비밀번호 찾기 회원가입
이용규칙 운영알림판 운영소통 재검토요청 도움말 버그신고
개인정보처리방침 이용약관 책임의 한계와 법적고지 청소년 보호정책
©   •  CLIEN.NET
보안 강화를 위한 이메일 인증
안전한 서비스 이용을 위해 이메일 인증을 완료해 주세요. 현재 회원님은 이메일 인증이 완료되지 않은 상태입니다.
최근 급증하는 해킹 및 도용 시도로부터 계정을 보호하기 위해 인증 절차가 강화되었습니다.

  • 이메일 미인증 시 글쓰기, 댓글 작성 등 게시판 활동이 제한됩니다.
  • 이후 새로운 기기에서 로그인할 때마다 반드시 이메일 인증을 거쳐야 합니다.
  • 2단계 인증 사용 회원도 최초 1회는 반드시 인증하여야 합니다.
  • 개인정보에서도 이메일 인증을 할 수 있습니다.
지금 이메일 인증하기
등록된 이메일 주소를 확인하고 인증번호를 입력하여
인증을 완료해 주세요.