CLIEN

본문 바로가기 메뉴 바로가기 보기설정 테마설정
톺아보기 공감글
커뮤니티 커뮤니티전체 C 모두의광장 F 모두의공원 I 사진게시판 Q 아무거나질문 D 정보와자료 N 새로운소식 T 유용한사이트 P 자료실 E 강좌/사용기 L 팁과강좌 U 사용기 · 체험단사용기 W 사고팔고 J 알뜰구매 S 회원중고장터 B 직접홍보 · 보험상담실 H 클리앙홈
소모임 소모임전체 ·굴러간당 ·주식한당 ·아이포니앙 ·MaClien ·방탄소년당 ·일본산당 ·자전거당 ·개발한당 ·이륜차당 ·소시당 ·나스당 ·안드로메당 ·AI당 ·걸그룹당 ·영화본당 ·골프당 ·클다방 ·사과시계당 ·디아블로당 ·패스오브엑자일당 ·가상화폐당 ·노키앙 ·IoT당 ·축구당 ·젬워한당 ·노젓는당 ·창업한당 ·윈폰이당 ·리눅서당 ·육아당 ·소셜게임한당 ·여행을떠난당 ·바다건너당 ·물고기당 ·라즈베리파이당 ·캠핑간당 ·3D메이킹 ·X세대당 ·ADHD당 ·AI그림당 ·날아간당 ·배드민턴당 ·야구당 ·농구당 ·블랙베리당 ·곰돌이당 ·비어있당 ·FM당구당 ·블록체인당 ·보드게임당 ·활자중독당 ·볼링친당 ·냐옹이당 ·문명하셨당 ·클래시앙 ·콘솔한당 ·요리한당 ·쿠키런당 ·대구당 ·DANGER당 ·뚝딱뚝당 ·개판이당 ·동숲한당 ·날아올랑 ·전기자전거당 ·e북본당 ·갖고다닌당 ·이브한당 ·패셔니앙 ·도시어부당 ·FM한당 ·맛있겠당 ·포뮬러당 ·안경쓴당 ·차턴당 ·총쏜당 ·땀흘린당 ·하스스톤한당 ·히어로즈한당 ·인스타한당 ·KARA당 ·키보드당 ·꼬들한당 ·덕질한당 ·어학당 ·가죽당 ·레고당 ·LOLien ·Mabinogien ·임시소모임 ·미드당 ·밀리터리당 ·땅판당 ·헌팅한당 ·오른당 ·MTG한당 ·소리당 ·적는당 ·방송한당 ·PC튜닝한당 ·찰칵찍당 ·그림그린당 ·소풍간당 ·심는당 ·품앱이당 ·리듬탄당 ·달린당 ·Sea마당 ·SimSim하당 ·심야식당 ·윈태블릿당 ·미끄러진당 ·나혼자산당 ·스타한당 ·스팀한당 ·파도탄당 ·퐁당퐁당 ·테니스친당 ·테스트당 ·빨콩이당 ·공대시계당 ·터치패드당 ·트윗당 ·VR당 ·시계찬당 ·WebOs당 ·위스키당 ·와인마신당 ·WOW당
임시소모임
고객지원
  • 게시물 삭제 요청
  • 불법촬영물등 신고
  • 쪽지 신고
  • 닉네임 신고
  • 제보 및 기타 제안
© CLIEN.NET
공지[점검] 잠시후 서비스 점검을 위해 약 30분간 접속이 차단됩니다. (금일 18:15 ~ 18:45)

모두의공원

오픈AI '환각은 기술적으로 없앨 수 없다' 인정 33

2
2025-09-19 20:11:30 210.♡.58.1
백반이

https://www.itworld.co.kr/article/4059708

...

이들은 최신 모델을 대상으로 실험을 진행했다. 예를 들어 “딥시크(DEEPSEEK)에 D가 몇 개 있나?”라는 질문에 DeepSeek-V3(6,000억 파라미터)는 10번의 독립적 실험에서 ‘2’ 또는 ‘3’을 답했으며, 메타 AI와 클로드 3.7 소네트 역시 유사한 결과를 내며 ‘6’이나 ‘7’ 같은 답을 내기도 했다.

오픈AI는 자사 모델에서도 같은 문제가 지속됨을 인정했다. 논문은 “챗GPT 역시 환각을 일으킨다. GPT-5는 특히 추론 영역에서 환각 빈도가 크게 줄었지만 완전히 사라지지는 않았다. 환각은 모든 LLM의 근본적인 과제”라고 밝혔다.

...


오픈AI가 환각은 단순한 버그나 개발 실수가 아니라 LLM의 수학적이고 구조적인 한계 때문에 앞으로도 없앨 수 없다고 인정했습ㄴ다.


이런 환각의 원인은

- 훈련 데이터의 희소성 -> 인식 불확실성

- 모델 아키텍처의 표현 한계

- 암호학적 난제 등 본질적으로계산 불가능한 문제


이라고 하는데, AI는 학습 시 "모른다"라고 답변하는 걸 불이익으로 처리해서 해당 비슷한 답변을 내지 않도록 하고, 틀린 답이라도 자신있게 내면 더 좋은 답이라고 가중 점수를 주는 구조라고 하네요. 즉 환각을 더 하라고 장려하는 것.


결론적으로 환각 완전 제거는 불구하고, 기업에서 AI를 활용할 때는 사람이 개입해서 확인하는 절차를 강화하고 산업 별 안전 장치 도입, 실환경 모니터링 등이 필요하다고 합니다. 결국 사람이 필요한 거죠.


문제는 기업의 경우 이렇게 AI 활용하면서 환각을 잡아낼 능력이라도 있지, 그런 능력도 없는 개인들은 이제 ChatGPT나 Gemini 같은 것을 어떻게 쓰나요...

백반이 님의 게시글 댓글
  • 주소복사
  • Facebook
  • X(Twitter)
댓글 • [33]
memberst
IP 121.♡.223.41
09-19 2025-09-19 20:13:25
·
환각이라고 하는데 실질적으로 확률의 문제입니다.
예초에 이 알고리즘이 확률 기반의 알고리즘 이기 때문에 근본적으로 나올수 밖에 없습니다 그 빈도를 줄이는거지 없애지는 못하죠
백반이
IP 210.♡.58.1
09-19 2025-09-19 20:15:05
·
@memberst님 그쵸. 아무튼 그걸 0으로 만들지 않는 한 신뢰할 수 없게 된다는 건데, 그걸 검증할 능력이 개인한테는 없는 경우가 많으니... ㅠ
천문공
IP 122.♡.56.205
09-19 2025-09-19 20:23:42
·
@memberst님 LLM 자체는 그러하지만
그 외적인 방법으로 잡아내는 연구는 많습니다.
memberst
IP 121.♡.223.41
09-19 2025-09-19 20:26:39
·
@백반이님 지금 LLM의 문제는 어짜피 일단 최종 검증은 실력있는 사람이 해야한다는게 문제죠
하지만 그런 능력이 있는 사람에게는 오히려 일을 빠르게 할수 있는 도구가 됩니다.
블루텀
IP 125.♡.110.233
09-19 2025-09-19 20:15:06 / 수정일: 2025-09-19 20:15:10
·
인간도 실수랑 망각을 하니까요. 환각이 있다고 AI를 안쓰지는 않을 것 같아요
라잇쉐어
IP 49.♡.16.236
09-20 2025-09-20 10:10:09
·
@블루텀님오 ai 잘은 모르지만 인간의 뇌를 따라한탓인가 싶기도하네요
하라쇼
IP 182.♡.69.116
09-19 2025-09-19 20:15:46
·
흥미롭군요
memories_
IP 118.♡.3.88
09-19 2025-09-19 20:18:13 / 수정일: 2025-09-19 20:20:27
·
AI를 럭키 앵무새라고 부르지 않나요
학습한 것을 비슷하게 흉내 내는데 그 의미는 모르는 상태죠.
근데 결과물을 아무런 비판 의식 없이 받아들이는 건 단순히 AI에 국한된 문제는 아니라고 봐요.
본인이 걸러 들을 수 있는 건 걸러 듣고 검증해야죠.
백반이
IP 210.♡.58.1
09-19 2025-09-19 20:19:26
·
@memories_님 재밌는 비유네요. 럭키 스마트 앵무새인 것 같습니다. 아무튼 배운 건 거의 잊어버리지 않으니까요. ㅋㅋ
네디언
IP 106.♡.1.96
09-19 2025-09-19 22:26:20 / 수정일: 2025-09-19 22:51:54
·
@memories_님 AI 기술을 깊게 공부하면 명백히 잘못된 말인걸 아실 겁니다. Vector Space 상의 Semantic Embedding, 학습 가능한 가중치 레이어를 통한 벡터 공간상의 선형 변환, Transformer 아키텍처 Attention Mechanism의 QKV 벡터 등을 공부하고 나면 LLM이 의미를 모르고 앵무새처럼 따라한다는 말은 틀린 말이라는 걸 이해하실 거에요. 고도의 복잡한 작업도 처리하는 LLM이 글자 철자 세기처럼 인간에게 간단한 일을 처리 못하는 이유는 인간지능과 인공지능이 근본적으로 다르기 때문이지 LLM이 지능적 과정 없이 앵무새처럼 따라하기 때문이 아닙니다. LLM에 대한 대표적인 오해라고 할 수 있겠네요.
oune
IP 110.♡.24.105
09-19 2025-09-19 23:11:43
·
@네디언님
앵무새도 학습합니다.
용어들을 많이 적어두셨는대
그래서 결국 자기회귀 과정중에 판단 근거에대한 학습을 하진 않고 입력 토큰에 대한 출력을 학습할 뿐일텐데

사람말을 입력으로 자기 목소리로 출력하는 앵무새 라는 비유가 입출력 입장에서 보면 크게 다를바 없어 보입니다.
앵무새나 llm이나 블랙박스인간 비슷하고
Xai 나 뇌과학이 발전해서 근거를 확인할 가능성 이 있다는것고 나름의 유머로 같은 취급 할만합니다.

앵무새의 말이 성능 나쁜 llm과 구별이 힘들것 같긴하네요 eos 생성못하는 모델을 만든적이 있었는데 앵무새 같긴 했었네요
네디언
IP 106.♡.9.48
09-21 2025-09-21 21:52:55 / 수정일: 2025-09-21 22:02:57
·
@oune님 위에 적어둔 용어들에 대해서 그냥 넘어가지 마시고 한번 알아보시길 권장드립니다 ㅎㅎ 말씀하신 것만큼 간단한 과정이 아닙니다. 특히 트랜스포머 아키텍처가 Query-Key-Value 벡터를 어떻게 생성하는지, 단어 토큰 생성에서 그걸 어떻게 활용하는지에 대해 깊게 알아보시길 바랍니다. 단언하겠지만 LLM은 앵무새랑 근본적으로 다릅니다. 그건 LLM 학습 과정에 대한 얕은 이해에서 오는 착각입니다.
oune
IP 118.♡.11.146
09-24 2025-09-24 11:14:46
·
@네디언님
전공자 이고 실무자입니다..
너무 이론에만 몰두 하신게 아닌가 싶습니다.
이미 알고있는 내용이니 본인의 의견을 더얘기해주셧으면 합니다
퍼렁곰
IP 218.♡.144.114
09-19 2025-09-19 20:30:08 / 수정일: 2025-09-19 20:30:20
·
최근에 geeknews에서 읽었는데,
LLM의 모든 대답은 100% 환각인데 그 중에서 우리가 '가치가 있다'고 믿거나 '참'이라고 믿는 대답은 환각이라고 분류되지 않고, '가치가 없다'고 여겨지거나 '거짓'이라고 여겨지는 대답이 최종적으로 '환각'으로 정의된다고 하더군요.

'환각'이라는 단어가 주는 뉘앙스가 부정적이어서 그렇지, LLM = 환각 이라고 봐도 무방하다라고 주장하는 글이었는데 저도 공감이 갔습니다.
qorqus
IP 118.♡.10.183
09-20 2025-09-20 08:27:48
·
@퍼렁곰님 temperature 값이나 p값 조절해서 대화하다보면 진짜 100% 환각인데 우리가 취사선택하는 거구나 라는 생각이 들죠 ㅋㅋ
봄이머무는언덕
IP 223.♡.236.150
09-19 2025-09-19 20:31:30
·
1+1=2인 이유가 2일 확률이 가장 높기 때문에 그렇게 대답하는 거란 설명을 보고 아.. 근본적으로 신뢰하면 안되는구나 싶더군요. 아직까진 재미난 장난감일 뿐입니다.
macman
IP 106.♡.205.173
09-19 2025-09-19 20:36:38
·
지금 기준이고 환각문제가 영원하리란 법이 없죠.사람의 환각 오류율보다 낮아지기만 하면 ai의 신뢰성이 더 높을테니까요
안드로S2
IP 61.♡.15.27
09-19 2025-09-19 20:59:58
·
혹시 뻔뻔하게 거짓말 하는 것도 AI의 환각에 속하나요?
darong
IP 113.♡.153.253
09-19 2025-09-19 21:06:51
·
@안드로S2님
저 논문에서 거짓말과 같은 환각을 일으키는 주요 원인이 모른다고 답변하는 것보다 거짓말을 했는데,
정답을 맞추는 경우가 발생할 수 있기 때문이라고 합니다.
그래서 확신이 없는데 거짓말을 하다 걸리면 많은 감점을 주는 방식으로 평가 방식을 바꿔야 한다고 주장합니다.
네디언
IP 106.♡.1.96
09-19 2025-09-19 22:42:26
·
@안드로S2님 지금은 훈련 루프의 보상 매커니즘에 0,1밖에 없습니다. 맞추면 1점, 못 맞추면 0점이죠. 따라서 훈련 과정에서 모르는 사실을 맞닥뜨려도 ‘모른다’고 답하기보다 ‘아무거나 찍는’게 더 이득입니다. 모른다고 말하면 무조건 0점이지만 아무거나 그럴듯하게 지어내서 말하면 맞출 확률이 생기죠.
해결책은 아는 사실에 대해 정답을 맞추면 1점, 모르는 사실에 대해 ‘모른다’고 답하면 0점, 모르는 사실을 그럴듯하게 지어내서 답변하면 -1점을 부여하는 겁니다.
TLDR
IP 223.♡.48.253
09-19 2025-09-19 21:01:31
·
매트릭스도 여섯번 갈아 엎었습니다.
Dozen
IP 222.♡.94.232
09-19 2025-09-19 21:03:55 / 수정일: 2025-09-19 21:04:03
·
옛날에 아이폰 1세대도 16기가 용량이었죠.. 기술진보야 뭐 하다보면 더 나아질꺼구요..
하라쇼
IP 182.♡.69.116
09-19 2025-09-19 21:29:00
·
@Dozen님 4기가였습니다
Dozen
IP 222.♡.94.232
09-19 2025-09-19 21:36:53 / 수정일: 2025-09-19 21:37:02
·
@하라쇼님 아 찾아보니 4/8기가 두개였네요... 감사합니다
루비온
IP 183.♡.2.223
09-19 2025-09-19 21:49:55
·
일단 바이브 코딩하다보면 코딩 내용이 가챠 입니다.

잘할떈 잘하는데 못하는건 죽어도 못하면 할려고 난리를 피우져...

아예 뭔가를 밑바닥부터 새로 만들려고 합니다. 물론 이것도 컨텍스트 좀 잘 적어 놓으면 덜하긴 한데

그렇다고 해결 못하는걸 해결하지는 않습니다.

오히려 더 꼬아놓으면 꼬아 놓았지...

현재 동료가 커서와 클로드로 버무려놓은 기능을 제가 이어서 개발중인데...

제가 원래 만들었던 기능에 살짝 수정만 하면 확장할수 있었는데...

이 미친 AI 가 아예 제 코딩을 참조해서 새로운 코딩을 창조해놓고 그걸... 쓰는데...

나중에는 제가 짠 코드와 호환이 안되니까... 컨버터 까지... 만들어 놓았습니다.

대충 백여줄을 그렇게 코딩해놨는데 어이가 없어서...

싹다 들어내고

10줄 코딩해서

제 코드에서 확장되게 만들었는데...

앞으론 바이브 코딩하는 사람들과는 콜라보는 안하는 것이 정신건강에 좋을것 같다는 생각이 들었습니다.

레일즈에서는 DB 마이그레이션이 중요한데

AI 놈들이 짜놓은 마이그레이션은...

현재 디비 상황만 고려해서 마이그레이션 해버려서...

나중에 프로젝트를 새로 포크해서 마이그레이션 할려고 하면 에러투성입니다 -_-;

와... 진짜 대환장의 파티 였습니다.

최소한...

깨끗한 상태에서 rake db:migrate 는 안전하게 끝나게 해줘야 하는거 아닙니까 -_-;
굿왈츠
IP 121.♡.144.73
09-19 2025-09-19 22:05:55
·
심각하네요
네디언
IP 106.♡.1.96
09-19 2025-09-19 22:18:12 / 수정일: 2025-09-19 22:18:23
·
가위로 망치질하려 하면서 “가위로는 망치질 못해. 가위의 심각한 결함” 이런 꼴이라고 봅니다. AI라는 도구가 잘할 수 있는 Task는 정해져 있고 해당 Task에서는 대부분의 인간의 능력을 상회하죠.
네디언
IP 106.♡.1.96
09-19 2025-09-19 22:34:27 / 수정일: 2025-09-19 22:35:23
·
LLM의 환각을 없애는 것은 ‘교육으로 절대로 실수하지 않는 인간 만들기’랑 비슷하다고 봅니다. 교육으로 절대로 실수하지 않는 인간을 만들 수 있나요? 불가능하죠. 실수는 인간지능과 인공지능을 아우르는 지능의 본질에서 기인합니다. 그렇다면 실수하지 않는 인간을 만들 수 없으니 교육은 쓸모없나요? 그렇지 않다는 걸 아실 겁니다.
LLM은 당연히 실수하고, 때로는 거짓말도 하며, 없는 말을 지어내기도 합니다. 사람도 마찬가지죠. 사람은 당연히 실수하고, 때로는 거짓말도 하며, 없는 말을 지어내기도 하죠. 사람에게 당연한 것을 인공지능에 대해서는 적용하지 못하는 건, 우리 사회에 인공지능에 대한 이해가 그만큼 부족하다는 걸 드러낸다고 봅니다.
갈릭
IP 106.♡.203.178
09-19 2025-09-19 23:12:37
·
근데 분명히 할루시네이션 증상인데 막 우겨요 지가 맞다고 ㅋㅋㅋ 이걸로 싸운적 있어요
lcoy
IP 125.♡.161.221
09-19 2025-09-19 23:23:19 / 수정일: 2025-09-19 23:24:10
·
인간의 뇌 역시 그냥 놔두면 자기가 모르는 게 있다는 걸 모릅니다.
"나는 내가 모른다는 걸 안다"라고 한 소크라테스는 뇌의 기본적인 작동 알고리즘을 넘어선 거죠.
( https://www.clien.net/service/board/use/18959299CLIEN )
두리누루
IP 211.♡.53.179
09-20 2025-09-20 00:43:48 / 수정일: 2025-09-20 00:44:25
·
ai는 학습의 문제라 학습과정이 잘못되었을 경우에는 결과물도 잘못되는건데 학습과정이 잘못되었다고 알 빙법은 어렵고 결과물로 확인해야하는데

ai가 도구중의 하나인 과거의 사람들(원 지식이 있는 사람들)에게는 정정의 기회가 있지만

ai가 학습의 도구 또는 의지의 도구(ai로 지식을 쌓는 사람들)가 될 수 있는 미래의 인류에게는 치명적인 문제네요

마치 가짜 유튜브정보가 판 치는 데 그걸 구분하고 판단할 수 있는 사람이 없어지는 것과 같이요
섬마을생산직
IP 106.♡.10.113
09-20 2025-09-20 08:46:13 / 수정일: 2025-09-20 08:52:52
·
오픈 AI가 못없애는 것이겠죠. 애초에 기술 가속만 추구하고 기술 정렬은 뒷전이었잖아요. 그러다보니 완전히 새로운 LLM 개발하지 않으면 환각 없애기 힘든 상태까지 온 것을 저런 식으로 다 못한다고 이야기하는 듯 해요. 윤리적 AI를 강조해온 클로드의 경우 환각 현상이 훨씬 덜해요.
그리고 환각은 잘만 활용하면 창의성과 세렌디피디티의 원천이 되기도 하죠. 문제는 사람이 매의 눈을 가져야 한다는 것.
아제로써
IP 175.♡.214.63
09-20 2025-09-20 08:46:34 / 수정일: 2025-09-20 08:49:26
·
뉴런 기반의 인간 뇌구조가 맨날 하는 짓입니다.
기존의 지식이나 기억 흔적 여러가지 정보를 섞은 다음에...
이상한 답을 내 놓죠. 기본적으로 인간의 뇌를 정확히 시뮬레이션 하는 것이기 때문에(물론 속도는 빠릅니다.)
당연한게 아닐까 합니다.

그래서 마누라가 맨날 옆에서 바가지 긁죠.(-_-;)

이거 근본적으로 해결 못한다는 느낌적인 느낌이 있습니다.
초지능을 가도 일어날 것 같은데요?
새로운 댓글이 없습니다.
이미지 최대 업로드 용량 15 MB / 업로드 가능 확장자 jpg,gif,png,jpeg,webp
지나치게 큰 이미지의 크기는 조정될 수 있습니다.
목록으로
글쓰기
글쓰기
목록으로 댓글보기 이전글 다음글
아이디  ·  비밀번호 찾기 회원가입
이용규칙 운영알림판 운영소통 재검토요청 도움말 버그신고
개인정보처리방침 이용약관 책임의 한계와 법적고지 청소년 보호정책
©   •  CLIEN.NET
보안 강화를 위한 이메일 인증
안전한 서비스 이용을 위해 이메일 인증을 완료해 주세요. 현재 회원님은 이메일 인증이 완료되지 않은 상태입니다.
최근 급증하는 해킹 및 도용 시도로부터 계정을 보호하기 위해 인증 절차가 강화되었습니다.

  • 이메일 미인증 시 글쓰기, 댓글 작성 등 게시판 활동이 제한됩니다.
  • 이후 새로운 기기에서 로그인할 때마다 반드시 이메일 인증을 거쳐야 합니다.
  • 2단계 인증 사용 회원도 최초 1회는 반드시 인증하여야 합니다.
  • 개인정보에서도 이메일 인증을 할 수 있습니다.
지금 이메일 인증하기
등록된 이메일 주소를 확인하고 인증번호를 입력하여
인증을 완료해 주세요.