안녕하세요,
AI와의 대화를 근거로 한 주장글이 추천에 올라와있네요. 요새 이런식의 주장글을 좀 보게되는데, 감히 한 말씀 드려봅니다.
제 생각은 ”이런 주장들은 가짜뉴스와 다름 없을 정도로 근거없다“ 입니다.
다들 아시겠지만 LLM은 ‘다음 단어 예측기’ 입니다. 언뜻 보기에 너무 그럴싸해서 진실을 담은 것 처럼 보이지만, 사실 학습데이터에서 가장 많이 나왔던 패턴을 흉내내는 수준입니다. 다음 단어 예측이 인간의 사고도 담고 있다 하는 논쟁도 있습니다만, 일단 프롬프트 입력에 따라 결과가 아주 많이 달라지는, 그러니까 일관성이 매우 부족한 지능입니다.
일단 저 개인적으로는 LLM을 근거로 주장하는 대부분의 명제들은 매우 적게 신뢰합니다. LLM이 지식 참조기로서 유용한 경우는 ‘화장실 청소법’ 과 같은 틀려도 큰 문제 없는 상식정보를 확인할 때 정도인 것 같습니다.
그나마 초기 상태, 프롬프트를 아주 상세하게 공개해도 해당 대화의 신뢰도를 참고 해볼까 말까이지요.
그래서 드리고 싶은 말씀은,
LLM을 근거로 하는 주장은 일단
1. 상세한 프롬프트를 요구할 것
2. 그래도 믿지 마실 것
입니다.
뻘글 읽어주셔서 감사합니다.
어짜피 신입들 결과물 완성도도 처참해서 누가 봐줘야하니까요.
저희 팀은 신입 안뽑은지 꽤 됐습니다.
제 글은 지식 정보소로의 LLM 사용을 비판하고 있습니다.
아니 그전에 정치나 사회, 심리 분야는 GPT 프로건 제미나이건 제대로 답변 못하는 경우가 대부분입니다. '대체 옳은 답이 뭐냐?' 라는 논쟁의 답이 없는데다, 무슨 AI전문가 아니라도 답변을 '오염' 시키기가 너무 쉬우니까요.
(실제로 국내만 봐도 디씨의 정치적 주장을 '찍어내주는' 봇이 있을 정도입니다. 노출된것만 이정도고...하도 만들기 쉬우니 아마 몰래든 뭐든 쓰고 있겠죠.)
그런데 꼭 클리앙 뿐만 아니라 수많은 커뮤니티에서 정치 사회문제에 AI 생성글을 올린다음 '이건 내 의견은 아니지만 최고의 AI가 분석했으니 객관적이고 옳은 의견이야' 라고 우기는 사람들이 늘어나는게 문제의 핵심이죠
Ai는 ai가 헛소리 하는지 아닌지 검증가능한 사람이 써야됩니다.
제가 생각을 못했네요. 비유가 안맞았습니다.
있다고 생각됩니다.
LLM 으로 뽑은 신입도 그런 말도 안되는 소릴안할 거 같은걸 의견이라고 던지는거 보고
진짜 놀랬습니다.
그 사람도 술자리서 그런 소리하더군요. LLM 이 신입~과장 급보다 낫다고.... 에휴....
너무도 당연한 말이지만 잘써야 도구지, 못쓰면 독이죠.
본인 주장의 논리적인 전개에 도움이 되긴 하니까 사용하는거겠죠
중립적인 프롬프트를 제시하는게 관건 아닐까요
AI - 진실일 확률 80%
조중동 - 진실일 확률 70%
지나가는 댓글러1 - 진실일 확률 50%
저는 지나가는 댓글러 말 보다는 AI말을 믿겠습니다.
그러나 여전히 인터넷에 누군가의 댓글 보다는 훨씬 믿음직한 것 또한 부정하기 힘든 사실입니다.
1. 그냥 글 -> 신뢰도 거의 없음.
2. 그냥 글 + AI 분석 포함 -> 신뢰도 약간 증가.
3. 그냥 글 + 뉴스기사 첨부 -> 신뢰도 더 증가.
이런 느낌 아닐까요?
물론 근거가 뉴스인 글도 경계하고 봐야 하겠지만요.
이상하게도 기술이 발전하면서 오히려 점점 진실을 알기 어렵게 되어 가고 있네요.
그러니 결국은 결과물을 보고 받아들이는 사람이 평가하는게 중요하지 무엇의 도움을 빌린지는 중요한게 아니라 생각합니다. 시험치는 것도 아닌데요.
불완전한 현재 상황에 악의적으로 가짜뉴스를 퍼뜨리는건 강력처벌해야 하지만 다른 문제죠. 가짜뉴스를 막는데도 현실적으로 한계가 있고 AI를 통해 주내용을 만들었다면 AI사용을 명시해야 한다는 규제를 하고 읽는 사람이 필터를 할 수 있는 문화를 만드는게 중요하다 생각합니다.
AI를 사용해서 글의 표현이나 어휘를 다듬고 개선하는건 찬성입니다. 그런데 지금 LLM을 지식의 소스로 사용하는건 아직 반대입니다.
다른 분도 저와 비슷한 의도로 메가맨님 생각과 다른 지점이 있는 것으로 보입니다.
코딩 분야에서도 기초 코드를 만들어주기 때문에 편하게 사용하기도 하지만, 물론 저는 코딩 분야가 아니라서 기본 스크립트가 필요할때만 쓰기도 합니다. (프로그램 분야에 있지는 않기 때문에)
제 분야에서 사용해보면, 있지도 않은 것을 있다고 주장하다가 틀렸다고 하면 말바꾸는 경우도 많고.
분석하다가 참고용으로 돌려보면 틀린 분석을 하면서 이상한 것을 주장하고, 이미 오래전에 다른게 나와 있는데, 이상한것 가지고(저도 모르는것) 있다고 합니다. 증거 달라고 하면 있지도 않은 링크를 전달합니다.
그런데, 접속 완전히 끝었다가 재접속해서 다시 해보면, 완전히 다르게 또 답변하기 시작합니다.
그런 경우, 어떤 경우는 맞는 답을 유출하기도 합니다. 예를 들어, 처음접속시는 엉터리로 답변했는데.
다음번 접속시는 제대로 답변을 합니다.
결국은 자기가 전달하는 내용이 뭔지 제대로 알고 사용하지 않으면, 그 답변의 신뢰성을 추측할 수 없다는 것입니다.
더군다나 일관성 없는 경우가 자주 있어서 , 신뢰성에는 이슈가 될 소지가 있습니다.
저는 그래서 참고용, 그리고 1차 검증시 부분 사용으로만 전제하고 있고 완전 신뢰하지 않습니다.
묻는사람의 질문이 똥이거나 팩트를 찾는 노력도 안하는게 대부분이라 오류가 있을지라도 최근 써본결과 AI가 더 좋은 정보를 주는경우가 많았습니다. 앞으로도 그럴 것 같네요. 공신력있는 방송에서도 개똥인 정보들이 많으니까요
제 경우, 서로다른 AI를 사용해서 크로스체크를 하고 사용을 합니다. 정말 중요한 내용은 링크를 열어서 직접 보기도 하구요.
신뢰성을 본인이 확인하지 못할 글들을 AI에 의존하는것은 뇌를 빌려서 정치한다는 윤석열과 다를바 없다고 생각해요.
자기가 보고 맞는지 틀리는지 알수 없는 질문은 하면 안됩니다.
걍 참고 혹은 작업의 부싯돌(일 시작) 정도로만 써도 좋고...
기계적인 분석이나 통계의 초기분석 정도로만 써도 훌륭하더군요.
조금 더 딥하고 실무적인 부분에서
횡설수설하는 것을 자주 보게 되죠.
이부분을 모르는 사람들이 대부분이더라구요
보통 구글 검색의 똑똑한 버전 정도로 생각하는듯 합니다
"에브리바디 라이즈"
꼭 ai 만 거짓말 하는 것도 아니고...
우리가 팩트라고 알고 있는 사실도 관측과 사상에 의해 오염되고 왜곡되는 일도 많고..
특히 우리 사고의 기반이 되는 역사도 이미 "승자의 기록"이라고 인지하고 있으면서
어찌 인공지능의 단어 예측이 거짓이라고 할 수만 있을까요...
누가 이야기를 해도 다 걸러듯고 비판적으로 받아 들이듯이
ai 의 지껄임에도 그런 시각으로 접근하면 되는데
왜 ai가 한 답변은 할루시네이션이란 영어를... 우리 주위에서 숱하게 드는 말은 "의견", "관측", "사고", "판단" 이란 말로 바꾸는 것일까요...
전 ai가 이젠 친구가 되었다고 봅니다.
ㄹㅇ 뻔뻔하게 거짓말 치는 새끼들 입니다.
도움은 받되 절대 맹신해서는 안 됩니다.
제목을 “AI를 근거로 하는 정치/종교적 주장의 위험성“ 이라고 하면 좀 더 설득력이 있을거 같습니다.
AI는 진리를 보장하는 권위도 아니며, 자동으로 오류를 생산하는 위험한 존재도 아닙니다. AI가 유용한 도구가 되느냐, 아니면 오히려 혼란을 키우느냐는 전적으로 사용자의 질문 능력, 검증 태도, 그리고 판단 책임에 달려 있습니다.
잔뜩 생성된 가짜 블로그와 다를바 없는 컨텐츠만 올리고 있더군요ㅋㅋ
데이터 쓰레기죠