CLIEN

본문 바로가기 메뉴 바로가기 보기설정 테마설정
톺아보기 공감글
커뮤니티 커뮤니티전체 C 모두의광장 F 모두의공원 I 사진게시판 Q 아무거나질문 D 정보와자료 N 새로운소식 T 유용한사이트 P 자료실 E 강좌/사용기 L 팁과강좌 U 사용기 · 체험단사용기 W 사고팔고 J 알뜰구매 S 회원중고장터 B 직접홍보 · 보험상담실 H 클리앙홈
소모임 소모임전체 ·굴러간당 ·주식한당 ·아이포니앙 ·MaClien ·일본산당 ·방탄소년당 ·자전거당 ·개발한당 ·소시당 ·이륜차당 ·안드로메당 ·나스당 ·걸그룹당 ·영화본당 ·골프당 ·가상화폐당 ·클다방 ·AI당 ·육아당 ·사과시계당 ·디아블로당 ·패스오브엑자일당 ·리눅서당 ·IoT당 ·젬워한당 ·노젓는당 ·창업한당 ·소셜게임한당 ·노키앙 ·축구당 ·윈폰이당 ·여행을떠난당 ·바다건너당 ·물고기당 ·라즈베리파이당 ·캠핑간당 ·패셔니앙 ·3D메이킹 ·X세대당 ·ADHD당 ·AI그림당 ·날아간당 ·배드민턴당 ·야구당 ·농구당 ·블랙베리당 ·곰돌이당 ·비어있당 ·FM당구당 ·블록체인당 ·보드게임당 ·활자중독당 ·볼링친당 ·냐옹이당 ·문명하셨당 ·클래시앙 ·콘솔한당 ·요리한당 ·쿠키런당 ·대구당 ·DANGER당 ·뚝딱뚝당 ·개판이당 ·동숲한당 ·날아올랑 ·전기자전거당 ·e북본당 ·갖고다닌당 ·이브한당 ·도시어부당 ·FM한당 ·맛있겠당 ·포뮬러당 ·안경쓴당 ·차턴당 ·총쏜당 ·땀흘린당 ·하스스톤한당 ·히어로즈한당 ·인스타한당 ·KARA당 ·키보드당 ·꼬들한당 ·덕질한당 ·어학당 ·가죽당 ·레고당 ·LOLien ·Mabinogien ·임시소모임 ·미드당 ·밀리터리당 ·땅판당 ·헌팅한당 ·오른당 ·MTG한당 ·소리당 ·적는당 ·방송한당 ·PC튜닝한당 ·찰칵찍당 ·그림그린당 ·소풍간당 ·심는당 ·품앱이당 ·리듬탄당 ·달린당 ·Sea마당 ·SimSim하당 ·심야식당 ·윈태블릿당 ·미끄러진당 ·나혼자산당 ·스타한당 ·스팀한당 ·파도탄당 ·퐁당퐁당 ·테니스친당 ·테스트당 ·빨콩이당 ·공대시계당 ·터치패드당 ·트윗당 ·VR당 ·시계찬당 ·WebOs당 ·위스키당 ·와인마신당 ·WOW당
임시소모임
고객지원
  • 게시물 삭제 요청
  • 불법촬영물등 신고
  • 쪽지 신고
  • 닉네임 신고
  • 제보 및 기타 제안
© CLIEN.NET
공지[점검] 잠시후 서비스 점검을 위해 약 30분간 접속이 차단됩니다. (금일 18:15 ~ 18:45)

모두의공원

AI를 근거로 하는 주장의 위험성 48

29
2025-12-19 13:01:30 수정일 : 2025-12-19 19:08:41 210.♡.229.81
메가맨

안녕하세요,

AI와의 대화를 근거로 한 주장글이 추천에 올라와있네요. 요새 이런식의 주장글을 좀 보게되는데, 감히 한 말씀 드려봅니다. 


제 생각은 ”이런 주장들은 가짜뉴스와 다름 없을 정도로 근거없다“ 입니다.


다들 아시겠지만 LLM은 ‘다음 단어 예측기’ 입니다. 언뜻 보기에 너무 그럴싸해서 진실을 담은 것 처럼 보이지만, 사실 학습데이터에서 가장 많이 나왔던 패턴을 흉내내는 수준입니다. 다음 단어 예측이 인간의 사고도 담고 있다 하는 논쟁도 있습니다만, 일단 프롬프트 입력에 따라 결과가 아주 많이 달라지는, 그러니까 일관성이 매우 부족한 지능입니다.


일단 저 개인적으로는 LLM을 근거로 주장하는 대부분의 명제들은 매우 적게 신뢰합니다. LLM이 지식 참조기로서 유용한 경우는 ‘화장실 청소법’ 과 같은 틀려도 큰 문제 없는 상식정보를 확인할 때 정도인 것 같습니다. 


그나마 초기 상태, 프롬프트를 아주 상세하게 공개해도 해당 대화의 신뢰도를 참고 해볼까 말까이지요.


그래서 드리고 싶은 말씀은, 

LLM을 근거로 하는 주장은 일단

1. 상세한 프롬프트를 요구할 것

2. 그래도 믿지 마실 것


입니다.


뻘글 읽어주셔서 감사합니다. 

메가맨 님의 게시글 댓글
  • 주소복사
  • Facebook
  • X(Twitter)
댓글 • [48]
보물은
IP 106.♡.75.109
12-19 2025-12-19 13:03:09
·
써보시면 아시겠지만, 현업에서는 신입보다 훨씬 낫습니다.
어짜피 신입들 결과물 완성도도 처참해서 누가 봐줘야하니까요.
저희 팀은 신입 안뽑은지 꽤 됐습니다.
어머
IP 66.♡.120.179
12-19 2025-12-19 13:04:05
·
@보물은님 인공지능 능력이 안뛰어나다는게 아니라 프롬프트를 어떻게 하느냐에 따라 충분이 원하는 쪽으로 답변을 유도할수 있는 위험을 지적하는 글입니닽ㅌ
메가맨
IP 221.♡.98.112
12-19 2025-12-19 13:06:37
·
@보물은님 네, 언어 조작 툴로의 LLM은 최적의 응용입니다. 개발을 위해 있는 툴이라고 해도 과찬이 아니구요(사실 그마저도 환각 문제때문에 프로덕션 레벨로 쓰기엔 한계가 있습니다).

제 글은 지식 정보소로의 LLM 사용을 비판하고 있습니다.
카엔
IP 118.♡.12.78
12-19 2025-12-19 13:10:03 / 수정일: 2025-12-19 15:33:41
·
@보물은님 특히나 정치, 사회, 심리 문제같은 경우는 AI가 환각을 굉장히 자주일으킵니다.
아니 그전에 정치나 사회, 심리 분야는 GPT 프로건 제미나이건 제대로 답변 못하는 경우가 대부분입니다. '대체 옳은 답이 뭐냐?' 라는 논쟁의 답이 없는데다, 무슨 AI전문가 아니라도 답변을 '오염' 시키기가 너무 쉬우니까요.
(실제로 국내만 봐도 디씨의 정치적 주장을 '찍어내주는' 봇이 있을 정도입니다. 노출된것만 이정도고...하도 만들기 쉬우니 아마 몰래든 뭐든 쓰고 있겠죠.)

그런데 꼭 클리앙 뿐만 아니라 수많은 커뮤니티에서 정치 사회문제에 AI 생성글을 올린다음 '이건 내 의견은 아니지만 최고의 AI가 분석했으니 객관적이고 옳은 의견이야' 라고 우기는 사람들이 늘어나는게 문제의 핵심이죠
민군이닷
IP 121.♡.83.229
12-19 2025-12-19 13:42:29
·
@보물은님 본문에서 전달하고자 하는 내용은 그런게 아닌거 같은데요...
보물은
IP 106.♡.75.109
12-19 2025-12-19 14:15:49
·
@메가맨님 제가 대충 읽고 답글 달았네요.. 제목을 AI의 위험성으로 인식하고 그만...
삭제 되었습니다.
전가복
IP 39.♡.159.70
12-19 2025-12-19 13:06:34
·
화장실 청소법도 틀리면 큰일납니다. 뜨거운 물에 락스랑 일반 세제를 같이 말아 청소하면 치명적일 수도 있어요.
Ai는 ai가 헛소리 하는지 아닌지 검증가능한 사람이 써야됩니다.
메가맨
IP 221.♡.98.112
12-19 2025-12-19 13:07:16
·
@전가복님 아, 그 부분은
제가 생각을 못했네요. 비유가 안맞았습니다.
memberst
IP 49.♡.63.145
12-19 2025-12-19 14:25:12
·
@전가복님 세제 잘못해서 섞이면... 독가스 발생하죠 위험합니다.
야리스마
IP 175.♡.224.110
12-20 2025-12-20 00:45:51
·
@memberst님 https://www.clien.net/service/board/park/17264333CLIEN
zango
IP 103.♡.186.152
12-19 2025-12-19 13:07:46
·
검사들이 원하는 방향으로 증거 조작하고 자백 유도하고 뭐 그런식으로 세상에 사실이라고 공개되는 것을 대중들이 믿게 되는것과 사실 다를게 없는거죠. 그래서 AI에 물어봤더니 이렇다고 나오니 그런 방향이 맞는거 아니냐? 뭐 그런 글들 적는 사람들은 진짜 어떤 목적이 있는 사람들이라고 봐야 할 판입니다.
메가맨
IP 221.♡.98.112
12-19 2025-12-19 13:08:19
·
@zango님 저도 사실 목적이
있다고 생각됩니다.
브렛
IP 118.♡.116.125
12-19 2025-12-19 13:08:29 / 수정일: 2025-12-19 13:14:00
·
같이 컨소로 일하는 회사 PM 직급은 이사인 50대 아저씨가
LLM 으로 뽑은 신입도 그런 말도 안되는 소릴안할 거 같은걸 의견이라고 던지는거 보고
진짜 놀랬습니다.
그 사람도 술자리서 그런 소리하더군요. LLM 이 신입~과장 급보다 낫다고.... 에휴....

너무도 당연한 말이지만 잘써야 도구지, 못쓰면 독이죠.
야리스마
IP 175.♡.224.110
12-20 2025-12-20 00:46:02
·
https://www.clien.net/service/board/park/18617079?c=true#147097731CLIEN
두리
IP 106.♡.128.180
12-19 2025-12-19 13:14:24
·
어차피 사안을 두고 여러 의견이 있을 수밖에 없으니
본인 주장의 논리적인 전개에 도움이 되긴 하니까 사용하는거겠죠

중립적인 프롬프트를 제시하는게 관건 아닐까요
stepd
IP 61.♡.48.162
12-19 2025-12-19 13:17:28 / 수정일: 2025-12-19 13:18:29
·
뉴스기사 - 진실일 확률 90%
AI - 진실일 확률 80%
조중동 - 진실일 확률 70%
지나가는 댓글러1 - 진실일 확률 50%

저는 지나가는 댓글러 말 보다는 AI말을 믿겠습니다.
메가맨
IP 221.♡.98.112
12-19 2025-12-19 13:18:49
·
@stepd님 AI가 진실을 말할 확률은 글쎄요 프롬프트와 분야에 따라 10%가 안될 수 있습니다.
stepd
IP 61.♡.48.162
12-19 2025-12-19 13:24:57
·
@메가맨님 동의합니다. 틀릴 가능성이 있다는 걸 염두하고 사용해야 합니다.
그러나 여전히 인터넷에 누군가의 댓글 보다는 훨씬 믿음직한 것 또한 부정하기 힘든 사실입니다.
1. 그냥 글 -> 신뢰도 거의 없음.
2. 그냥 글 + AI 분석 포함 -> 신뢰도 약간 증가.
3. 그냥 글 + 뉴스기사 첨부 -> 신뢰도 더 증가.
이런 느낌 아닐까요?
메가맨
IP 221.♡.98.112
12-19 2025-12-19 13:27:22 / 수정일: 2025-12-19 13:28:14
·
@stepd님 맞습니다. 아예 근거가 없는 것보단 글의 설득력을 높일 수 있겠습니다. AI를 좋은 의도로 사용한다면요. 그래도 신뢰하기가 참.. 어렵습니다..😅
stepd
IP 61.♡.48.162
12-19 2025-12-19 13:30:50 / 수정일: 2025-12-19 13:31:56
·
@메가맨님 근거가 없는 글과 마찬가지로 근거가 AI인 글도 경계하고 봐야 한다는 점은 동의합니다.
물론 근거가 뉴스인 글도 경계하고 봐야 하겠지만요.
이상하게도 기술이 발전하면서 오히려 점점 진실을 알기 어렵게 되어 가고 있네요.
espapa
IP 210.♡.73.2
12-19 2025-12-19 13:37:39
·
마린대지
IP 39.♡.24.121
12-19 2025-12-19 13:55:47
·
@stepd님
야리스마
IP 175.♡.224.110
12-20 2025-12-20 00:46:23
·
@stepd님 https://www.clien.net/service/board/park/18856289CLIEN
시벨롬
IP 121.♡.234.43
12-20 2025-12-20 01:19:01
·
@stepd님 조중동 올려치기네요
Ytl
IP 39.♡.230.192
12-19 2025-12-19 13:22:17
·
LLM을 어떻게 활용하느냐에 따라 다릅니다. 본인의 아이디어와 생각을 토대로 LLM에게 보조적인 도움을 받는 경우도 많습니다. 그래야 또 남들과 다른 결과가 나옵니다.
그러니 결국은 결과물을 보고 받아들이는 사람이 평가하는게 중요하지 무엇의 도움을 빌린지는 중요한게 아니라 생각합니다. 시험치는 것도 아닌데요.
메가맨
IP 221.♡.98.112
12-19 2025-12-19 13:25:28
·
@Ytl님 그러니까 LLM을 글 편집 보조로 삼으면 다행인데요, 그걸 넘어서서 자신의 주장을 강화하는데 사용하면 안됩니다. 제가 글을 쓴 목적도 평가하는 분들에게 정보를 드리기 위함입니다. 무엇의 도움을 빌렸는지는 안중요할 수 있는데, 근거가 어디서 왔는지는 매우 중요합니다.
espapa
IP 210.♡.73.2
12-19 2025-12-19 13:37:51
·
Ytl
IP 114.♡.177.61
12-19 2025-12-19 15:03:09
·
@메가맨님 자신의 주장을 강화하는데 사용해도 됩니다. 다만 쓰는 사람도 가능하면 근거를 명확하게 밝히는게 중요하고 읽는 사람도 근거가 무엇인지 항상 따져보는게 중요하죠. 그런데 일상적인 커뮤니티에서는 그런 규칙을 요구할 수도 없고 읽는 사람이 잘 따져보는게 중요한거 아니겠습니까?
메가맨
IP 210.♡.229.81
12-19 2025-12-19 15:33:58 / 수정일: 2025-12-19 15:35:28
·
@Ytl님 그렇게 따지면 가짜뉴스를 그럴싸하게 양산해도 읽는 사람이 조심할 일이겠군요? 전혀 동의할 수 없습니다. LLM을 자신의 주장을 강화하는 근거로 활용해서는 절대 안됩니다. 사회에서 믿을 수 있는 소스를 근거로 사용해야죠.
Ytl
IP 114.♡.177.61
12-19 2025-12-19 17:20:23
·
@메가맨님 가짜뉴스와는 다른 문제죠. AI를 활용해서 내용을 보완하고 주장을 강화하는데 쓰는게 왜 안되나요? 다만 AI를 쓰더라도 작성자가 AI가 제공한 내용의 출처를 확인하고 점검하고 필요하다면 공개하면 돼죠. 읽는 사람도 마찬가지구요.
불완전한 현재 상황에 악의적으로 가짜뉴스를 퍼뜨리는건 강력처벌해야 하지만 다른 문제죠. 가짜뉴스를 막는데도 현실적으로 한계가 있고 AI를 통해 주내용을 만들었다면 AI사용을 명시해야 한다는 규제를 하고 읽는 사람이 필터를 할 수 있는 문화를 만드는게 중요하다 생각합니다.
메가맨
IP 210.♡.229.81
12-19 2025-12-19 18:55:14 / 수정일: 2025-12-19 18:56:41
·
@Ytl님 제 본문이 왜 AI(LLM)으로 주장을 강화하면 안되는가에 대한 내용입니다. 작동원리상 LLM에서 나온 지식의 신뢰도는 가짜뉴스와 다를바 없습니다. AI사용했음을 명시해도 내용의 신뢰도는 여전히 알 수 없죠. 앞으로 사실내용을 더 조심하는 문화를 만들어야겠지만, 애초에 신뢰도가 매우 낮은 소스로 분류하는게 맞다고 봅니다.

AI를 사용해서 글의 표현이나 어휘를 다듬고 개선하는건 찬성입니다. 그런데 지금 LLM을 지식의 소스로 사용하는건 아직 반대입니다.
Ytl
IP 39.♡.231.189
12-19 2025-12-19 22:44:28
·
@메가맨님 저는 그렇게 생각하지 않습니다. LLM회사들이 충분히 보완책을 마련 중이고 앞으로는 더 발전할겁니다. 단순히 LLM사용을 명시하는 것도 의미가 있고 LLM에게도 답변의 출처를 요구해서 확인 가능합니다. 퍼플렉시티는 그런데 특화되어 있구요. LLM답변의 출처를 통해 답변의 신뢰도를 점검할 수 있고 그 답변을 활용한다면 출처자체를 공개하면 됩니다.
다른 분도 저와 비슷한 의도로 메가맨님 생각과 다른 지점이 있는 것으로 보입니다.
야리스마
IP 175.♡.224.110
12-20 2025-12-20 00:46:50
·
@Ytl님 https://www.clien.net/service/board/park/18991247CLIEN
No_RAID
IP 58.♡.196.118
12-19 2025-12-19 13:30:03 / 수정일: 2025-12-19 13:31:34
·
환각율이 얼마다 주장하는 분들의 착각은, 그 환각율이 사용자에게도 나타나고 있고, 사용자들의 착각율은 퍼센트로 계산되지 않는다는 것입니다.
코딩 분야에서도 기초 코드를 만들어주기 때문에 편하게 사용하기도 하지만, 물론 저는 코딩 분야가 아니라서 기본 스크립트가 필요할때만 쓰기도 합니다. (프로그램 분야에 있지는 않기 때문에)
제 분야에서 사용해보면, 있지도 않은 것을 있다고 주장하다가 틀렸다고 하면 말바꾸는 경우도 많고.
분석하다가 참고용으로 돌려보면 틀린 분석을 하면서 이상한 것을 주장하고, 이미 오래전에 다른게 나와 있는데, 이상한것 가지고(저도 모르는것) 있다고 합니다. 증거 달라고 하면 있지도 않은 링크를 전달합니다.

그런데, 접속 완전히 끝었다가 재접속해서 다시 해보면, 완전히 다르게 또 답변하기 시작합니다.
그런 경우, 어떤 경우는 맞는 답을 유출하기도 합니다. 예를 들어, 처음접속시는 엉터리로 답변했는데.
다음번 접속시는 제대로 답변을 합니다.

결국은 자기가 전달하는 내용이 뭔지 제대로 알고 사용하지 않으면, 그 답변의 신뢰성을 추측할 수 없다는 것입니다.
더군다나 일관성 없는 경우가 자주 있어서 , 신뢰성에는 이슈가 될 소지가 있습니다.
저는 그래서 참고용, 그리고 1차 검증시 부분 사용으로만 전제하고 있고 완전 신뢰하지 않습니다.
왕미남
IP 183.♡.76.127
12-19 2025-12-19 13:30:08
·
다른건 모르겠고, 사용자 친화적인 것은 확실한 것 같습니다.
전정권
IP 121.♡.10.77
12-19 2025-12-19 13:32:11 / 수정일: 2025-12-19 13:33:06
·
뭐 인간이 만들어놓은 지식들중에도 똥인게 많죠.
묻는사람의 질문이 똥이거나 팩트를 찾는 노력도 안하는게 대부분이라 오류가 있을지라도 최근 써본결과 AI가 더 좋은 정보를 주는경우가 많았습니다. 앞으로도 그럴 것 같네요. 공신력있는 방송에서도 개똥인 정보들이 많으니까요
니케니케
IP 222.♡.5.59
12-19 2025-12-19 13:34:46
·
주장에 대한 근거를 찾아서 링크로 달라고 하여 체크를 하면 그나마 거짓말이 좀 적습니다.
제 경우, 서로다른 AI를 사용해서 크로스체크를 하고 사용을 합니다. 정말 중요한 내용은 링크를 열어서 직접 보기도 하구요.
아쿠아루비
IP 211.♡.139.40
12-19 2025-12-19 13:49:09
·
정작 그 글에 대해 물어보면 ai글 복붙해온 작성자는 ai가 무슨 말 했는지조차 제대로 파악 못한 경우가 많아요 ㅋㅋ
짱구아빠
IP 106.♡.253.74
12-19 2025-12-19 14:44:20
·
검색을 좀 더 용이하게 해준다 정도의 의미라고 봅니다.
신뢰성을 본인이 확인하지 못할 글들을 AI에 의존하는것은 뇌를 빌려서 정치한다는 윤석열과 다를바 없다고 생각해요.
자기가 보고 맞는지 틀리는지 알수 없는 질문은 하면 안됩니다.
아제로써
IP 175.♡.214.63
12-19 2025-12-19 16:08:08 / 수정일: 2025-12-19 16:08:35
·
자기가 전문 분야면 조금만 써보면 압니다. 분야마다 정도의 차이가 있지만 한계와 할루시의 헛 짓을 바로 느끼게 됩니다.

걍 참고 혹은 작업의 부싯돌(일 시작) 정도로만 써도 좋고...
기계적인 분석이나 통계의 초기분석 정도로만 써도 훌륭하더군요.
보통의상식
IP 106.♡.75.245
12-19 2025-12-19 16:11:22
·
개념을 잡는 정도는 매우 훌륭하고 좋은데
조금 더 딥하고 실무적인 부분에서
횡설수설하는 것을 자주 보게 되죠.
JustDidIt
IP 133.♡.7.126
12-19 2025-12-19 16:16:04
·
> 다들 아시겠지만 LLM은 ‘다음 단어 예측기’

이부분을 모르는 사람들이 대부분이더라구요
보통 구글 검색의 똑똑한 버전 정도로 생각하는듯 합니다
졸튼
IP 118.♡.220.213
12-19 2025-12-19 19:18:50
·
맞아요. 저도 즐겨쓰지만 중요한 사항들은 팩트 체크를 항상 하는 편이죠..
삐리리
IP 14.♡.96.14
12-19 2025-12-19 20:11:55
·
유명한 닥터 하우스가 항상 말씀하시죠...
"에브리바디 라이즈"

꼭 ai 만 거짓말 하는 것도 아니고...
우리가 팩트라고 알고 있는 사실도 관측과 사상에 의해 오염되고 왜곡되는 일도 많고..

특히 우리 사고의 기반이 되는 역사도 이미 "승자의 기록"이라고 인지하고 있으면서
어찌 인공지능의 단어 예측이 거짓이라고 할 수만 있을까요...

누가 이야기를 해도 다 걸러듯고 비판적으로 받아 들이듯이
ai 의 지껄임에도 그런 시각으로 접근하면 되는데
왜 ai가 한 답변은 할루시네이션이란 영어를... 우리 주위에서 숱하게 드는 말은 "의견", "관측", "사고", "판단" 이란 말로 바꾸는 것일까요...

전 ai가 이젠 친구가 되었다고 봅니다.
분조라리
IP 14.♡.3.238
12-19 2025-12-19 21:05:32
·
이미 답을 알고 물어보면 더 확실합니다.
ㄹㅇ 뻔뻔하게 거짓말 치는 새끼들 입니다.
도움은 받되 절대 맹신해서는 안 됩니다.
리트리셈
IP 210.♡.16.108
12-19 2025-12-19 22:37:30
·
무슨 말씀인지는 알겠습니다.
제목을 “AI를 근거로 하는 정치/종교적 주장의 위험성“ 이라고 하면 좀 더 설득력이 있을거 같습니다.
rexmarina
IP 172.♡.161.248
12-19 2025-12-19 23:33:12
·
AI가 제공하는 정보는 신뢰할 수 없다”고 단정하는 사람들은, 역설적으로 “AI의 정보는 항상 옳다”고 믿는 사람들과 같은 오류를 범하고 있습니다. 두 입장 모두 비판적 사고를 포기한 채 극단으로 기울어 있기 때문입니다.

AI는 진리를 보장하는 권위도 아니며, 자동으로 오류를 생산하는 위험한 존재도 아닙니다. AI가 유용한 도구가 되느냐, 아니면 오히려 혼란을 키우느냐는 전적으로 사용자의 질문 능력, 검증 태도, 그리고 판단 책임에 달려 있습니다.
YouthGoneWild
IP 171.♡.140.157
12-20 2025-12-20 00:36:04
·
누굴 말하는 지 알겠습니다
잔뜩 생성된 가짜 블로그와 다를바 없는 컨텐츠만 올리고 있더군요ㅋㅋ
데이터 쓰레기죠
새로운 댓글이 없습니다.
이미지 최대 업로드 용량 15 MB / 업로드 가능 확장자 jpg,gif,png,jpeg,webp
지나치게 큰 이미지의 크기는 조정될 수 있습니다.
목록으로
글쓰기
글쓰기
목록으로 댓글보기 이전글 다음글
아이디  ·  비밀번호 찾기 회원가입
이용규칙 운영알림판 운영소통 재검토요청 도움말 버그신고
개인정보처리방침 이용약관 책임의 한계와 법적고지 청소년 보호정책
©   •  CLIEN.NET
보안 강화를 위한 이메일 인증
안전한 서비스 이용을 위해 이메일 인증을 완료해 주세요. 현재 회원님은 이메일 인증이 완료되지 않은 상태입니다.
최근 급증하는 해킹 및 도용 시도로부터 계정을 보호하기 위해 인증 절차가 강화되었습니다.

  • 이메일 미인증 시 글쓰기, 댓글 작성 등 게시판 활동이 제한됩니다.
  • 이후 새로운 기기에서 로그인할 때마다 반드시 이메일 인증을 거쳐야 합니다.
  • 2단계 인증 사용 회원도 최초 1회는 반드시 인증하여야 합니다.
  • 개인정보에서도 이메일 인증을 할 수 있습니다.
지금 이메일 인증하기
등록된 이메일 주소를 확인하고 인증번호를 입력하여
인증을 완료해 주세요.