각종 커뮤니티에 글을 보다 보면, 오자와 탈자, 문법까지 깔끔하게 정제된 글에 종종 이런 말이 따라붙습니다.
“이거 AI가 쓴 글이네”
이 말이 항상 나쁜 건 아닙니다. 학생 과제에서 갑자기 수준이 달라졌거나, 출처가 불분명한 정보글이
빠르게 퍼질 때라면 의심은 충분히 정당합니다. 숙련된 독자들은 AI 글 특유의 패턴, 즉 과도한 균형
빈약한 구체성, 예측 가능한 구조를 비교적 정확히 감지합니다. 이런 직관은 무시해서는 안 됩니다.
문제는 그 다음입니다. 대부분 거기서 생각이 멈춥니다.
“AI 같네.” “그럼 읽을 가치 없지.” 그런 결론으로 바로 건너뛰어 버립니다.
하지만 원래라면 여기서 이어졌어야 할 질문들이 있습니다.
“이 글은 무엇을 하려는 글인가.”
같은 문장도 맥락에 따라 전혀 다르게 작동합니다. 과제 검증이나 팩트체크 상황에서
“AI 같다”는 말은 타당한 문제 제기일 수 있습니다. 하지만 논리가 정연하다는 이유만으로
문장이 깔끔하다는 이유만으로 같은 표현이 쓰일 때도 적지 않습니다.
온라인에서는 이 구분이 잘 작동하지 않습니다. “AI 같다”는 말이 곧 판단이자 결론이 되어버리기 때문입니다.
그런데 여기서 한 번만 더 물어보면 얘기가 달라집니다.
이 글의 목적에 비춰볼 때, 이 정제됨은 결함일까요, 선택일까요.
이 표현이 자주 쓰이는 이유는 단순합니다. 편리하기 때문입니다. 불편한 감각을
한 단어로 덮을 수 있고, 무엇이 문제인지 설명하지 않아도 됩니다. 반박도 어렵죠. 감각적 진술이니까요.
물론 사람들이 실제로 감지하는 건 대체로 꽤 구체적입니다.
“구체성이 얇다.” “맥락이 평평하다.” “구조가 지나치게 예측 가능하다.”
이건 단순한 인상이 아니라, AI 글에서 반복적으로 포착되는 대표적인 신호들이라고 할 수 있습니다.
문제는 이 감각을 “AI 같다”로 묶는 순간, 질문이 사라진다는 데 있습니다.
왜 이 글에는 구체성이 필요한가. 이 구조는 이 글의 목적에 비춰볼 때 실패인가, 아니면 전략인가.
이런 질문들이 통째로 증발합니다.
흥미로운 건 명료함을 대하는 우리의 이중 잣대입니다. 논문이나 기술 문서에서는
명료함을 당연한 미덕으로 요구하면서, SNS나 블로그에서는 같은 명료함을 본질과 무관하게 의심합니다.
이는 명료함의 문제가 아니라, 비공식적 공간에서 우리가 기대하는 일종의 ‘친밀함의 신호’ 때문일지도 모릅니다.
우리는 흔들림과 불완전함을 인간성으로 읽는 데 익숙하니까요.
하지만 조지 오웰은 명료함을 윤리적 책임으로 보았고, 헤밍웨이는 극도의 절제를 통해
고통과 감정을 전달했습니다. 헤밍웨이의 문장은 정제돼 있지만 AI 같지 않습니다.
거기에는 생략된 고통과 감당된 침묵이 있습니다. 반면 AI의 문장은 매끈해도, 그 뒤에서
무엇을 감당했는지가 느껴지지 않는 경우가 많습니다.
그래서 다시 질문으로 돌아옵니다.
이 글의 목적에 비춰볼 때, 이 명료함은 과한가, 아니면 정확한가.
“AI 같다”는 말을 쓰지 말자는 이야기는 아닙니다. 다만 그 말이 나왔을 때 한 번쯤은
멈춰볼 수는 있지 않을까요. 지금 느끼는 이 위화감은 결함인가, 선택인가.
이 ‘AI 같음’은 문장의 표면 때문인가, 아니면 그 문장 뒤에서 사유하는 주체가 느껴지지 않아서인가.
물론 모든 글에 이런 질문을 던질 수는 없습니다. 바쁜 세상에 빠른 판단은 필요합니다.
하지만 정말 중요하거나 누군가를 평가해야 하는 글이라면 이 질문 하나쯤은 통과시킬 여지가 있습니다.
“AI 같네.”라는 말이 너무 쉽게 쓰이는 이유는 여기에 있습니다. 그 말은 기술 판별이 아니라
더 이상 묻지 않겠다는 선언이기 때문입니다.
인간적인 글이란 흔들림이나 감정 과잉을 뜻하지 않습니다. 제가 생각하는 기준은 이것입니다.
자신이 놓인 맥락과 목적을 인식하고, 그 말에 따르는 책임을 감당하려는 태도가 느껴지는가.
이 기준으로 보면 정제된 글도 인간적일 수 있고, 거친 글도 무책임할 수 있습니다.
AI의 글이 종종 비인간적으로 느껴지는 건 명료해서가 아니라, “이 글은 무엇을 하려는가”라는
질문이 끝내 비어 있기 때문일지도 모릅니다.
“AI 같다”는 말은 사라지지 않을 겁니다. 다만 그것이 판단의 종착점이 아니라
질문의 출발점이 된다면, 우리는 글을 조금 덜 오독하게 될 겁니다.
생각을 멈추게 하는 말 하나보다, 목적을 묻는 질문 하나.
글을 읽는다는 건 결국 그 불편함을 감수하는 일 아닐까요.
“구체성이 얇다.” “맥락이 평평하다.”
라고 표현하셨는데 구체성이나 맥락을 얇다. 평평하다라는 두께로 서술하는 게 원래 어떤 학술적인 표현으로 있는건가요? 아님 작성자님의 특별한 의도가 들어간 표현인가요?
'이 글 혹은 이 댓글은 AI 를 전면, 혹은 부분 인용하여 작성된 글입니다..' 라는 식의 표기 대응이 없으면 커뮤니티도 결국 망하게 될 것 같아요.
글을 읽기 좋게 다듬는 정도로 사용한게 아니라면, 글쓴이의 사유를 AI에게 맡긴 글은 읽을 가치가 크게 떨어진다고 생각합니다. 온라인이라면 더더욱이요.
차라리 조금 못쓴 글이라도 글쓴이가 직접 경험하고 느낀점을 쓴 글이 훨씬 가치 있다고 생각합니다.
읽는 재미가 훨~씬 반감된다는거죠
어떻게든 원본의 느낌을 살려가며 살을 붙이교 편하게 교정해보고자 수십번 시도하였으나 불가능 했습니다.
결론적으로 저는 교정조차 잘 안돌리고 중요한 글을 쓸때만 오타와 문법적 오류만 알려달라고 하고 교정은 직접 합니다.
AI가 쓴 글들도 흥미로운 생각들을 표현하고 정보를 정리해주지요. AI같다라는 이유로 질문이 사라진다면, 그건 그냥 AI가 쓴 글이 질문이 유발하지 않기 때문이에요. 사람들은 바보가 아니에요. 그 누구라도 내가 모르는 것 하나 이상은 알고 있어요. 자기만의 역사를 갖고있기 때문에. 그런데 AI가 쓴 글들은 내가 모르는걸 갖고있다는 힌트를 안 줘요.
ai가 예측 가능한 답변만 하게 보이는건 그냥
서비스 회사에서 시스템 프롬프트를 그렇게 정해놓은걸 광범위하게 쓰기 때문일 뿐입니다ㅎㅎ
데이터 센터가 더 늘어나 에이전트가 개인화되면 없어질 이슈죠ㅎㅎ