
출처: https://www.perplexity.ai/page/ai-agent-leaked-passwords-afte-VP5btam4SNaN4PjNbHZcBg
이런 기사가 보여서 그 출처에 들어가 봤습니다. (번역기능을 이용했습니다)

어떤 수학자가 ai 에이전트가 얼마나 믿을 만한지 이런저런 실험을 했는데 gpt 초기버전처럼 거짓 호소를 해서 속일 수 있었다고 합니다.
정말 이렇게 간단하게 속아넘어갔다니 믿을 수가 없네요. llm은 애초에 "의심"이라는 인간의 심리활동을 조금의 흉내도 낼 수 없는 것인지..
올해 말에 스테이블코인이랑 연동이 어쩌고 하는 기사를 본 것 같은데, 이런 기사를 보면 아직 갈길이 먼가 싶습니다. -_-;;
잠깐 뻘생각을 해봤네요.