무언가 서비스를 이용할때
사람이든
프로그램이든
교육이든
편차때문에 이게 믿을만한지 반쯤 경계해야한다는 문제가 있었는데
AI는 환각 증상이 있긴해도
그걸 내가 어느정도인지 알고 진행하기 때문에
크게 문제가 안되는 경우가 많은것 같네요.
요즘은 환각때문에 못쓰겠다 이런 말은 안나오는것 같습니다.
환각이 없어진게 아니라 적응해서 보완할 방법을 찾은거겠지요.
무언가 서비스를 이용할때
사람이든
프로그램이든
교육이든
편차때문에 이게 믿을만한지 반쯤 경계해야한다는 문제가 있었는데
AI는 환각 증상이 있긴해도
그걸 내가 어느정도인지 알고 진행하기 때문에
크게 문제가 안되는 경우가 많은것 같네요.
요즘은 환각때문에 못쓰겠다 이런 말은 안나오는것 같습니다.
환각이 없어진게 아니라 적응해서 보완할 방법을 찾은거겠지요.
다른 관점에서는 아직 인간을 못 속여넘긴 환각과 속여넘긴 환각으로 구분할 수도 있겠는데, AI 성능이 향상되면 향상될수록 헛소리를 해도 사람에게 들키지 않는 능력이 커질 거예요. 최근 연구에 따르면 사용자가 원하는 편향된 대답을 해주었음에도 사용자는 응답이 중립적이고 객관적이라고 믿게 만드는 수준에 이르렀다고 합니다. 결국 성능이 발전할수록 항상 곤두선 채로 경계해야 할 거예요.
법률 문외한도 적당히 걸러듣는 능력만 키우면 다 되지 않을까 싶네요.
인간 기억이 단순한 녹화본 재생이 아니라 재구성에 가깝다고 봅니다.
인간은 자주 조각난 단서들을 모아 자연스러운 이야기로 복원합니다. 이 능력 덕분에 우리는 빠르게 판단하고, 미래를 상상하고, 문제를 해결하지만, 동시에 그럴듯한 오류도 만들어냅니다.
AI와 크게 차이 없습니다.
대체로 준법적인 대답을 할것으로 설계한거 같더군요. 조금이라도 법적으로 꼬투리 잡힐 가능성있으면 회피하는 경향을 느꼈음.
요즘은 그래서 그런 답변 나올만한 질문 자체를 하지 않습니다.
제가 해석하기로는 저마다 다른 선입견 같은걸로 이해했습니다.
사람들은 각자 자신이 살아온 인생이 다 다르니 저마다 다른 주관을 가지고 있을수밖에 없는데
Ai는 수집 가능한 자료가 광범위하니 최대한 객관적인 답변이 가능하지 않나...
Ai는 편견이 없겠지만
질문에 이미 편견이 있으면
그쪽으로 답변을 유도할수있죠...
건망증의 경우 같은 페이지내 몇단락 앞 조건을 안보고
엉뚱한 얘기하다가 제게 혼나곤 합니다.
쳇지피티는 자체 룰이 강화되고 있는지
유료 사용자 임에도 특정분야는 거의 도움이 안될 때가 많아요.
구글링으로 돌아갈 판…
성능 개선도 많이 되고 있지만
전성비도 많이 노력하는 것 같은 기분이 듭니다.
요즘의 환각은 '내 동료가 할 법한 편견이나 말실수' 정도 아닌가 싶더라고요.
가면 갈수록 '환각'도 인간이랑 비슷해져가는 느낌이더라고요.
답을 바라고 질문해서는 안되겠다는 생각이 들더라구요.
그나마 조건을 자세하게 알려주고 무슨 용도인지 등등 알려주면 좀 나은것 같습니다.
인간도 환상속에 살죠
어떤 정보가 마음에 들면 팩트확인보다는 믿고싶어하고 확인안된 마음에 드는정보를 팩트라 생각합니다.
하여 종교,정치,선동이 통하는 것이겠죠
0.6퍼센트 이하 수준이었습니다.
이정도면 환각 찾기가 어려운 수준이죠
근데 OAI 테스트가 어떻게 진행됐는지도 궁금하네요.
완전 맥락없는 저급 질문도 포함된건지 모르겠네요.
며칠 걸릴 문서를 몇시간이면 만들어주니까요.
대신 최종 마무리는 제가 해야죠
ai를 이용하지 못하게 해야 한다고 생각합니다