ai성능이 좋다 보니 그냥 확인 안하고 그대로 믿는 사람들도 늘긴 했네요.
관련 규정 해서 찾다가 옆에서는 GPT등을 찾고 이거라고 알려주고
제가 알던 내용하고는 달라서 확인차 다시 찾아봤습니만
ai가 알려준 내용하고 역시 다른 규정이 나왔습니다.
저도 ai를 사용하긴 하지만 규정 관련해서는 한번더 원본을 찾아보는데
아직은 정확하게 규정되어 있는 규정집은 다시한번더 살펴보는게 필요한듯 합니다.
ai성능이 좋다 보니 그냥 확인 안하고 그대로 믿는 사람들도 늘긴 했네요.
관련 규정 해서 찾다가 옆에서는 GPT등을 찾고 이거라고 알려주고
제가 알던 내용하고는 달라서 확인차 다시 찾아봤습니만
ai가 알려준 내용하고 역시 다른 규정이 나왔습니다.
저도 ai를 사용하긴 하지만 규정 관련해서는 한번더 원본을 찾아보는데
아직은 정확하게 규정되어 있는 규정집은 다시한번더 살펴보는게 필요한듯 합니다.
조태흠 기자님 안녕하세요 고소는 하지마세요 아참 뉴스타파 많이들 도와주세요 https://www.newstapa.org/donate_info
문외한은 ai가 만드는 내용을 그대로 사용할테죠
yuji 처럼요
반복 작업이 줄어들고 대략적인 아키텍처를 다 구성할수 있을정도면 대부분 수준급 시니어급이죠
행정 서류 작업도 별반 다르지 않습니다 법규나 규정 시행내역 같은것도 대략적인 내용을 숙지 하지 않고
맹신하기에는 아직 부족합니다.
LLM 하나를 딱 전적으로 신뢰하고 쓴다는 건 절대 불가능한데..
벌써부터 AI를 맹신하고 다른 '사람'의 얘기를 안 듣는다는 이야기가 들려오니 참 마음이 복잡해지네요.
제 분야나 영어번역 같은건 그나마 바로 제가 인지해서 검토 가능하니 편한 것 같습니다
100%라는건 없으니
무료로는 상식적인 것만 물어보네요 ㅎ
그게 정확도 90%를 넘어가니 저런 맹신에 빠질 가능성이 높죠. 그래서 유료나 무료나 사용량이나
좀더 기술적인 부분의 차이지 전체 확률로 보면 확률은 비슷합니다.
LLM은 그냥 존재 자체가 환각입니다
맞는 말을 할 확률도 있는거죠