* 뉴욕타임스 기사 - Here’s What Happens When Your Lawyer Uses ChatGPT
* The Verge 기사 - A lawyer used ChatGPT and now has to answer for its ‘bogus’ citations
https://www.theverge.com/2023/5/27/23739913/chatgpt-ai-lawsuit-avianca-airlines-chatbot-research
* 버지 기사 일부 내용 발췌 / DeepL 번역기 사용.
- 콜롬비아 항공사 아비앙카(Avianca)를 상대로 소송을 제기한 변호사들이 ChatGPT가 막 지어낸 과거 사건으로 가득 찬 요약본을 제출했다고 뉴욕타임스가 보도했습니다.
- 한 예로, 존재하지 않는 'Varghese 대 중국남방항공 사건'을 언급했습니다.
- 챗봇은 실제로 있었던 사건인 'Zicherman 대 대한항공 사건'을 인용하는 것처럼 보였지만, 1996년 판결이 내려진 것과 다르게 12년 후에 확정된 사건이라며 날짜(그리고 다른 세부 사항)를 잘못 알려주었습니다.
* 실제로 있었던 Zicherman v. Korean Air Lines Co., 516 U.S. 217 (1996) :
https://supreme.justia.com/cases/federal/us/516/217/
- 변호사는 "내용이 허위일 수 있다는 가능성을 인지하지 못했다"고 말했습니다. 그는 이제 "여기서 수행한 법률 연구를 보완하기 위해 생성 인공 지능을 활용했던 것을 크게 후회하며, 진위 여부에 대한 철저한 검증 없이는 앞으로도 절대 그렇게 하지 않을 것"이라고 밝혔습니다.
간단한 사칙 연산도 틀리긴 하더라구요
창작 잘하는 문과 ai인걸로...
>> 설명서를 꼭 읽어야죠…
일단 앞뒤 내용 파악하려고 해당 번호로 검색하니깐 아무것도 안떠서, 관리 개판인 미국 사이트 많으니 저의 검색방법이 틀렸나 해서 링크를 걸어달라 했습니다.
준 링크로 들어가니 없는 페이지더군요 ..ㅋㅋ 오래된 케이스라 안되나 해서 다른 사례 두개 더 링크 달라 했는데 나머지 두개도 허위입니다 ㅠ......
만들어낸게 더 신기했어요 ㅋㅋㅋ
""Zicherman 대 대한항공 사건'을 인용하는 것처럼 보였지만"
ai가 정확도를 지키는게 아니라 확률상 나올것을 임으로 생성하기 때문입니다.
정보의 안정적 발산을 추구하고 있는거죠... 물리법칙이나 아귀에 안맞는 그림이 나오기도 하듯
챗GPT의 서술도 안정적인 발산을 추구하지만, 사실이라는 보장은 없습니다. 창작의 영역에서 사용하는 쪽이 더 맞다고 봅니다. 이를테면 주요 팩트와 몇가지 사실을 얼마나 생동감 있게 전달할지 고민할 때 유용한거죠.