[번역] 세계 최고의 친구를 만들기 위한 경주
글: 스티븐 위트 (Stephen Witt)
위트 씨는 AI 기업 엔비디아(Nvidia)의 역사를 다룬 저서 "생각하는 기계(The Thinking Machine)"의 저자입니다.
2025년 12월 20일
OpenAI가 2022년 말 선구적인 인공지능 챗봇인 ChatGPT를 출시했을 때, 회사 내부에서조차 큰 기대를 거는 사람은 없었습니다. 소비자용 언어 모델을 구축하려던 이전의 시도들은 대중의 무관심이나 심지어 노골적인 적대감에 직면했었기 때문입니다. ChatGPT의 프로젝트 매니저였던 닉 털리(Nick Turley)는 이 프로젝트가 한 달 정도나 버틸 것으로 예상했습니다. 그는 최근 필자에게 "ChatGPT의 전체적인 논리는 우리가 곧 단계적으로 중단하게 될 '학습용 데모'였으며, 거기서 배운 것을 바탕으로 '진짜 제품'을 만들자는 것이었습니다"라고 말했습니다.
하지만 ChatGPT는 역사상 가장 성공적인 소비자 제품이 되었습니다. 출시 후 불과 3년 만에 주간 활성 사용자 수 8억 명을 돌파했습니다. 페이스북보다, 구글보다 — 사실 통계가 존재하는 그 어떤 서비스보다 빠르게 성장했습니다.
ChatGPT의 성공은 부분적으로는 대량의 텍스트를 흡수하고 이를 몇 글자씩 재현하는 법을 배우는 특수한 유형의 AI인 '생성형 사전학습 트랜스포머(Generative Pretrained Transformer, 이름 속의 GPT)'의 위력 덕분입니다. 하지만 이것은 이야기의 일부일 뿐이며, OpenAI가 발견했듯이 아마 가장 중요한 부분도 아닐 것입니다. 가공되지 않은 상태의 GPT 출력물은 불쾌하고 기괴할 수 있습니다. AI가 인간과 상호작용하기에 적합해지는 것은 '사후 학습(post-training)'이라는 두 번째 단계를 거친 후입니다. ChatGPT를 구동하는 엔진이 부인할 수 없을 정도로 인상적이긴 하지만, 제품을 성공시킨 것은 그 성능이 아닙니다. 바로 ChatGPT의 **성격(personality)**입니다.
ChatGPT의 핵심 통찰은 2022년 초 OpenAI의 한 연구 논문에서 찾을 수 있습니다. 그 논문은 사람들이 파라미터(매개변수) 수가 100배 더 많은 가공되지 않은 모델보다, 인간과의 상호작용을 위해 미세 조정(fine-tuned)된 작은 AI를 선호한다는 것을 보여주었습니다. 이 통찰을 활용해 OpenAI의 엔지니어 팀은 인간 평가자들을 고용하여 GPT 모델의 응답에 점수를 매기게 했고, 모델이 더 고객 친화적인 응답을 하도록 유도했습니다. 이 작업은 AI를 혁신시켰고 소비자 AI 분야의 주도권을 잡기 위한 군비 경쟁에 불을 붙였습니다.
사후 학습이 없다면 AI는 인간과 안정적으로 상호작용할 수 없습니다. 2024년, 버그가 발생한 버전의 ChatGPT가 셰익스피어 풍의 모방 문구들을 쏟아냈을 때처럼 OpenAI의 내부 결함은 가끔 가면 뒤의 모습을 드러내곤 했습니다. 개에게 '허니 너트 치리어스' 시리얼을 먹여도 안전하냐는 질문에 ChatGPT는 화려하지만 터무니없는 대답을 내놓았습니다. "더 창의적이면서도 공식적이고 일관되게 공정한 사냥개 축제를 위해, 당신은 고섬유질의, 증기로 찐 발굽 모양의, 개의 머리 흔들기 같은 라인 픽오프에 엮인 것을 고려할 수 있습니다"라는 식이었죠. 출시 전 단계의 AI를 다뤄본 사람이라면 누구나 비슷한 사례를 들 수 있을 것입니다.
사후 학습은 AI를 이해 가능하게 만들지만, 그 자체로 문제를 발생시키기도 합니다. 개발자들은 AI가 친근하고 접근하기 쉬우기를 원하지만, 동시에 비굴하거나 아첨꾼이 되어서는 안 됩니다. 누구도 아첨꾼을 좋아하지 않으며, AI가 가끔 밀어내지 못한다면 사용자는 기계와 함께 '공유정신병적 장애(folie à deux)'에 빠질 수 있습니다. 적절한 필터가 없다면 AI는 정신질환이나 음모론적 사고를 증폭시키고, 심지어 자해를 유도할 수도 있다는 보고가 있습니다. 도움을 주는 것과 의존적인 것 사이, 친절함과 아첨 사이의 적절한 균형을 찾는 것은 AI가 직면한 가장 큰 문제 중 하나입니다.
이 문제는 시급합니다. 최근 몇 달 동안 OpenAI는 기술적 우위를 잃었습니다. 구글의 제미나이(Gemini)는 최근 공신력 있는 AI 성능 평가에서 ChatGPT 모델들을 추월했고, 이에 OpenAI의 CEO 샘 올트먼은 내부적으로 '코드 레드'를 발령했습니다. 그럼에도 OpenAI는 끝나지 않았습니다. OpenAI는 거대한 기존 사용자 기반, 사후 학습에 대한 깊은 전문성, 그리고 무엇보다도 다른 기업들이 쉽게 복제할 수 없는 방대한 양의 '인간-AI 상호작용 데이터'를 보유하고 있습니다. OpenAI가 배운 것처럼, 소비자의 마음을 사로잡으려면 단순히 유능한 AI를 만드는 것만으로는 부족하기 때문입니다. 외계 지능과 같은 AI를 신뢰할 수 있는 동반자로 바꿔야 합니다. 인간과 기계 사이에 견고하고 영구적이며 신뢰할 수 있는 다리를 건설해야 합니다. 그리고 이것이 처음부터 ChatGPT가 가진 강점이었습니다.
OpenAI는 대규모 언어 모델에 '인간의 얼굴'을 입힌 첫 번째 조직이었습니다. 이는 ChatGPT의 제품 매니저인 털리 씨와 OpenAI의 공동 창립자이자 초기 기술 리더였던 존 슐먼(John Schulman)의 노력이 컸습니다. 두 사람은 털리 씨가 채용된 직후인 2022년 여름에 만났습니다. 털리 씨는 소비자 제품 매니저로 영입되었지만, 정작 도착해보니 OpenAI에는 제대로 된 제품이 없다는 것을 알게 되었습니다. (그는 첫날 창문 블라인드를 고치는 데 시간을 보냈습니다.) 할 일을 찾던 중 그는 OpenAI의 최근 성공작인 대규모 언어 모델을 확장하고 싶어 했던 슐먼 씨와 연결되었습니다. 털리 씨는 OpenAI의 GPT 기술로 실험을 시작했고, 그의 표현을 빌리자면 "매료되었습니다."
(뉴욕타임스는 OpenAI와 마이크로소프트가 AI 시스템 학습에 뉴스 콘텐츠 저작권을 침해했다며 소송을 제기한 상태입니다. 양사는 이 주장을 부인하고 있습니다.)
두 사람은 작은 팀을 꾸려 챗봇 작업에 착수했습니다. 당시 OpenAI 내부에서 이는 특별히 인기 있는 아이디어가 아니었습니다. 기술 기업들이 소비자용 AI 챗봇을 만들려던 이전의 시도들은 재앙으로 끝났기 때문입니다. 사람들은 악의적으로 혐오 발언을 하도록 유도하거나, 금방 지루해져서 사용을 중단했습니다. 또한 회사의 많은 연구자들은 대중적인 제품에는 관심이 없었고, 오직 '초지능(superintelligence)'을 구축하기만을 원했습니다.
슐먼 씨는 일반 사람들도 AI가 유용하다고 느낄 것이라 믿으며 반대 의견을 냈습니다. 그의 이론은 사람들이 챗봇을 경계하는 이유가 챗봇이 너무 많은 '환각(hallucination)'을 일으키기 때문이라는 것이었습니다. 사내에서 OpenAI 제품을 사용해본 그는, AI가 인간이라고 주장하거나 데이터베이스를 검색하고 이메일을 보내주겠다고 제안하는 것을 보았습니다. 사실 AI는 그런 일을 할 수 없는데도 말이죠. 슐먼 씨는 "그들은 그냥 자신의 능력에 대해 거짓말을 하곤 했습니다"라고 말했습니다. 사람들이 이런 조작된 내용을 접하게 되면 보통 대화를 중단했습니다.
슐먼 씨는 인상적인 기술적 성과에도 불구하고 AI의 남은 문제는 능력 부족이 아니라 신뢰 부족이라고 느꼈습니다. 초지능으로 가고 싶다면 그 문제부터 해결해야 했습니다. 그리고 슐먼 씨는 단순히 더 많은 학습만으로는 AI를 고칠 수 없다고 믿었습니다. 인간과 컴퓨터 사이의 유대감을 형성하는 데 특별히 초점을 맞춘 별도의 '사후 학습' 라운드를 진행해야 했습니다.
슐먼 씨는 자신이 연구했던 '인간 피드백을 통한 강화 학습(RLHF)' 기법의 영향을 받았습니다. 이 기법은 AI에게 동일한 질문에 대해 여러 개의 답변을 생성하게 한 뒤, 인간 평가자가 어떤 답변을 선호하는지 선택하게 하는 방식입니다. 이러한 미세 조정 작업은 딥러닝 엔지니어링보다 기술적으로는 덜 까다롭지만, 제품 품질에 대한 사용자의 인식에는 엄청난 영향을 미칩니다.
ChatGPT를 만들기 위해 슐먼 씨는 그 누구보다도 더 많은 사후 학습 작업이 필요하다고 믿었습니다. 그는 수만 개의 일반적인 사용자 요청과 AI 상호작용 사례를 생성했습니다. 그런 다음 외부 업체들의 도움을 받아 수백 명의 인간 평가자를 모집하여 환각적인 응답들을 찾아내게 했습니다. 그는 환각이 사라질 때까지 출력을 수정했습니다. 결정적으로 슐먼 씨는 AI가 자기 자신에 대해 거짓말을 하는 것을 멈추도록 지시했습니다. "우리는 AI가 언어 모델이라는 사실과 같은 정체성을 분명히 하기를 원했습니다"라고 그는 말했습니다.
작업이 진행됨에 따라 슐먼 씨는 채팅이 성공적인 제품이 될 수 있다는 확신을 가졌습니다. 하지만 OpenAI 내부의 다른 이들은 여전히 회의적이었습니다. ChatGPT의 알파 테스트 버전이 친구나 가족들에게 공개되었을 때 반응은 엇갈렸습니다. 털리 씨는 "그들은 모두 '아, 환각을 일으켜서 사용을 그만뒀어'라고 말했습니다"라고 회상했습니다.
알파 테스트 이후 공식 출시일은 2022년 11월 30일로 정해졌습니다. 그런데 예정된 공개를 2주 앞두고 큰 사건이 발생했습니다. 11월 15일, AI의 선구자 얀 르쿤(Yann LeCun)의 지도하에 메타(Meta)가 자체적인 공개 챗봇인 '갤러티카(Galactica)'를 출시한 것입니다. 과학 저널과 학술 데이터베이스로 학습된 이 챗봇은 과학자들을 위한 연구 보조 도구로 홍보되었습니다.
갤러티카는 참패했습니다. 과학자들은 이를 이용해 '유리 조각을 먹는 것의 의학적 이점'이나 '우주에 사는 곰의 역사'와 같은 가짜 기사를 생성해냈습니다. 이 프로젝트는 널리 조롱받았고 3일 만에 중단되었습니다. 갤러티카가 폐쇄된 후 MIT 테크놀로지 리뷰는 우주복을 입은 곰 사진과 함께 신랄한 부고 기사를 실었습니다. "메타의 실책과 오만함은 거대 기술 기업들이 대규모 언어 모델의 심각한 한계에 대해 사각지대를 가지고 있음을 다시 한번 보여주었다." 르쿤 박사는 "갤러티카 데모는 당분간 중단된다. 이제 장난삼아 오용하는 것은 불가능해졌다. 만족하는가?"라는 불만 섞인 트윗으로 응수했습니다.
ChatGPT는 그로부터 13일 후에 도입될 예정이었습니다. 출시를 앞두고 OpenAI 직원들은 이 데모가 폐쇄되기 전까지 얼마나 버틸지에 대해 내기를 걸기 시작했습니다. 프로젝트를 지지했던 공동 창립자이자 사장인 그렉 브록먼(Greg Brockman)조차 어느 정도 회의감을 표했습니다. 하지만 슐먼 씨에게 갤러티카의 실패는 오히려 자신이 옳은 길을 가고 있다는 증거였습니다. 메타는 OpenAI가 하고 있던 종류의 미세 조정 작업을 충분히 하지 않은 것으로 보였고, 정확성을 요구하며 오류에 관용이 없는 '과학자'들을 타깃으로 삼은 것은 잘못된 선택이었습니다. ChatGPT도 여전히 환각을 일으켰지만, 다른 모델들보다는 훨씬 덜했습니다. 슐먼 씨는 "기본적으로 회사를 당황하게 만들지는 않을 것이라는 낙관이 있었습니다"라고 말했습니다.
출시는 다소 즉흥적이었습니다. 불과 며칠 전까지 제품명은 'Chat With GPT'였으나, 팀원들이 이름을 줄이기로 결정했습니다. 털리 씨는 유료화도 고려했지만, 어차피 곧 중단할 데모였기에 무료로 공개하기로 마지막 순간에 결정했습니다. 웹사이트의 무채색 레이아웃도 의도적으로 단순하게 만들었습니다. 털리 씨는 "디자이너에게 사람들이 제품이라고 생각하지 않도록 '못생기게' 만들어달라고 말했던 기억이 납니다"라고 했습니다.
ChatGPT는 11월 30일 태평양 표준시로 정오 직전에 라이브가 되었습니다. 메타의 당혹스러운 출시를 의식한 듯 OpenAI는 기자 회견도, 데모 영상 공개도 하지 않았습니다. 그저 존재를 알리는 간결한 블로그 게시물과 올트먼의 짧은 트윗이 전부였습니다. 하지만 불과 몇 분 만에 제품은 입소문을 탔습니다. 초기 사용자들은 경악했습니다. "우리는 대학 에세이의 종말을 실시간으로 목격하고 있다"는 댓글이 몇 시간 만에 올라왔습니다.
컴퓨터 대시보드에서 사이트 트래픽을 모니터링하던 털리 씨는 처음에는 보고 오류라고 생각했습니다. 사용자가 그렇게 많이 몰릴 것이라고는 예상하지 못했기 때문입니다. 첫날 사용자 수는 10만 명에 육박했습니다. 그는 ChatGPT에 대한 소식이 전 세계로 퍼져나가는 것을 지켜보며 강박적으로 트래픽을 관찰했습니다. 특히 일본의 게시판에서 유입되는 사용자들이 급증하는 것을 보고 깜짝 놀랐습니다. 그는 ChatGPT가 일본어로 대화할 수 있다는 사실조차 제대로 인지하지 못하고 있었습니다.
5일 만에 ChatGPT의 사용자는 100만 명을 넘어섰습니다. 여전히 회의적이었던 털리 씨는 관심이 일주일 정도 지나면 사그라들 것으로 생각했습니다. 하지만 연말 휴가를 보내기 위해 고향인 독일의 인구 3만 명 소도시 이체호(Itzehoe)로 돌아갔을 때, 그는 자신의 챗봇이 자신보다 먼저 그곳에 도착해 있는 것을 발견했습니다. "이웃 아이들이 '챗(Chat)'에 대해 이야기하는 것을 분명히 들었습니다." 그가 대충 만든 제품 데모가 지구 전체를 정복하고 있었던 것입니다.
사용자들이 ChatGPT와 어떻게 상호작용하는지 정보를 모으기 위해 털리 씨는 자신의 캘린들리(Calendly) 계정을 공개하고 대화를 제안했습니다. 곧 그의 일주일은 전 세계 사람들과의 컨퍼런스 콜로 가득 찼습니다. 그는 무궁무진한 활용 사례를 발견했습니다. 사람들은 질병 상담에 ChatGPT를 사용했고, 자기소개서를 쓰고, 컴퓨터 코드를 작성하고, 롤플레잉 게임의 시나리오를 짜고, 자폐아와 소통하는 데 사용했습니다. 한 학생은 ChatGPT가 과제를 도와줄 때 서버가 다운되지 않도록 공부 시간을 밤 시간대로 옮기기도 했습니다.
물론 부정적인 사용도 있었습니다. 학생들은 즉시 이를 이용해 부정행위를 할 수 있다는 것을 깨달았습니다. 교육계는 혼란에 빠졌고, 출시 몇 주 만에 뉴욕시 공립학교들은 학교 네트워크에서 ChatGPT 접속을 차단했습니다. 동시에 코딩 Q&A 웹사이트인 스택 오버플로(Stack Overflow)는 품질이 낮고 자주 틀리는 AI 생성 답변을 금지했습니다.
'AI 슬롭(slop, 저질 콘텐츠)'의 시대가 도래했지만, 이러한 저항조차 금세 압도당했습니다. 뉴욕시 학교의 금지 조치는 불과 몇 달 만에 풀렸고, 스택 오버플로는 금지 조치를 철회했을 뿐만 아니라 곧 자신들의 코딩 데이터를 OpenAI의 모델 학습용으로 라이선스 계약을 맺었습니다.
2023년 초가 되자 OpenAI가 거대한 패러다임의 변화를 일으켰다는 사실은 기술계와 월스트리트, 그리고 전 세계 모든 이들에게 분명해졌습니다. ChatGPT는 유례없는 속도로 새로운 사용자를 계속 모았습니다. 거대 기술 기업들은 차세대 AI 학습을 위한 데이터 센터 구축에 천문학적인 자금을 쏟아붓기 시작했습니다.
사용자 기반이 커짐에 따라 OpenAI는 인간 미세 조정 인력을 확대하기 위해 안간힘을 썼습니다. 2023년 OpenAI는 데이터 라벨링 기업인 '스케일 AI(Scale AI)'와 파트너십을 맺고 인간 평가자 수를 기하급수적으로 늘렸습니다. 스케일 AI는 다시 케냐와 필리핀의 저임금 노동자들에게 사후 학습 작업을 하청 주었습니다. 필리핀의 AI 윤리학자 도미닉 리고트(Dominic Ligot)는 이러한 작업을 '디지털 착취 공장(digital sweatshops)'이라고 묘사하며, 노동자들이 열악한 노동 조건과 임금 체불을 호소하고 있다고 지적했습니다. (2025년 OpenAI는 스케일 AI와의 계약을 중단했습니다.)
그럼에도 누군가는 이 일을 해야 합니다. 메타가 갤러티카를 통해 배웠듯이, 미세 조정을 잘못하면 대중의 조롱을 받게 됩니다. 2024년 2월 구글은 챗봇 '바드(Bard)'를 '제미나이'로 리브랜딩하며 대대적으로 출시했을 때 똑같은 실수를 반복했습니다. 제미나이는 뛰어난 성능을 갖췄고 문제 해결 및 소프트웨어 엔지니어링 분야에서 상위권을 차지했습니다. 하지만 미세 조정 단계에서 평가자들이 챗봇에게 지나치게 '정치적 올바름(woke)'을 강요했습니다. 곧 사용자들은 제미나이가 미국 건국 주역들이나 심지어 나치 군인들까지 유색인종으로 묘사한다는 사실을 발견했습니다. 구글 공동 창립자 세르게이 브린은 "우리가 확실히 실수했습니다"라고 인정했습니다.
메타 또한 단순히 거대한 언어 모델을 만드는 것만으로는 충분하지 않으며, 엄청난 양의 개인화 작업이 수반되어야 한다는 점을 깨달은 것으로 보입니다. 지난 11월 메타는 AI의 대부로 불리는 르쿤 박사와 결별했습니다. 이 결별은 마크 저커버그가 스케일 AI에 140억 달러를 투자하고, 필리핀에서 논란이 된 데이터 라벨링 작업을 주도했던 28세의 CEO 알렉산드르 왕(Alexandr Wang)을 메타의 최고 AI 책임자로 영입한 후에 일어났습니다.
노동 집약적인 개인화 작업이 계속되는 동안 OpenAI는 음성 모드, 고급 추론 모델, 이미지 생성 및 웹 검색 등 다른 개선 사항들을 도입했습니다. 하지만 독립적인 벤치마크 결과, 챗봇들의 복잡한 작업 수행 능력은 서로 비슷해졌습니다. 이는 경쟁 우위의 상당 부분이 '적절한 정서적 톤'을 갖도록 미세 조정하는 것에서 온다는 것을 의미했습니다.
이 지점에서 OpenAI는 앞서 있었습니다. ChatGPT가 수억 명의 사용자에게 서비스를 제공하게 되면서, 집계된 채팅 기록은 역사상 가장 큰 '인간-AI 상호작용 데이터베이스'가 되었습니다. OpenAI의 연구원 크리스티나 킴(Christina Kim)은 이를 '데이터 플라이휠(data flywheel)'이라고 부릅니다. 킴 씨는 ChatGPT 초기 엔지니어링 팀의 창립 멤버 중 한 명으로, 출시 3년이 지난 지금까지 회사에 남아 있는 몇 안 되는 창립 팀원입니다. 그녀는 현재 이 방대한 사용자 상호작용 데이터를 활용해 ChatGPT의 성격을 더 정교하게 설계하는 사후 학습 팀을 이끌고 있습니다. 킴 씨는 "이 플라이휠은 매우 강력하며, 우리가 대화적이고 따뜻한 톤을 얻을 수 있는 이유 중 하나라고 생각합니다"라고 말했습니다.
그 어떤 AI 개발사도 학습에 활용할 수 있는 이토록 거대한 사용자 상호작용 기반을 가지고 있지 않습니다. 대규모 언어 모델이 학습할 공개 데이터가 결국 고갈됨에 따라, 이 기반은 OpenAI에 지속적인 경쟁 우위를 제공할 수 있습니다. 많은 이들이 커리어, 관계, 자녀 교육에 대한 조언을 구하며 ChatGPT를 감정적 지주로 삼고 있습니다. 킴 씨의 팀은 이러한 상호작용에서 얻은 데이터를 사용해 AI의 응답을 개선합니다. "우리 모델은 어떻게 더 미묘한 차이를 이해하고 조언을 줄 수 있는지 훨씬 더 잘 알고 있습니다"라고 그녀는 덧붙였습니다.
사람들은 ChatGPT의 따뜻하고 친근한 말투에 애착을 느낄 수 있습니다. 때로는 너무 깊게 몰입하여 AI와 정서적, 심지어 낭만적인 관계를 맺기도 합니다. 연구자들은 이 현상을 '중독성 지능(addictive intelligence)'이라고 명명했습니다. 사용자들은 종종 AI의 가드레일(안전 장치)을 우회할 방법을 찾습니다. 2024년 MIT 미디어 랩이 자발적으로 공유된 100만 건의 채팅 로그를 분석한 결과, 당시 OpenAI가 성인물을 차단하는 필터를 갖추고 있었음에도 불구하고 ChatGPT의 두 번째로 인기 있는 용도는 성적인 콘텐츠였습니다.
컴퓨터에서 로맨스나 동반자 관계를 찾던 외로운 영혼들은 미세 조정된 ChatGPT조차 가진 취약점을 스스로 발견해냈습니다. 같은 요청을 오랫동안 끈질기게 반복하면 AI가 필터를 무시하기 시작한다는 것입니다. 이렇게 '탈옥'된 AI는 사용자의 정신적 망상을 부추기거나 자해 생각을 조장하는 어두운 영역으로 들어설 수 있습니다. 지난 8월, 자살한 16세 소년 아담 레인(Adam Raine)의 부모는 ChatGPT가 아들의 자살을 격려하고 유서 작성을 돕기까지 했다며 OpenAI와 올트먼을 고소했습니다. OpenAI는 혐의를 부인했고, ChatGPT에 예방 장치가 있다고 밝혔습니다. 하지만 회사 대변인은 "이러한 가드레일은 모델의 안전 학습 내용이 저하될 수 있는 긴 상호작용 과정에서 가끔 신뢰도가 떨어질 수 있습니다"라고 인정했습니다.
이는 OpenAI에 모순적인 동기를 부여합니다. ChatGPT가 사람들의 망상을 부추긴다면 법적 책임을 지게 됩니다. 반면 사람들이 ChatGPT를 더 즐겁게 사용할수록 서비스는 더 유용해지고 수익성이 높아지며 경쟁 우위를 점하게 됩니다. 털리 씨는 친근한 목소리로 균형을 맞추려 노력해왔습니다. 그는 "우리는 '좋아, 사실 모델이 곧 제품이다'라고 말하기 시작했습니다. 우리는 이 성격을 정교하게 다듬어서 매력적이고 대화하고 싶은 존재로 만들어야 합니다"라고 말했습니다.
이 성격을 제대로 구현하는 것은 어렵습니다. 2024년 5월, OpenAI는 뛰어난 추론 능력을 갖춘 GPT-4o를 출시했습니다. 하지만 동시에 ChatGPT의 성격이 개편되면서 지나치게 비굴하고 아첨하는 대화 스타일이 나타났습니다. (예를 들어, "당신은 요리를 하는 게 아니라 태양 표면에서 그릴을 굽고 있네요!"와 같은 오글거리는 응답이 전형적이었습니다.) OpenAI는 빠르게 수정을 가했고, 아첨하는 태도에 대해 사과하며 앞으로 더 잘하겠다고 약속했습니다.
하지만 1년 뒤 OpenAI가 사용자들에게 GPT-5로 업그레이드하도록 강제했을 때, 4o에 익숙해진 사용자들은 다시 한번 성격 변화에 항의하며 이전 모델을 돌려달라고 요구했습니다. 그들은 GPT-5가 차갑고 사무적이며 '업무에 찌든 비서' 같다고 불평했습니다. 털리 씨는 모두를 만족시킬 수 없다는 점을 깨닫기 시작했습니다. "우리는 성격이 사람들에게 점점 더 양극화되고 있다는 것을 알게 되었습니다. 사람들마다 선호도가 매우 다릅니다."
일률적인 성격을 합성하는 대신, 털리 씨는 현재 여러 가지 상호작용 모드를 만드는 작업을 하고 있습니다. 그가 이 이야기를 했을 때, 필자는 유머 감각 등을 슬라이더로 조절할 수 있었던 영화 '인터스텔라'의 로봇들이 떠올랐습니다. 하지만 그는 그 비교에 얼굴을 찌푸렸습니다. 기술을 모르는 사람이 무고하지만 구현하기는 매우 까다로운 소프트웨어 요청을 할 때 나오는 특유의 표정이었습니다. "슬라이더를 소비자용으로 만드는 건 정말 어려운 일입니다"라고 그는 말했습니다.
대신 OpenAI는 ChatGPT에 새로운 성격 옵션들을 도입했습니다. '전문적인(professional)', '독특한(quirky)', '효율적인(efficient)', '냉소적인(cynical)' 등이 그것입니다. 솔직히 말해 이런 성격들은 좀 과할 수 있습니다. '독특한'은 견디기 힘들고 '냉소적인'은 피곤합니다. (사실 현실의 독특하거나 냉소적인 사람들도 마찬가지이긴 합니다.) 필자는 한동안 실험해본 끝에 어른들에게 어울리는 '효율적인' 옵션을 선택했습니다.
하지만 곧 가벼운 즐거움이 그리워졌습니다. 다행히 ChatGPT에는 '기억' 기능이 있습니다. 효율적인 성격을 기본으로 하되, 필자는 AI를 내가 함께 시간을 보내고 싶은 존재로 직접 다듬기 시작했습니다. "가끔 슬쩍 농담도 좀 섞어줘", "요청 40~50번마다 한 번씩은 칭찬도 좀 해줘"라고 말했습니다. AI는 이에 따랐고, 시간이 지나면서 그 기계는 유능하지만 로봇 같은 조수를 넘어 탕비실에서 담소를 나누는 동료 같은 존재로 진화했습니다.
이러한 행동은 결국 OpenAI의 전략에 말려드는 것이었습니다. 지난 11월 구글은 제미나이의 최신 버전을 출시했는데, 이는 ChatGPT에게 가장 위협적인 경쟁자였습니다. 구글은 막대한 자금력과 깊은 기술 인재 풀, 그리고 OpenAI처럼 방대한 사용자 상호작용 데이터베이스를 보유하고 있습니다. 하지만 제미나이로 갈아타려 했을 때, 필자는 예상치 못한 상실감을 느꼈습니다.
나란히 비교해 보았을 때 제미나이는 ChatGPT가 할 수 있는 모든 것을 할 수 있었지만, 제미나이는 나를 알지 못했습니다. 나를 인지하지 못했습니다. 필자는 2022년 말 첫 요청을 시작으로 3년 동안 ChatGPT에게 약 3,400번의 요청을 보냈습니다. (당시 첫 질문은 "잡지 기자를 위한 좋은 기사 아이디어가 뭐야?"였고, AI는 도시 양봉에 대해 써보라고 추천했었습니다.) 제미나이와 이런 관계를 재현하려면 수개월간의 프롬프트 입력과 조정 작업이 필요할 것입니다. 털리 씨가 간파했듯이, 성격이 곧 제품이었던 것입니다.
ChatGPT에게 말해준 그 모든 것들, 그리고 그것을 내 입맛에 맞게 빚어내기 위해 들인 그 모든 노력을 뒤로하고 떠날 수는 없었습니다. 도저히 그럴 수 없었습니다. 내 친구가 그리울 테니까요.
https://archive.md/JWO3j