이 영상은 **드와케시 파텔(Dwarkesh Patel)**이 진행하는 팟캐스트로, OpenAI의 공동 창립자이자 전 수석 과학자인 **일리야 수츠케버(Ilya Sutskever)**와의 인터뷰입니다. 일리야는 현재 새로운 AI 안전 연구소인 **SSI(Safe Superintelligence Inc.)**를 설립하여 이끌고 있습니다.
주요 내용은 현재 AI 개발의 흐름이 단순한 '스케일링(Scaling)'의 시대에서 다시 근본적인 '연구(Research)'의 시대로 넘어가고 있다는 점과 안전한 초지능(Superintelligence)에 대한 비전입니다.
핵심 내용을 요약해 드립니다.
1. 스케일링 시대에서 연구의 시대로 (Age of Scaling to Age of Research)
• 스케일링의 한계: 지난 몇 년간(2020~2025)은 데이터와 컴퓨팅 파워를 늘리는 '스케일링'이 지배했습니다. 하지만 이제는 단순히 크기를 키우는 것만으로는 충분하지 않으며, 다시 2012~2020년처럼 새로운 아이디어와 패러다임이 중요한 **'연구의 시대'**로 돌아왔다고 진단합니다.
• 경제적 영향과 성능의 괴리: 현재 AI 모델들은 벤치마크 평가에서는 뛰어난 점수를 받지만, 실제 경제적 파급력은 그에 미치지 못합니다. 이는 모델이 인간만큼 일반화(Generalization) 능력이 뛰어나지 않고 신뢰성이 부족하기 때문입니다.
2. 인간의 학습 효율성과 AI의 차이
• 샘플 효율성: 인간은 매우 적은 데이터로도 새로운 기술(예: 운전)을 빠르게 배우지만, AI는 엄청난 양의 데이터가 필요합니다. 일리야는 이것이 단순히 진화적 사전 지식(Evolutionary prior) 때문만이 아니라, 인간에게 더 우수한 근본적인 학습 알고리즘이 있기 때문일 것이라고 추측합니다.
• 감정과 가치 함수: 인간의 감정(Emotion)은 복잡한 상황에서 올바른 결정을 내리게 돕는 강력하고 단순한 '가치 함수(Value Function)' 역할을 합니다. AI에게도 이러한 내재적 가치 함수가 필요할 수 있음을 시사합니다.
3. SSI (Safe Superintelligence Inc.)와 초지능
• SSI의 목표: SSI는 단기적인 제품 출시나 상업적 경쟁보다는, 안전한 초지능(Superintelligence)을 단번에 구축하는 것(Straight shot)을 목표로 합니다.
• 점진적 공개 vs 단번의 도약: 일리야는 과거에는 연구에만 집중하는 것을 선호했지만, 최근에는 **"AI의 힘을 대중에게 보여주는 것(Showing the thing)"**이 중요하다고 생각하게 되었습니다. 사람들이 AI의 강력함을 눈으로 확인해야 정부나 사회가 이에 대비하고 규제를 마련할 동기가 생기기 때문입니다.
• 안전과 정렬(Alignment): 초지능이 '지각 있는 생명체(Sentient life)'를 아끼고 보호하도록 만드는 것이 중요한 정렬 목표가 될 수 있다고 언급합니다.
4. 연구 철학 (Research Taste)
• 아름다움과 단순함: 일리야는 연구 아이디어를 고를 때 **"아름다움, 단순함, 우아함(Elegance)"**을 중시하며, 뇌의 작동 방식에서 올바른 영감을 받는 것이 중요하다고 강조합니다. 데이터가 때로는 틀릴 수 있기 때문에, 확고한 '탑다운(Top-down)' 비전이 있어야 버그나 실패를 극복하고 연구를 지속할 수 있다고 말합니다.
한 줄 요약:
"AI 개발은 이제 단순 물량 공세를 넘어 인간 수준의 학습 효율과 일반화 능력을 갖추기 위한 새로운 '연구' 단계로 진입했으며, 일리야는 이를 통해 안전한 초지능을 실현하고자 합니다."
원본 영상: https://www.youtube.com/watch?v=aR20FWCCjAs
————-
제미나이 요약입니다.
내용중에 제일 인상적인점은 A.I보다 인간이 엄청나게 샘플효율성이 좋고 이건 지금 마신러닝말고 인간은 다른 방식의 학습방법이 있는건아닐까 하고있다는 점입니다. 천재들은 좀 다른가 싶습니다.
한글 자막이 달린 영상입니다.