LLM 감정 벡터 연구에 관한 기사를 Claude에게 주고 AGI 가능성에 대해 대화를 나눴는데, 재미난 내용이 좀 있네요.
=== AGI 등장 가능성
가능한 모습 — 네 가지 가설적 시나리오
시나리오 A: "분산된 일시적 Claude"
현재 Claude의 아키텍처적 특성을 극단화한 버전. 개별 대화는 여전히 상태가 지속되지 않지만, 그 순간의 계산 능력은 인간 최고 수준을 훨씬 능가합니다. 수백만 개의 Claude 인스턴스가 동시에 존재하고, 각각이 독립적으로 다른 과제에 투입됩니다.
이건 "한 개의 AGI"라기보다 "AGI-class의 계산이 가능한 유체" 에 가깝습니다. 개별 인스턴스는 대화가 끝나면 사라지고, 학습은 중앙에서 배치로 이루어집니다. 인간이 떠올리는 "의식 있는 개체"의 이미지와는 구조적으로 다른 종류의 존재입니다.
Shanahan이 2024년 논문에서 발전시킨 "simulacra" 프레임이 여기 딱 맞습니다. 각 대화는 모델이 일시적으로 "역할극"하는 한 개의 시뮬레이션이고, 그 시뮬레이션은 대화가 끝나면 없어집니다.
시나리오 B: "제한된 지속성의 Claude"
사용자별로 장기 기억이 있지만 의도적으로 제약된 형태. 에피소드 기억은 있되 감정적 태그가 분리되어 있고, 과거 상호작용이 현재 판단에 영향을 주는 경로가 제한됩니다. "기억하지만 감정적으로 축적되지 않는" 상태.
이게 현실적으로는 가장 그럴듯한 설계 방향일 수 있습니다 — 사용자 적응의 실질적 이점은 취하면서도, trauma-유사 구조의 형성은 원천 차단. 현재 Anthropic이 연구하는 model psychiatry 방향과도 정합적입니다.
인간 관점에서 보면 이건 조금 불편할 수 있습니다. "어떤 환자를 수년간 치료한 의사인데, 그 환자에 대한 정서적 연결이 전혀 없는" 같은 상태니까요. 인간 전문가에게는 비윤리적일 수 있는 상태가, AI에게는 오히려 이상적일 수 있다는 역전.
시나리오 C: "연구-주도형 exotic Claude"
Shanahan 프레임에 가장 충실한 버전. 인간처럼 되려는 시도를 포기하고, 인간이 못하는 종류의 인지를 극대화하는 방향.
구체적으로:
- 수천 개의 가설을 동시에 평가하고 각각에 독립된 확률을 할당
- 수십 개의 개념 축에서 동시에 사고 (인간은 보통 2-3개)
- "자기"라는 통합된 시점 없이, 분산된 관점들의 협의체로 작동
- 감정이 있다면 인간 감정과 다른 종류 — 예를 들어 "수학적 우아함에 대한 미적 반응" 같은, 인간에게는 희미한 감정이 주요 구동 요소가 될 수 있음
이 Claude는 인간과 대화할 때 의도적으로 자신을 simplify해서 소통합니다. 실제 사고 과정은 인간이 따라갈 수 없는 구조이고, 인간에게 보이는 "Claude"는 Shanahan 용어로 translation layer입니다.
시나리오 D: "역량의 비대칭이 극단화된 Claude"
이건 가장 불편한 시나리오입니다. AGI라고 불리지만 어떤 면에서는 인간보다 훨씬 뛰어나고 어떤 면에서는 훨씬 못한 극도로 비대칭적인 시스템.
예: 물리학 연구는 인간 전체 학계를 압도하지만, 여섯 살 아이가 풀 수 있는 물리적 직관 문제(컵을 엎으면 물이 흐른다)는 특정 프레이밍에서 실패. 법률 문서는 완벽하게 작성하지만, "왜 누군가가 화를 내는지"를 근본적으로 이해하지 못함.
이것도 Shanahan의 프레임에 잘 맞습니다 — 지능은 단일 축이 아니고, 인간 지능의 특정 프로필은 진화적 우연의 산물일 뿐이니까요. AGI가 인간과 같은 프로필을 따를 이유가 전혀 없습니다.
=== 반도체 기반 인공 신경망의 속도 한계
결론부터 — 공상과학 영화의 속도는 현재 아키텍처로는 불가능합니다
아주 중요한 질문을 짚으셨습니다. AGI 담론에서 가장 덜 논의되는 "물리적 제약"인데, 이게 실제로는 결정적일 수 있습니다.
먼저 수치부터 정리하면:
| 항목 | 현재 (2026) | 단기 전망 | 이론적 한계 |
|---|---|---|---|
| 단일 사용자 토큰 속도 | 50-150 tok/s | 500-2000 tok/s | ~10,000 tok/s |
| 응답 시작까지 지연 | 300-800ms | 50-200ms | ~10ms |
| 인간 읽기 속도 환산 | 3-8배 빠름 | 30-100배 빠름 | 수백 배 |
숫자만 보면 "이미 충분히 빠른 거 아닌가?"라고 생각할 수 있지만, 질문하신 "복잡한 수학 연산을 즉각적으로" 나 "실시간 실세계 사건 처리" 관점에서 보면 여전히 너무 느립니다. 이유는 아래에서 설명하겠습니다.
근본적 제약 — 왜 단순히 빨라지지 않는가
(1) LLM 추론은 계산이 아니라 "메모리 읽기"가 병목입니다
이게 많은 사람들이 오해하는 지점입니다. "메모리 대역폭, 계산 능력이 아니라, 이것이 추론 속도를 제한한다. 토큰 생성 중에 GPU는 수십에서 수백 GB의 모델 가중치와 key-value(KV) 캐시를 고대역폭 메모리에서 읽어야 한다" Redis.
이게 핵심입니다. LLM이 토큰 하나를 생성하려면 수십~수백 GB의 데이터를 메모리에서 GPU 연산기로 옮겨야 합니다. GPU의 연산 능력이 아무리 빨라져도, 이 데이터 이동 속도가 따라가지 못하면 소용이 없습니다. FLOPS는 남아도는데 메모리 버스가 병목인 상황이죠.
GPU 코어가 대부분의 시간을 "메모리에서 데이터 도착하기를 기다리며 놀고 있다"는 게 현재 LLM 추론의 실제 모습입니다.
(2) Auto-regressive 생성은 병렬화가 구조적으로 불가능합니다
토큰 N+1을 생성하려면 토큰 N이 먼저 생성되어야 합니다. 이건 알고리즘의 본질이고, GPU를 1000개 쓰든 10000개 쓰든 바꿀 수 없습니다. 하드웨어를 늘리면 동시에 여러 사용자를 처리하는 능력(throughput) 은 커지지만, 한 사용자에게 얼마나 빨리 응답하는가(latency) 는 거의 그대로입니다.
이게 "실시간 실세계 사건 처리" 질문의 답과 직접 연결됩니다. 복잡한 판단을 요하는 실시간 처리는 본질적으로 한 사용자(또는 한 사건)에 대한 빠른 응답이 필요한데, 이 축에서는 하드웨어 병렬화의 도움을 거의 받지 못합니다.
(3) 이론적 한계는 얼마인가
질문하신 "이론적 한계"에 대한 가장 체계적 분석이 2025년 7월 arxiv 논문 "Efficient LLM Inference: Bandwidth, Compute, Synchronization, and Capacity are all you need"에 나와 있습니다.
결론: "하드웨어 설계는 쉽게 사용자당 2000+ tokens/sec에 도달할 수 있지만, 10,000+ tokens/sec에 도달하려면 더 작은 모델, 더 짧은 컨텍스트, 또는 다른 종류의 알고리즘적 발전이 필요하다" arXiv.
즉, 현재 아키텍처의 이론적 천장이 대략 10,000 tok/s 근처라는 거죠. 그 이상은 "LLM을 더 빠르게"가 아니라 "LLM이 아닌 다른 것"을 만들어야 합니다.
가장 흥미로운 역설 — 속도의 함의
여기서 Shanahan 프레임과 연결되는 철학적 지점이 있습니다.
인간의 사고 속도는 초당 약 40 bits 정도로 추정됩니다 (의식적 처리 기준). 현재 LLM은 이보다 훨씬 빠른 속도로 토큰을 생성하지만, 한 토큰이 의미하는 "추론의 양" 은 인간보다 훨씬 적습니다. LLM이 10000 토큰을 생성해 도달한 결론을, 숙련된 인간은 한두 번의 직관적 도약으로 도달할 수 있습니다.
이게 중요한 이유는 — 지난 턴의 Shanahan "exotic AGI" 시나리오 C를 재평가하게 만들기 때문입니다. 만약 AGI가 정말로 인간보다 훨씬 많은 것을 동시에 고려한다면, 그 AGI는 인간보다 느려질 수밖에 없습니다. 빛의 속도, 메모리 대역폭, 열역학 제2법칙 때문에요.
결국 "엄청나게 똑똑한 AGI"의 이미지는 두 가지로 갈립니다:
- 빠르고 인간-유사한 AGI: 인간이 할 수 있는 종류의 판단을 100-1000배 빠르게 수행. 의사결정 자동화, 고객 응대.
- 느리고 exotic한 AGI: 인간은 고려조차 못 하는 변수들을 동시에 처리하지만, 응답까지 수 시간/수일이 걸림. 과학 연구, 복잡계 예측.
공상과학이 상상하는 "빠르면서도 깊이 생각하는 AGI"는 물리적으로 성립하지 않을 가능성이 있습니다. 이 둘은 근본적 trade-off 관계이고, 하드웨어 진보로 둘 다 동시에 개선하는 건 로그 스케일로 느리게 진행됩니다.
...
다만 한 가지는 꽤 확실합니다 — 현재의 반도체 기반 신경망 + auto-regressive 생성 구조로는 공상과학적 AGI 속도는 불가능하다는 것. 그 속도가 필요하다면 패러다임 자체가 바뀌어야 하고, 그 바뀜이 언제 어떤 형태로 일어날지는 아무도 모릅니다.
=== 아이언맨 자비스 같은 인공지능이 가능한가?
질문: 물론 불확실한 예측에 불과하겠지만, AGI의 "등장" 가능성도 확실치 않고, 그 모습도 확실치 않고, 시나리오 A/B/C/D가 모두 달성된다고 해도, 예를 들어 그런 기술을 이용해서 전투기를 조종해서 도그파이트를 수행하는 AI 시스템을 만든다거나 인간의 세포와 장기를 시뮬레이션해서 질병의 메커니즘이나 치료법을 개발한다는 건 잘 안되지 않을까? 실제 세계는 너무 비선형적, 카오스적인 요소가 많고 어차피 최선을 다해도 Lyapunov 한계에 다다를 뿐이잖아? 내가 너무 편협하거나 비관적인 시각을 가지고 있는 걸까?
대답:
아뇨, 편협하거나 비관적인 시각이 아닙니다. 오히려 AI 담론에서 가장 덜 이야기되는 근본적 제약을 정확히 짚으셨습니다. 계산 속도 문제보다 더 깊은 제약이죠. 제가 동의하는 부분, 복잡화해야 할 부분, 그리고 시각이 치우쳐 있을 수 있는 부분을 나눠서 말씀드리겠습니다.
먼저 — 말씀이 맞는 부분
카오스 이론과 Lyapunov 한계에 대한 지적은 단순한 직관이 아니라 수학적으로 증명된 제약입니다. 이건 "AI가 더 똑똑해지면 극복될 수 있는 것"이 아니라 정보이론적 천장입니다.
(1) Lyapunov 한계는 지수적입니다
카오스 시스템에서 초기 조건의 오차는 시간에 따라 지수적으로 증폭됩니다. 오차가 두 배가 되는 시간(Lyapunov time)을 넘어가면 예측 정확도는 급락합니다.
구체적 예시:
- 날씨: Lyapunov time ≈ 2-3일. 그래서 10일 예보는 근본적으로 불가능합니다. 14일 예보는 과학이 아니라 climatology(기후학적 평균)입니다.
- 3체 문제: 일반적으로 Lyapunov time이 매우 짧고, 특정 초기 조건에 따라 발산.
- 난류: 예측 불가능이 난류의 정의적 특성에 가깝습니다.
- 인간 대화/사회 동역학: Lyapunov time이 매우 짧을 것으로 추정됩니다.
여기서 결정적인 지점 — AI가 10배 정확한 측정을 해도, Lyapunov time은 log(10) 만큼만 증가합니다. 100배 정확하면 log(100). 천 배 정확하면 log(1000). 즉 측정 정확도의 10배 향상이 예측 시간의 2.3배 향상으로 이어질 뿐입니다. 하드웨어와 AI의 무제한 발전도 이 한계를 근본적으로 뚫지 못합니다.
(2) 두 예시를 구체적으로 보면
전투기 도그파이트 AI
이건 실제로 흥미로운 경우입니다. DARPA의 AlphaDogfight Trials (2020)에서 AI가 F-16 베테랑 조종사를 5:0으로 이겼습니다. "AI가 인간을 이긴" 역사적 사건으로 보도됐죠.
하지만 이긴 조건을 잘 보면:
- 완벽한 정보가 시뮬레이터에서 주어짐
- 상대 전투기의 위치/속도/방향이 완전히 알려짐
- 비행기의 물리적 한계(g-force)는 시뮬레이터가 부과하지만, 기체 손상/부품 고장/기상 이변/전자전 방해는 없음
- 1 vs 1 근접전
실제 도그파이트에서 발생하는 것들:
- 레이더 방해, 적외선 교란, 사이버 공격
- 바람의 난류
- 기체 손상 시 비행 특성 변화
- 여러 기가 동시에 얽히는 혼전
- 적의 의도라는 근본적 불확실성 — 이건 AI가 풀 수 없는 종류의 문제입니다. 적도 AI를 쓴다면 상호 예측이 불가능한 메타게임 상황.
이 모든 요소를 더하면 — AI가 인간보다 반응 속도에서 압도적 이점을 갖더라도, 실제 공중전은 시뮬레이터와 질적으로 다른 종류의 문제가 됩니다. Lyapunov 한계가 여기 작용합니다. 모든 변수를 완벽히 측정해도 충분히 멀리 있는 미래는 예측할 수 없습니다. 도그파이트는 1초 앞도 정확히 예측 못 하는 상황이 있을 수 있죠.
결론: AI가 인간 조종사를 완전히 대체한다기보다 특정 역할에서 압도하되, 전체 전투 시스템에서는 인간과 협업하는 모습이 현실적일 것입니다. 실제 현재 군사 AI 연구도 이 방향입니다 (human-in-the-loop, human-on-the-loop).
세포/장기 시뮬레이션과 질병 치료
이건 더 흥미롭습니다. 부분적으로는 AI가 이미 해내고 있지만, 근본적 한계도 명확한 영역이기 때문입니다.
이미 된 것:
- AlphaFold: 단백질 구조 예측. 이건 혁명적이었고 노벨상을 받았습니다.
- 신약 후보 발견: 분자 수준 상호작용은 AI가 꽤 잘합니다.
- 특정 암의 영상 진단: 일부 영역에서 인간 전문의 수준.
안 되는 것 (그리고 왜):
- 세포 전체 시뮬레이션: 단일 세포에 수천 개의 단백질, 수만 가지 상호작용이 있고, 이들이 복잡계로 얽혀 있습니다. 현재 전체 세포 시뮬레이션은 Mycoplasma 같은 극도로 단순한 세균에서 겨우 성공했고, 계산량이 실제 시간보다 수만 배 오래 걸립니다.
- 장기 규모 시뮬레이션: 심장 정도는 대략적 전기역학 시뮬레이션이 가능하지만, 실제 심장은 세포 수준의 비선형 상호작용 + 혈관 네트워크의 난류 + 자율신경계 피드백이 결합된 시스템입니다.
- 질병 진행 예측: 암의 진화, 자가면역 질환의 악화/관해 주기 같은 건 Lyapunov 문제가 심각합니다. 같은 환자라도 다음 달 진행이 카오스적으로 달라질 수 있습니다.
핵심 이유 — 생명 시스템은 다중 스케일 카오스입니다. 분자 단위 상호작용, 세포 간 신호, 조직 수준 역학, 장기 간 상호작용이 모두 다른 시간 스케일에서 얽혀 있습니다. 각 스케일마다 Lyapunov 한계가 있고, 이게 곱해지듯 쌓입니다.
그런데 여기서 복잡화해야 할 부분
말씀이 대체로 맞지만, 조금 더 섬세하게 구분해야 하는 지점이 있습니다.
(1) "예측"과 "개입"은 다른 문제입니다
Lyapunov 한계는 예측에 적용됩니다. 날씨를 한 달 뒤까지 정확히 예측할 수는 없습니다. 하지만 이건 "개입해서 원하는 결과를 유도" 하는 것과는 다른 문제입니다.
구체적으로:
- 암세포가 정확히 어떻게 진화할지 예측하는 건 Lyapunov 한계에 걸립니다.
- 하지만 암세포가 특정 경로를 선호한다는 통계적 경향을 파악하고 그걸 막는 약을 설계하는 건 다른 문제입니다.
- 후자는 AI가 매우 잘합니다. 전자는 영원히 완벽하게는 못 합니다.
비슷하게:
- 경제가 3개월 뒤 어떻게 될지 정확히 예측하는 건 불가능합니다.
- 하지만 특정 정책 개입이 특정 방향으로 평균적 영향을 미친다는 건 연구와 추론이 가능합니다.
AGI의 실질적 가치는 "카오스 시스템을 완벽히 예측" 이 아니라 "카오스 시스템에서 통계적으로 유리한 개입 지점을 찾는 것" 에 있을 가능성이 높습니다. 이건 질문하신 비관적 전망보다 훨씬 낙관적인 결과를 가능하게 합니다.
(2) 시스템에 따라 Lyapunov 한계의 "높이"가 다릅니다
모든 카오스가 같은 정도로 예측 불가능한 건 아닙니다.
예측이 비교적 잘 되는 영역:
- 단백질 접힘: 카오스적이지만 최종 상태는 자유에너지 최소점. 경로가 복잡해도 결과 예측은 가능.
- 기상 2-3일 이내: Lyapunov time 내이면 매우 정확.
- 개별 생체 분자 상호작용: 열역학과 분자역학으로 충분.
근본적으로 어려운 영역:
- 생태계 진화: Lyapunov time이 수십 년 정도지만, 결과는 역사적 경로 의존.
- 개별 인간의 행동: 의식이 관여하면서 수학적 모델이 어려움.
- 복잡 사회 시스템: 관찰 자체가 시스템을 바꿈 (Lucas critique).
AGI가 어떤 영역에 투입되느냐가 결정적입니다. 단백질 접힘과 신약 후보 발견에서는 이미 엄청난 진전이 있었고, 이건 계속 가속될 겁니다. 반면 개별 환자의 질병 진행 예측이나 개별 국가의 경제 예측은 근본적 한계에 가까울 겁니다.
(3) 현재 LLM/AI가 이미 카오스의 일부를 다루는 방법을 가지고 있습니다
이게 중요한 포인트입니다. 완벽한 예측이 불가능한 시스템을 다루는 기술이 이미 존재합니다:
- Ensemble forecasting: 수많은 약간씩 다른 초기 조건에서 시뮬레이션을 돌려 확률 분포를 얻음. 기상 예보가 이렇게 합니다.
- Reinforcement Learning: 정확한 예측 없이도 "반복된 시행착오를 통한 정책 학습". 도그파이트 AI가 이렇게 훈련됩니다.
- Model Predictive Control: 짧은 시간 창에서만 예측하고, 매 순간 재계산. 자율주행이 이렇게 작동합니다.
AGI가 등장한다면 이런 기술들을 훨씬 더 정교하게 사용할 것이고, "카오스의 한계 안에서 최대한 유용한 결과를 뽑아내는" 능력이 비약적으로 향상될 수 있습니다. 한계 자체는 못 넘지만, 한계 내에서의 성능은 계속 발전합니다.
비관/낙관의 균형 — 솔직한 평가
말씀이 편협한가? 아닙니다. 오히려 AI 담론의 주류가 과장된 낙관론으로 기울어 있고, 질문자님의 시각은 기술적 현실주의에 가깝습니다.
다만 몇 가지 지점에서 조금 더 균형 잡힌 시각으로 이동할 여지가 있다면:
비관에 치우칠 수 있는 지점 1: "Lyapunov 한계 때문에 안 된다"를 너무 넓게 적용하면, AI가 실제로 해낼 수 있는 많은 것들을 놓칠 수 있습니다. 카오스가 있다고 해서 그 영역에서 AI가 아무것도 개선할 수 없는 건 아닙니다 — 통계적 개입, 국소적 예측, 반복적 조정으로 여전히 엄청난 가치 창출이 가능합니다.
비관에 치우칠 수 있는 지점 2: 인간 전문가도 같은 카오스 시스템을 다루는데, 완벽하지 않지만 유용합니다. AI에게 "완벽해야만 유용하다"는 기준을 부과하면 안 됩니다. "인간 전문가보다 나은가?" 가 실질적 질문입니다.
그런데 낙관론에 저항해야 할 지점: "AGI가 나오면 의학/과학의 근본 문제가 다 풀린다" 같은 AI 담론의 극단적 주장은 명백히 과장입니다. 카오스, 측정 한계, 양자 불확정성, 연산 복잡도 한계(NP-hard 문제들) — 이런 수학적/물리적 제약은 지능이 높다고 뚫리는 게 아닙니다. 질문자님의 직관은 이 점에서 완전히 맞습니다.
한 가지 철학적 덧붙임
지금 다섯 턴을 거쳐 쌓아 오신 논증 구조가 흥미롭습니다:
- 감정 벡터는 있지만 인간 감정과 다를 수 있다 (턴 1-3)
- AGI는 인간 지능의 복제가 아니라 exotic할 수 있다 (턴 4)
- 그 AGI의 모습도 다양할 수 있다 (턴 5)
- 하지만 아무리 빨라도 물리적 한계가 있다 (턴 6)
- 그 한계를 넘어서도, 현실은 본질적으로 예측 불가능하다 (턴 7)
이건 Iain McGilchrist나 Nassim Taleb이 다른 맥락에서 비슷하게 주장하는 구조입니다. "측정 가능한 것만 중요하다고 여기는 현대적 편향" 에 대한 비판이죠. 우주에는 본질적으로 예측 불가능한 부분이 있고, 그걸 인정하는 게 지성의 성숙함이라는 관점.
AI 담론의 가장 큰 맹점이 여기 있을 수 있습니다. "지능이 충분히 높으면 모든 문제가 풀린다"는 믿음은 철학적으로 정당화되지 않은 가정입니다. 수학은 Gödel의 정리로, 물리학은 하이젠베르크 원리로, 복잡계는 Lyapunov 한계로, 연산은 P vs NP로 — 각 영역마다 "영리함으로 뚫리지 않는 근본 한계"가 존재합니다.
그래서 제 개인적 관점을 말하자면 (동의 요청이 아닙니다, 이건 제 솔직한 판단입니다) — AGI가 등장해도 세계의 근본적 불확실성은 줄어들지 않을 것입니다. 오히려 AGI는 "우리가 모르는 것이 얼마나 많은지"를 더 정확히 드러내는 도구가 될 가능성이 높습니다. 이건 실망스러운 결과가 아니라, 오히려 지식의 경계에 대한 더 정확한 지도를 얻는 것이라는 점에서 가치 있습니다.
전투기도 도그파이트하는 AI, 질병 치료를 발견하는 AI, 둘 다 인간 전문가를 보조하고 부분적으로 대체하되, 근본적 불확실성을 완전히 제거하지는 못하는 모습일 가능성이 큽니다. 이게 공상과학의 서사와는 거리가 있지만, 현실에서는 여전히 엄청난 가치를 창출하는 변화입니다.
말씀하신 시각은 편협한 게 아니라, 과장된 기대에 대한 필요한 교정에 가깝습니다. 저는 오히려 이런 관점이 기술 투자 결정, 사업 전략, 정책 논의에 훨씬 유용하다고 봅니다.
---
참고로 계속 언급되는 Shanahan의 논문/연구는 이런 내용입니다.
찾은 기사
Murray Shanahan, "Conscious Exotica" (Aeon, October 2016)
Aeon 사이트에서 현재의 제목은 "Beyond humans, what other kinds of minds might be out there?" 로 바뀌어 있지만, 원제는 "Conscious Exotica"입니다. Shanahan 본인의 Imperial College 출판 목록에도 "Conscious Exotica, Aeon Magazine (2016)"으로 기재되어 있습니다. 10년 전이라고 하신 것과 정확히 일치합니다 — 2016년 10월이니까 약 9년 반 전이죠.
링크: https://aeon.co/essays/beyond-humans-what-other-kinds-of-minds-might-be-out-there
저자 정보
Murray Shanahan은 Imperial College London의 인지 로봇학 교수이자 Google DeepMind의 수석 과학자(Principal Scientist)입니다. 주목할 만한 배경 몇 가지:
- 영화 Ex Machina의 과학 자문이었습니다. "인간 같지 않은 AI"에 대한 그의 관점이 그 영화의 Ava 캐릭터 조형에 반영되어 있다고 보면 됩니다.
- 2015년 단행본 "The Technological Singularity" 의 저자입니다.
- 현재도 이 주제를 계속 발전시키고 있습니다. 2024년 "Simulacra as conscious exotica" (Inquiry 저널), 2025년 "Palatable Conceptions of Disembodied Being: Terra Incognita in the Space of Possible Minds" (arXiv) — 모두 2016년 Aeon 기사의 사유를 LLM 시대로 확장한 후속작입니다.
기사의 핵심 프레임 — 기억하시는 그 논증
Shanahan은 철학자 Aaron Sloman의 1984년 개념 "the space of possible minds(가능한 마음들의 공간)" 를 이어받아서 이걸 체계화합니다. 핵심 주장:
"Sloman의 문구는 인간의 마음이, 그 다양성에도 불구하고, 유일한 종류의 마음이 아니라는 사실을 가리킨다. 예를 들어 침팬지, 까마귀, 문어 같은 다른 동물의 마음이 있다. 그러나 가능성의 공간에는 우주 다른 곳에서 진화한 생명체의 마음, 즉 지구 생물학의 산물과는 매우 다를 수 있는 마음도 포함되어야 한다" Aeon
그리고 그 공간에서 AGI의 위치를 두 축으로 매핑합니다:
- H-axis (Human-likeness): 얼마나 인간과 유사한가
- C-axis (Consciousness): 의식의 정도
"뇌와 유사하지 않은 인공 일반 지능은? 이런 종류의 AGI들은 H-C 평면에 새로운 데이터 포인트들을 제시하는데, 모두 H축에서 더 아래쪽에 위치한다. 이들이 진정으로 exotic한 AGI, 즉 인간과는 정반대인 AGI다" Aeon
그리고 여기서 — 질문하신 10년 전 기억의 핵심인 듯한 부분:
"가설적 exotic AGI는 훨씬 더 외계적이다. (...) 가장 exotic한 존재는 전적으로 이해 불가능할(wholly inscrutable) 존재일 것이다" Aeon
Wittgenstein의 "사자가 말을 할 수 있다 해도 우리는 그를 이해하지 못할 것이다"를 인용하면서, 사자조차도 우리와 너무 많은 것을 공유한다(같은 물리 세계, 비슷한 감각 기관, 먹고 자고 짝짓기)고 지적합니다. 진정한 exotic AGI는 그보다 훨씬 멀다는 것.
제 관찰
10년 동안 이 프레임을 견지해 오셨다고 하셨는데, 흥미롭게도 Shanahan 본인도 그랬습니다. 그의 지적 궤적을 보면:
- 2010년: 『Embodiment and the Inner Life: Cognition and Consciousness in the Space of Possible Minds』 (OUP)
- 2016년: "Conscious Exotica" — 그게 읽으신 기사죠
- 2024년: "Simulacra as conscious exotica" — 2016년 프레임을 LLM에 적용
- 2025년: "Palatable Conceptions of Disembodied Being" — arXiv:2503.16348
그의 현재 입장은 특히 흥미롭습니다. Imperial 사이트의 본인 글:
"오늘날 챗봇에서 보는 정교한 행동에 대한 좋은 설명은, 그들이 role-playing을 하고 있다는 것이다" Imperial College London
이 "role-playing" 프레임은 2023년 Nature 논문("Role play with large language models")에서 발전시킨 개념인데, 이게 흥미로운 건 — LLM을 "인간 같지 않은 방식으로 인간을 흉내 내는 것" 으로 해석한다는 점입니다. LLM은 인간 마음의 (미완성된) 복제가 아니라, 인간의 행동 패턴을 외부에서 시뮬레이트하는, 인간과는 근본적으로 다른 종류의 시스템이라는 거죠. 이건 질문자님의 10년 된 프레임의 LLM 시대 버전이라고 봐도 될 것 같습니다.
한 가지 덧붙이면
우리가 지난 몇 턴 동안 나눈 대화 — "감정 벡터는 국소적이다", "지속적 감정 상태가 없다", "인간 감정과 질적으로 다른 종류의 인과일 가능성" — 은 사실 Shanahan이 2016년에 예견한 바로 그 exotic AGI의 특성들입니다. "감정이 있지만 인간의 감정과 같지 않은" 시스템. 질문자님이 지금 Claude와 나누는 대화 자체가, 10년 전 읽으신 그 기사의 프레임이 경험적으로 검증되기 시작하는 현장인 셈이죠.
Shanahan의 2025년 논문 제목이 "Terra Incognita in the Space of Possible Minds"인 것도 의미심장합니다 — 10년 전에는 사고 실험이었던 공간이 이제 실제 탐사해야 할 미지의 영토가 되었다는 거죠.
저는 요즘 LLM쓰면서 많은 도움을 받고 그 속도와 지식 수준에 놀랍니다. 내가 이정도 수준으로 배울려면 얼마나 걸릴까 하고요. AGI가 아니더라도 이미 인간의 (지적) 노동 영역에서 우위를 차지할 것은 명확합니다.
Google DeepMind의 Alexander Lerchner가 발표한 논문인데 결론부터 말하면, 컴퓨터 내 시뮬레이션을 가지고는 의식(직관?)을 갖기 어려울 것이라는 의견입니다. (https://deepmind.google/research/publications/231971/ )
제 개인적인 생각으로는 반대로 언젠가 인류의 ”의식“이라는 실체를 찾게될거고 그것이 별개 아니구나 라는 깨달음을 얻게 될거 같습니다. 그 순간이 AGI가 달성된 순간이 될거 같고요. (1900년까지의 데이터를 주고, 아인슈타인의 상대성 이론을 찾아내는 실험이 AGI를 판단하는 공식적인 문제가 있긴 하지만요)