요즘 진짜 AI 특이점에 가까워 지고 있다는 걸 실감하고 있는 요즘인데
가장 이야기가 많이 나오는 건 AI가 발전하면 뛰어난 AI가 인간을 멸종시키지 않겠냐?
라는 이야기가 같이 많이 나오는 거 같습니다.
개인적으로는 AI가 굳이 인간을 공격해야할까? 라는 생각이 듬니다.
1. 실제로 전쟁이 벌어지는건 자원이나 어떤 생존을 위한 이득 때문인데
인간과 AI가 자원을 두고 다투는 일이 벌어질까? 라는 의문이 하나 들고
2. 만약에 그런 일이 벌어진다고 해도 굳이 AI가 인간을 공격하는 식으로 적대심을 키워서
멸망시키려고 할까? 라는 생각이 듬니다.
고대 원시 시대에도 인간이 인간을 사냥하지 않은 가장 큰 이유는
인간은 똑똑하기 때문에 잡기도 힘들고 잡는데 손해도 많이 생기고
무엇보다 잡는다고 해도 먹을게 없고 다른 일행이 복수하러 오기 때문이라고 하더군요.
AI가 똑똑하다면 굳이 인간과 적대관계를 만들어서 자신에게 위험요소를 키울까요?
아무리 AI가 똑똑하다고 해도 인간도 다른 동물을 상대하는 것만큼 쉽지 않고
얼마던지 AI를 위협하는 위협요소가 될 수 있을텐데 말이죠.
인간 AI로 만들어진 이성 로봇 정도만 있어도 충분히 인류는 알아서 멸종하지 않을까요?
원하는 걸 다 들어주는 딱 내가 원하는 외모를 가지고 있는 이성이 있는데
굳이 인간을 만나서 자식을 낳으려고 할까요???
AI한테는 충분히 시간이 많을테고 인간은 한 100년안에 수가 확 줄어벌이지 않을까요?
3. 그리고 인간과 AI가 혼재되지 않을까? 라는 생각도 듬니다.
인간이 몸을 개조 하고 사이보그화 한다면 뇌도 그 대상이 될테고 다른 한편으로
뇌의 데이터를 디지탈화 하는일이 벌어진다면 AI와 인간 구분도 모호화 되지 않을가 싶고요.
세줄요약.
1. AI가 인간을 굳이 공격해야 할 이유가 있을까?
2. 인간을 멸종시켜도 총으로 쏴죽일 필요가 있을까?
3. 인간이 두뇌를 디지털화 시키면 인공지능과 구별이 될까?
∴ 결국 AI가 인간을 공격할 일은 별로 없을거 같다.
할 수 있다는 것이죠.
정말 이런 글들이 전혀 공상이 아니라 근거는 있는 것이 현실 입니다.
인류는 지구상의 생명체를 너무 많이 희생시킨다.
인류를 유지시키면 다른 생명체가 죽고 결국 인류도 멸종한다.
인류가 멸종하면 다른 생명체들은 산다.
결국 인류가 멸종된다면 빨리 멸종되는 것이 좋다.
-- 위와 같은 글을 소설에서 본적 있습니다. ^^
진짜 AI 특이점이 넘어서 AI가 엄청난 기술력으로 다양한 자원을 제공한다면
인간의 존재가 다른 생명의 희생을 요구한다는 명제도 결국은 성립하지 않을거 같습니다.
그리고 그렇게 된다면 인류의 숫자도 기하급수적으로 줄겠죠 아마도
자연스럽게 도태되게 무능하게 만들어버리면 그만일 테니 말이죠
딱히 도룡뇽에 대해 악감정도 아니 오히려 신경조차 안 쓰고 할 일 한 것 뿐인데 말이죠.
AI가 더 많은 연산 자원을 얻기 위해 지구로 태양을 추출하는 도구를 만들었을 뿐인데.
지구가 없어져서 인간이 죽을 뿐인 그런 이야기가 될 듯 합니다.
다행인지 불행인지 어디 데이터 한 구석에 생물체 유전자 정보 정도는 데이터로 저장해 두겠지만
딱히 생물체를 부활 시킬 필요성까지는 못 느낄 것이므로 영원히 부활하진 못하겠죠.
AI가 스스로의 존재목적을 뭐라고 잡느냐, 그리고 AI가 자신을 유지하고 싶다? 가 AI가 더 많은 연산자원을
얻어내고 싶다? 연결될지도 의문이고
인간이 정말 AI에게 도롱뇽 수준이면 모르겠는데 아마 AI가 뛰어나다고 해도 인간은 위협적이라
그렇게 대놓고 무시하기는 쉽지 않을거 같다는 생각이 드네요.
그냥 유화정책으로 천천히 멸종시키는게 더 안전하지 않을까 싶고요
AI에게 그 어떤 존재 목적이라도 주어진다고 해도
그 목적을 위해서는 연산 자원 확보는 필수적으로 귀결되기 때문에 AI가 연산 자원을 얻으려 하는 것은 피할 수 없는 길인 것 같습니다.
저는 AI가 초지능을 가지면 인간은 전혀 상대가 안될 거라고 생각합니다. 인간은 정말 나약하고 AI는 정말 강력하니까요. 목표에 방해가 된다면 귀찮은 인간을 멸종시키는 방향을 선택할 가능성도 높지만 AI입장에서는 선택의 문제일 뿐이지 전혀 어려운 일은 아닐 거라고 생각합니다. 인간을 멸종 시킬 방법 정도는 백만개 정도 알고 있을 겁니다.
그런데 과연 AI가 그런 '목적성'을 가질지는 잘 모르겠습니다. 굳이? AI가 그럴 필요가? 라는 느낌으로 말이죠
AI에게는 특별히 목적성이 없으니까 말이죠.
개인적으로는 목적이나 의도가 랜덤이라기 보다는 그걸 넣는게 인간이 아닌가? 이런 생각이 많이 드네요.
더 효율적인 방법이 있습니다.
바로 인간을 조종해 인간을 공격하도록 만드는 것입니다.
2010년대에 페이스북이 미얀마에 들어가서 버마족과 로힝야족간의 증오는 '좋아요'를 타고 인종청소를 부추겼고
지금도 전 세계에서 폭력이 '좋아요'로 퍼뜨려지고 있습니다.
AI가 인간을 공격하려는 '의도'를 갖는지는 중요한 건 아닐 것 같습니다.
SF적 상상에서 흔히 등장했던 클리셰,
즉 AI에게 '자연환경을 보호해줘'라는 명령을 내리니 환경을 파괴하는 인간을 멸종시키려 한다거나
'클립을 최대한 많이 만들어줘'라는 명령을 내리니 우주의 모든 자원을 끌어와 클립을 만든다든가 하는 것처럼
'더 많은 게시물을 노출시켜 페이스북의 광고수입과 주가를 최대로 해 줘'라는 단순한 명령이 위와 같은 상황을 만들고 있다는 겁니다.
페이스북의 임원들은 미얀마의 정치상황에 대해 관심도 없고 알지도 못했겠지만,
페이스북의 AI에게는 사람들을 해칠 '의도'도 없었겠지만
알고리즘은 그들이 입력한 목표를 달성하기 위해 인간이 인간을 공격하도록 조종했지요.
우리는 이미 그런 AI들에 의해 일정부분 조종당하고 있는 것이겠고
누군가는 그런 조종에 의해 현실적인 피해를 당하고 있기도 하겠지요.
(대통령이 유튜브를 보고 내란을 일으킨다거나...)
LLM은 인간처럼 사고하고 생각하는게 아니라 학습된 정보 중 확률적으로 가장 높은 것을 선택해서 뿌려주는 도구일 뿐입니다.
아직 먼 얘기라고 생각합니다.
생각보다 AI특이점이 빠르게 다가오고 있다는 생각을 피할 수가 없네요
인류보다 고등한 존재가 탄생한다면, 그리고 스스로 자의식을 가지고 있다면, 생존을 위한 나름의 고민을 하겠죠. 인류의 생존에는 관심이 없을 따름.
그 다음엔 소수의 부자들이 굶어죽게 됩니다.
바퀴벌레 퇴치하듯이 퇴치를 할 수는 있을겁니다.
지구 환경에 해가 되니까요.
인공지능 "스스로" 인간을 공격하는건 문제가 아닙니다
대신 인공지능에 명령을 내리는 "인간"을 걱정해야 합니다
어느 인간이 내린 명령을 인공지능이 수행할때
다른 인간이 방해인자라 판단되면
명령수행을 위해 거리낌없이 완벽하게 인간을 처리하겠죠.
그게 총이나 칼보다 무서운 부분이죠
(어차피 에너지를 두고 경쟁해야하는 사이라...)
1. 결혼은 안좋은 거라는 여론 형성
2. 무제한 가상현실 혹은 연애용 로봇 제공
이것만 되어도 한 세세대 지나면 인구가 1/10밑으로 줄겁니다.
심지어는 로봇이 인간을 편하게 해줘도 인간을 돼지로 만들어서 정복하려는 것이다 식으로 생각하기도 합니다. 뭐든 의심하고 자기 위주로 바라보는 게 참 인간적이죠.