ai의 판단 / 분석이 인간의 이해를 넘어서기시작하면
인간은 그때에도 분명 결정권을 가졌다고 자위하겟지만
사실상 그건 심리적 위안일뿐이겟죠.
인간의 이해를 넘어서는 ai가 등장하고
그것이 계속 좋은 결과를 가져다주더라. 라는 경험의 축적이되면
인간의 판단이란 그저 심리적 위안을 위해 형식적 승인만 내리게될겁니다.
이해를못하는데 잘되네?.. 의 축적이죠.
최종결정권이란게 의미없어진다는거죠. 어짜피 인간의 이해를 초월한 판단이고 이해를 못하는데 ai의 판단을 평가할수도없고, 저지할 근거도없습니다.
그냥 아 뭔진 잘 모르겟는데 해봤더니 결과가 좋던데? 의 축적이되면 형식적판단권만 가진체 (사실상 거부할수도없는) 미래의 신탁이되는겁니다.
사실 인류는 이해를 못해도 상관없는동물이긴합니다.
약이 어떻게 작용하는지몰라도 경험적으로 효과가있으면 씁니다.
사실 인류가 본질적으론 이해못하지만 경험적으로 하니까되네? 로인해 이미 널리쓰이는 지식은 이미 많습니다.
다만 그 영역이 엄청나게 확장되는거겟죠
경의 뜻대로 하시오...
이렇게 되는거죠
크게 의미 없을것 같습니다...
보고 싶은거만 볼테니까요
꼭 제일 잘난사람이 결정권자를 하진않았죠 ㅎㅎ
다 이해하고서 도장찍어주는것도 아니고요 ㅎㅎ
인간의 직감도 결국 '고도로 압축된 통계 모델' 이라는 주장에... 동의되더군요.
AI도 자신들의 하는 일을 정확하게 사람에게 설명하기도 어렵게 될겁니다. 우리가 하는 일을 침팬지에게 설명할수가 없습니다. 워낙 지적 능력에서 차이가 나서 말이죠.
그런 상황에서 AI가 얼마든지 자기가 원하는 방향으로 사람이 결정하게 유도할수 있죠.
근데 공상과학에 나오는 것처럼 AI가 사람을 몰살 시켜야 겠다라고 맘을 안먹는다는 보장은 없습니다.
제가 언듯 본 유투브에선 그런 가능성을 2~5% 정도로 보더군요. AI에 의해서 인간이 몰살될 가능성이 적어도 2% 쯤 된다는 건데 이 정도면 개발을 안해야 되는 거 같은데 어떻게 개발을 막을수 있는지는 모르겠네요.
저만해도 인공지능 답변에 1년전만해도 환각이니 뭐니 검증필요했지만 요즘은 환각증상 거의 없어지곤 검증도 잘 안하게 됩니다.
프로젝트 망하면 AI에게 책임을 물을까요?...아니죠
결국 책임 추궁을 할 수 있는 프로젝트 결정권자는 있어야 합니다
ai를 넘어서는 무엇인가를 또 개발해낼수 있을까요
마치 우주의 끝 너머에는 무엇이 있을까 같은
새로운 패러다임 그 자체가 생기지 않는한
ai를 넘어서는 무언가는 아직 쉽게 상상이 가지않는데
만약 ai가 마지막이라면
인류 상상력의 한계는 여기까지일지도 모르겠군요
물론 부모가 지시를 따르고 뒷감당까지 다해주는 경우여야겠지만
인간은 의외로 수동적이고, 그로인한 만족감과 행복감 그리고 안정감까지 느낀다고 합니다.
AI는 이미 인간을 알고있을 겁니다.