Mark Rober 를 아시나요 ?
전직 NASA, APPLE 직원이었다는 군요. 현재는 남들이 하지 않는 재미있는 과학 실험을 하는 유튜버입니다.
우리나라 성우가 완벽한 더빙까지 해주네요. 영상 퀄이 대단합니다.
오늘아침 영상에서는 라이다가 장착된 차량과 카메라로만 사물을 감지하는 테슬라 차량과의 대결을 준비했네요.
영상의 9분부터 라이다 장착 차량 vs 테슬라 의 대결이 나옵니다.
결론은요 ?
테슬라도 하루 빨리 라이다를 도입하는 게 낫지 않을까 ? 입니다.
FSD로 했으면 결과가 어땠을지 궁금하네요.
비전인식의 한계는 분명히 존재한다고 생각합니다.
네 비전은 말씀처럼 당연하게 시각의 한계에 한정되는데 그것을 사람같은 사리분석으로 인식해내겠다는 것이니까요.
마크로버의 시나리오처럼 연기나 살수로 100% 시야를 가리는 상황에서,
주행유지에 연동된 오브젝트 인식만 하는 오토파일럿과 주행루트에 연관된 모든 오브젝트의 예상경로를 감안하는 FSD의 차이가 궁금했습니다.
물리적인 비전 인식은 오파나 FSD나 같을 테니 그 후의 인지의 차이가 궁금한거죠.
저 상황은 아직 완벽하지 않기 때문에 개선을 해야 할 부분 같네요.
그런 의미에서 테슬라 오너들은 셀프 배타테스터군요.
그 개선점을 테슬라가 아닌 운전자들의 실제 경험을 통해서 개선하니까요.
그렇다면 FSD 사용자는 이용요금을 낼 것이 아니라 테스트비를 받고 이용해야겠네요.
아이폰에서 분석정보를 Apple에 공유 동의한다고 제품값 깎아주나요?
레벨5 자율주행 아닌거 다 알고 사는건데.. 이건 좀 황당한 깎아내리기네요..
Supervised일 때는 그럴수 있다고 치지만 Unsupervised 로 택시 운행을 하려면 좀 더 보수적인 (불확실하면 감속 운행) 플래너가 별도로 개발되어야 할 것 같습니다. 아직 공개되지 않은 전략이 있겠죠. 로보택시 한다는데 지금 안되는 상태 그대로 출시하겠습니까.
단순 카메라로 하는것은 이미지센서 하나만 있는거죠..
사람도 눈깔 2개로 운전한다....가 일론과 그 추종자들의 주장이죠.
라는 취지는 이해하고, 현재도 애용하는 기능이긴 하지만,
자율주행이라면 사람이 하는것보다 훨씬 안전해야 하는거 아닌가 생각이 듭니다.
그렇게 기대할 수도 있지만 한편으로는 70대 고령 운전자가 보편화된 택시에서 복불복으로 기사가 배정되는 택시를 타는 것과 비교하면 이쪽이 더 안전할 것 같기도 합니다. 로보택시는 FSD Supervised보다는 불확실한 상황에 대해 좀 더 조심스러운 움직임을 하도록 만들어질거라 예상해 볼 수도 있구요
이번에 테스트한 것은 사람등 모든 사물의 예상경로까지는 감안하지 않는 일반 오토파일럿이라,
사물의 경로를 예측해 반영하는 FSD는 한번 인식한 마네킹이 연기나 살수로 시야가 100% 가려져도,
예상충돌경로가 그대로라면 피해가거나 사전에 정지할수 있을지 궁금하네요.
비전자체가 물리적으로 보이지 않는 것을 보겠다는 것이 아니라 사람같은 두뇌로 가려진 것도 사리판단 하겠다는 건데...
중국 안개 테스트에서 카메라 기반으로 피해가는 차들도 있었으니까요.
카메라만으론 자율주행 하는척 하는것만 가능하지 자율주행은 불가능합니다.
본격 자율주행 하려면 라이다와 고성능 컴퓨터 필수에요.
도로, 차로, 신호등, 표지판, 원거리 교통상황은 영상이, 근거리 장애물은 라이다가 역할 나눠해야 합니다.
사람은 두 다리를 움직여서 가지만 자동차는 바퀴 굴리잖아요.
사람은 사방을 동시에 볼수 없는데 카메라는 사방을 동시에 본다는 상대적 강점도 있죠.
저도 악천후 대응은 어떻게 대응할 것인가 걱정입니다만, 사람도 악천후에 아주 천천히 운전하면 대부분의 상황에 눈으로 주행할 수 있고, 그럼에도 불구하고 피할수 없는 사고도 있고 한걸 생각해보면
"안 보이면 조심한다" 정책만 확실하면 대부분의 상황은 사람과 동등수준은 가능하다고 봅니다.
라이다를 채용했을 때 늘어난 연산량을 대응하기 위한 더 비싼 추론칩 등.. 이런 제약이 소비자가 부담할 수 있는 수준이라면 도입할만 하다고 생각합니다만, 지금처럼 플래너는 비전 기반 E2E 모델로 동작하고 라이다는 추돌사고 예방으로 별개의 로직이 돌아가는 하이브리드 방식이면 몰라도 센서퓨전한 E2E 모델은 소비자가 원하는 가격대에서는 구현이 어렵지 싶습니다.
더 좋은 방법이 있다면 인간과 같은 방식을 고집할 필요는 없다는 얘기입니다.
넵. 저는 그 더 좋은 방식에 가격이라는 요소를 무시할수 없는게 지금 상황 같습니다. 리즈너블한 가격이 가능하다면 배제할 필요가 없어지겠지요
제가 라이다를 뺐다고 하는데 가격적인 제한요소는 라이다 센서 단품 가격만을 이야기 하는게 아니라, 더 커진 input dimension을 처리하기 위한 추론칩의 연산 요구량과 전력소비량, 냉각성능 등을 마련하는 것을 포함해 생각했습니다.
초음파센서 역시 센서 단품의 가격 문제도 있지만, 더 많은 연산이 필요하다는 점이 걸림돌이라 판단했을 것 같습니다.
라이다가 일반승용차에도 탑재 가능할 정도로 단가가 싸지면 안전운전에 확실히 크게 도움될 것 같습니다. 그때쯤이면 일론머스트도 얼굴 철판깔고 태세전환하고 테슬라 차에 라이다 달 것 같네요. 아마도 제일 먼저 달려고 할지도...
특히 인간은 수정체를 이용한 2개의 눈 + 지능으로 거리 추론을 정확히 할수 있습니다만,
물리적 렌즈로는 2개를 사용한다 한들 수많은 동체의 순간적 거리 측정이 어렵습니다.
1개의 렌즈로 AI만을 활용하여 거리측정한다는건 택도 없는 소리죠.
사람도 눈 하나 가리면 거리측정이 엉터리가 됩니다.
ai론 거리측정하는데 한계가 있습니다. 이걸 머스크가 한다고 뻥치고 있는겁니다.
그래서 기계는 거리측정을 위한 장치가 필요한겁니다.
초음파는 너무 단거리고, 적외선은 야외에선 엉터리고, 스테레오 카메라는 너무 형편없고,
현재 레이더가 주로 쓰입니다. 라이다는 레이더 보다 더 고성능이죠.
머스크는 어차피 자율주행할 생각없고, 자율주행하는척 하는 차를 만들기 위한게 목적입니다.
애시당초 자율주행하는척 하는차가 목적이라, 라이다를 없앤거에요.
머스크 말을 너무 믿지 마세요.
거리 측정을 단안으로 할 수 있는건 이동하면서 시간 흐름에 따른 변화를 누적할 수 있기 때문입니다.
그것도 옛날 이야기고 이제는 테슬라 방식은 거리 측정 자체를 안해요. 사람이 운전할 때 거리 측정해서 생각하지 않듯요.
사람이 운전할 때 거리 측정을 안 한다고 생각하지 않습니다.
1) 운전중 주황색 신호등이 들어왔다->내차와 신호등과의 거리, 내 차의 속도를 고려하여, 장애물등 주변 상황을 파악하고 건널지 말지 판단하는데 말이죠.
2) 옆차로 차선을 변경하기 위해서 옆차선의 차량 속도, 내 차량과의 거리등으로 고려하여 차선변경 여부를 결정하지 않나요?
3) 고속도로 고속 주행시 먼 거리를 보고 운전하고 시내 주행시는 좀더 근 거리 교통 상황을 보면서 운전하죠.
리누님은
"23nq5lp"님이 댓글로 얘기한
( "그래서 기계는 거리측정을 위한 장치가 필요한겁니다.")
거리 측정 장치를 얘기 한것 같은데요.
측정해서 숫자로 바꿔 생각하지 않고 몇초 정도면 어떻게 상황이 바뀔지 직관을 이용해 추론해서 어떻게 대응할지 결정하죠.
거리는 몇미터고 내 차가 시속 몇km니까 몇초 여유 있구나 하면서 머릿 속에서 계산기를 돌리지 않아요.
AI가 하는게 비슷한 추론 과정이구요.
사람이 “신호등이 전방 약 15미터에 있고 현재 내 차 속도가 54km/h임을 감안할 때 약 1초 안에 신호등을 지나갈테고, 그러면 깜박이는 노란불은..” 이러면서 운전하지 않듯이 FSD도 비슷하게 주변의 여러 상황을 고려하여 직관적으로 기동한다는 말씀이신 것 같습니다. (그래도 사람보다는 매순간의 거리 측정을 더 구체적으로 할 수 있고 내부적으로는 하고 있다고 생각합니다.)
인간은 저마다 주관적 방식으로 거리를 인지합니다.
영상과 추론만으로 거리를 알수 있다면 동물은 눈2개로 진화하지 않았겠죠.
거리파악은 대단히 중요한겁니다.
카메라로 포인트 클라우드 만드는걸 본 적 없으신가보군요.
슈도라이다가 사람보다 거리 추론 능력이 떨어질거라 생각하시나요?
오브젝트의 특성 (비닐봉지 vs 밟으면 안되는 장애물)판별이나 의도 추론에서 사람보다 뒤처질지 모르나, 공간 측정은 이미 평범한 사람의 수준은 넘은지 오래입니다.
명시적으로 거리 측정을 안한다고 위에 말씀드렸는데요..
원리를 모르는건지 트렌드를 모르는건지, 완벽하게 틀린 내용을 단정 지어 말하시네요.
벡터스페이스가 있던 시절에는 오브젝트를 특정해 분류 하지 못하더라도 복셀맵으로 포인트클라우드를 형성해 슈도라이다처럼 동작했고, 지금은 포인트클라우드를 형성하지 않고 영상 입력에서 곧바로 제어명령 출력이 나옵니다. 거리 라는 차원을 내부적으로 쓰는지 안 쓰는지조차 알기 어렵습니다.
자율주행이 된다면 학습되지 않은 상황도 파악가능 해야 하고 이러려면 거리정보가 필수입니다.
학습되지 않은 상황을 코딩으로 해결하는게 무한히 많은 경우의 수 때문에 불가능해지니 뉴럴넷의 추론을 이용하게 된거죠. 사람도 겪어보지 않음 상황에 거리를 측정하지 않아도 경험에 의한 추론으로 대처하고요.
거리정보를 이용해서 코딩 기반 플래너로 할 수 있는 것은 최대한 추돌을 피하는 것 뿐이며, 그 외 처음 겪는 상황에 대처하는 능력, 여러 복합적인 평가 기준을 조합해 충족하게 만드는 능력은 추론 기반이 더 유리합니다.
눈이 1개면 구기종목 운동은 어렵죠. 추론만 가지고 완벽할순 없어요.
자율주행이 되면 테슬라도 라이더는 반드시 들어갑니다.
현 단계에서 테슬라는 레벨3를 목표로 안하기에 안쓰는겁니다.
이걸가지고 라이더 없이 자율주행 된다 하는건 머스크의 허언이에요.
제 차만 해도 제가 개입하지 않았으면 FSD중 몇번이나 사고 났을 겁니다. 그 중에는 이 글을 쓰고 있지 못할 경우도 있었겠죠..
+1 그냥 돈 때문이죠 ...
나머지는 말장난으로 밖에 안보입니다.
영상정보에 올인 하는게 좋을지, 깊이(거리)정보를 포함해서,
처리하는게 좋을지는 다툼의 여지가 있다고 생각합니다.
그러나 차가 최종적으로 진화해야 하는 지점은,
여러 센서의 모든 정보가 사용되는 보다 안전한 방향이 아닐까요?
과장을 해보자면 냄새 센서를 이용해서 골목 모퉁이 뒤에 있는 유모차에,
아기의 존재를 인식할 수 있다면, 미리 속도를 줄일 수도 있겠죠.
가장 기본적인 정보는 거리정보를 갖는 라이다가 되지 않을까요?
FSD 였다면 모르겠지만요.
그리고 몇가지 편집같아 보이는 영상 문제가 있는것 같네요.
댄오다우드 같은 놈이 한명 더 나왔군요
1. 가짜벽 실험에서는 중간에 오토파일럿을 실행시키는 장면이 나옵니다.
2. 물 뿌리는 경우에는 살수차 위치 때문에 오토파일럿 시가 아닌 일반 오토 브레이크로 실험하는 것으로 보입니다.
애당초 영상을 보면 오토파일럿시와 일반 오토브레이크의 차이를 잘 인지하고 있고, 설명도 해줍니다.
저 트윗 역시 일부러 실험을 깎아내리려는 테슬라 옹호자로밖에 보이지 않네요.
오토파일럿을 실행시키는 장면이 있는데 추돌 순간 영상은 오토파일럿이 꺼져 있습니다.
실제로 멈출수 있는지 여부는 확신할 수 없으나,
꺼진 상태로 추돌한 것은 확실해 보입니다.
추돌 순간 영상에는 오토파일럿 제한속도 표시 없고 무지개 도로칠이 없습니다.
영상에 보시면 후방에서 촬영한 영상에서 추돌순간에 브레이크등이 점등되는걸 확인할수 있죠.
브레이크등은 이미 차체 일부가 스티로폼을 뚫고 나간 시점이고 화면에 오토파일럿 표식이 사라진 상태의 영상 시작점은 추돌보다 더 이른 시점입니다.
결국 사람을 대체하는건 사람보다만 낫게 운전하면 가능한데 너무 많은걸 바라는 듯합니다
당장 사고났을때의 책임소재만 놓고 보면 그렇지만... 사람보다 낫게 운전한다는 것은 전체적으로 교통사고로 인해 희생되는 사람의 숫자가 줄어든다는 뜻이니, 인도적 차원에서라도 도입할 메리트가 충분히 있는거죠. 말씀하신 부분은 자율주행 자체의 한계라기보단 자율주행을 상정하지 않은 제도의 개선 차원의 문제고요.
오히려 사람보다 조금 나은정도론 안된다며 비싼 라이다 등의 장비를 떡칠하게 하는게 자율주행 도입시기를 늦추고 교통사고 희생자를 늘리고 있을지도 모르는거죠. 솔직히 전 사람이 그렇게 운전을 잘하는지도 모르겠거든요.
다만 돈이 문제
라이다 떡밥 또 나왔나요. 참… 어디부터 설명해야할지 감도 안잡히네요.
모든 센서를 달자고 하시는데, 그럼 차라리 실시간으로 위성에서 동영상 받아서 자율주행 하는건 어떨까요? 돈때문에 안된다고요? 라이다도 돈때문에 안됩니다.
저 실험은 시각정보에 사실상 재밍을 건 수준인데, 라이다에 재밍 거는거랑 뭔 차이인가요? 라이다 재밍걸고 실험 한번 해보시죠.
문제는 테슬라차량에 붙어 있는 카메라가 일반적인 사람 눈만큼 좋으냐인듯해요.
그런데 영상의 더빙에 더 관심이 가네요ㅎㅎ
언어 장벽 없이 외쿡 영상들 마음것 볼수있었으면 좋겠습니다
라이다의 우수성을 알리기 위해 현실에선 일어나지 않을 무리한 설정을 함. 끝.
"테슬라"라는 단어는 일촉즉발, 뜨거운 감자인 거 같아요.
앞으로 어떻게 전개될지 팝콘각이네요. ㅎㅎ
이미 아시겠지만
이영상 지금 해외에선 제법 난리입니다.
마크 로버가 벌인 큰 스캠이 될 수도 있는 상황입니다.
(라이다 회사랑 짬짬이…).
본문 머지막 댓글은
“ 마크 로버가 설마..” 로 바뀌어야 하지 않을까요^^