안전을 중요시 해서 천천히 확장 진행 한다고 하는데 이번에 좀더 확장 하는군요. 년말까지 무인 서비스가 되려나 모르겠네요?🤔
참고로 웨이모 지원 되는 지역과 면적 비교를 해보면 3.7배 정도 로보택시가 넓다 하네요.
https://twitter.com/SawyerMerritt/status/1983287391315214570
안전을 중요시 해서 천천히 확장 진행 한다고 하는데 이번에 좀더 확장 하는군요. 년말까지 무인 서비스가 되려나 모르겠네요?🤔
참고로 웨이모 지원 되는 지역과 면적 비교를 해보면 3.7배 정도 로보택시가 넓다 하네요.
https://twitter.com/SawyerMerritt/status/1983287391315214570
가격은 또 어떻고…
옵티머스 로봇은 경쟁자가 많아 성공여부를 지켜봐야겠지만 자율주행택시는 곧 게임 끝난다고 봅니다.
서로 다른 방식으로 개발을 진행 중이고 아직 모두 완성 된게 아니라 어느쪽이 더 낫다 라고 하기에는 좀더 시간이 필요해 보이네요. 기존 코딩방식이 맞을지? E2E 방식이 맞을지?조만간 결판이 나지 않을까 합니다. 물론 한번이라도 사망 사고 나면 나락으로 갈수도 있기도 하고요.😢(크루즈?)
정식 서비스한지도 꽤 됐는데 테스트 중인 테슬라의 확장을 전혀 못 따라 가죠.
테슬라가 최대한 보수적으로 조심스럽게 시장진입중인데도요.
일단 가격부터 경쟁이 안 돼요.
네, 수 많은 요즘 업체들 중 E2E 방식 아닌곳은 없는듯 하네요. 보유한 AI 데이터센터와 로드데이터가 어느 정도 인지는 모르겠지만요,🤔
여전히 구글 데이터 센터에서 학습합니다.
현재도 딥마인드랑 협업중이고 LLM VLA 시범 적용중이죠
EMMA가 현재 돌아다니는 차에 적용 되었나요? 그런 소식은 아직 못 본거 같고 연구 내용 발표까지만 나왔던거 같은데요.
현재 굴러다니는 차들은 E2E 모델이 아닌, 룰 베이스 플래너를 사용하고 있는 것으로 보입니다.
EMMA 가 언급된 가장 최근 기사를 보면 적용되지 않은 것으로 보이는군요.
[Waymo는 자율주행 자동차를 위해 생성 AI 및 기타 기술을 실험하고 있지만, 현재로서는 자동차에 장착된 레이저 센서와 레이더가 대규모 로보택시 서비스를 운영하는 가장 안전한 방법이라고 생각합니다.]
[그러나 EMMA는 비용이 많이 들고, 적은 수의 이미지 프레임만 처리할 수 있으며, LiDAR 센서나 레이더를 통합하지 않습니다. 이러한 모든 점이 EMMA를 "운전을 위한 독립형 모델"로 사용하는 데 "도전"을 초래합니다.]
https://fortune.com/2025/08/15/waymo-srikanth-thirumalai-interview-ai4-conference-las-vegas-lidar-radar-self-driving-safety-tesla/
(물론 세부적으로 들어가면 End to end를 어디까지 적용하냐의 문제는 아직도 회사마다 다릅니다
시뮬레이션 상태에서는 End to end으로 대규모 학습을하죠 )
emma는 엔드투엔드 + 멀티모달 (LLM VLA등)이고요
https://waymo.com/research/emma/
end to end 용어를 테슬라에서 쓰는 것과 다른 표현으로 혼용해서 쓰시는것 같은데요. (어떤 회사들은 출발지~목적지까지 주행한다는 의미를 End to End로 표현하고 있기도 하죠)
룰 기반 플래너를 쓴다면 테슬라가 말하는 E2E 신경망을 쓴다는 표현은 성립하지 않습니다. 인지 영역은 신경망이지만 플래너는 별도의 모듈로 끊어져 있는데 이게 무슨 E2E인가요.
그 어느회사도 돌아다니는 차량 스스로가 e2e로 모든걸 하지 않습니다 e2e는 대부분 학습에서 사용되지
e2e를 돌릴만한 하드웨어도 없습니다
웨이모가 하는 emma도 결국 하드웨어 문제로 장기 기억을 처리할만한 기술이 현재로서는 없고
제가 알기로는 본격적으로 올해부터 몇대의 차량들이 emma 테스트 소프트웨어를 장착한걸로는 알고 있습니다.
현재 emma의 문제점은 llm이 가지는 구조적 한계랑 똑같습니다.
장기 기억 불가 , 하드웨어 요구 사항이 높음, 빠른 판단 불가
VLA 등이 요즘 눈부시게 발전중에 있지만 문제는 여전히 느립니다.
적어도 테슬라의 기술 스택에는 충분한 지식이 없으신것 같은데,
본인이 모르는 영역은 아무말이나 하지 않으시는게 좋겠습니다.
웨이모는 perception layer와 플래너 모듈이 끊어져 perception layer가 명시적인 ouput을 전달해 주는 구조고, 테슬라는 planner까지 하나의 네트워크로 구성되어 있어서 weight값이 넘어가는 구조로 명백히 다릅니다.
테슬라 구조도 잘 모르면서 웨이모도 그렇게 하고 있어 를 어떻게 이야기 합니까?
종단간 기술은 매우 다양합니다
테슬라가 경로 전 부분에서 종단간을 쓴다고 다르다라고 하는데
그건 접근 방식의 차이지 그 그간이 되는 학습은 종단간 학습을 할수 밖에 없습니다
종단간 학습없이는 자율주행 자체가 존재하지 않습니다 말그대로
모든 경로를 집적 짠다는 말도 안되는 결론에 도달하죠
물론 예전 테슬라는 처음 발표할때 하드코딩 해서 자율주행이라고 주장하긴 했지만요
간단하게 웨이모의 학습에는
센서 데이터 도로 데이터 도로상의 비상 상황에 데이터를 말그대로 마구잡이로 돌립니다.
(웨이모의 경우 시뮬상의 모든 센서가 독자적인 하나의 묘듈 설계로. 어떤 차량 어떤 물체건 센서만 독자적으로 시뮬레이션이 가능합니다. 이게 묘듈형으로 만드는 가장 큰 이유입니다 그래서 어떤 차량이건 실시간으로 센서 결합이 가능합니다)
시뮬상에서는 가능 합니다. 그래서 센서를 어디에 배치하던 현실과 거의 같은 수준의 물리적 데이터를 가지고
무작위로 대입해서 테스트가 가능합니다. 이 과정에서는 100% 자율입니다 라벨링도 마찬가지 도로 데이터의 라벨은 예초에 auto ml이라고 해서 이미 7년전부터 신경망 자동화 시작했고요
그냥 그렇게 놓고 알아서 돌립니다 차량은 알아서 움직이면서 경로 학습을 하고요
실제 차량에는 학습된 데이터 를 기반으로 만든걸 적용하는건 차량에 종단간 자율운전을 적용하는건 현재로서 너무 위험하기 때문입니다.
시뮬상에서는 건물에 충돌하던 버스에 충돌하던 학습결과를 뽑기위한 과정이니 문제가 안되겠죠
테슬라는 퍼셉션-플래너-제어 까지의 신경망 E2E를 말하고 있는 중에 끼어 들어 '웨이모도 E2E 방식입니다'를 말하면 완전히 틀린겁니다.
빵도 반죽부터 굽고, 패티도 만들어 수제 버거 만드는 이야기 하고 있는데, 공장빵에 만들어진 패티 구워도 '원래 버거는 조립을 손으로 하니까 수제버거입니다' 라고 말하며 끼어드는 것과 별반 다를 바 없어 보입니다.
적어도 테슬라가 뭘 어떻게 하길래 E2E 신경망을 이야기 하는지를 이해 해야 엉뚱한걸 갖다 붙이진 않죠.
자율 주행은 그 모든 과정이 자율적으로 이루어지지 않으면 작동 불가능합니다
그렇게 작동하지 않는걸 무인차라고 부를수는 없죠
용어적 차이나 일부 세부 사항의 작동 과정이 다른다고 한들
그게 신경망을 이용한 종단간 기술이 전체적으로 들어가 있는수 밖에 없습니다.
사족 계속 달아봐야 논점 이탈이고요.
'기존 코딩 방식이 맞을지 E2E 방식이 맞을지'
라는 의문에 '웨이모도 엔드투엔드 방식입니다'는 완전히 틀린 소리라는 점은 변명의 여지가 없습니다.
중국은 더 이전부터 하고 있는걸로 알고 있구요.
기술적인 가불 여부보다 큰 허들은
미국이나 중국은 모르겠지만 다른 나라들의 운송업자들의 반발이나 일자리 문제
자율주행 택시로 인한 차량의 판매량 감소등이 문제로 대두되지 않을까 싶습니다.
과거에도 신기술의 시장 확대에는 기존 사업자와 사용자의 반대가 있었네요. 물론 법규도 그렇고요.
부디 다수에게 이익이 되는 방향으로 갔으면 합니다.🥹
그나마 경찰사고 리포트 일부를 볼수 있죠
엊그제 같은데 지금은 저 지도만 봐도 시도 때도 없이
꽉막힌 교통체증만 떠오르네요.
웨이모나 로보택시 요금은 좀 저렴했으면.