지난 2월말 사고였는데 이제 올라왔네요. 퇴원하고 이제 올린건지....
2025 모델3에 최신 FSD v13.2.8 이었는데 진행 도로 반대편 밖으로 갑자기 방향을 바꿔서 나무에 충돌해버렸다고 합니다.
사고 후에는 문을 열 수 없어서 구조대에 의해 끌려나왔다고 하네요.
유튜브에 전후좌우 원본도 올렸는데 무섭습니다
https://www.youtube.com/playlist?list=PLpJW3nBrmDt2PLPazUsZ_OIR8l4bZf4P2
지난 2월말 사고였는데 이제 올라왔네요. 퇴원하고 이제 올린건지....
2025 모델3에 최신 FSD v13.2.8 이었는데 진행 도로 반대편 밖으로 갑자기 방향을 바꿔서 나무에 충돌해버렸다고 합니다.
사고 후에는 문을 열 수 없어서 구조대에 의해 끌려나왔다고 하네요.
유튜브에 전후좌우 원본도 올렸는데 무섭습니다
https://www.youtube.com/playlist?list=PLpJW3nBrmDt2PLPazUsZ_OIR8l4bZf4P2
반갑습니다.
아마 FSD였다면, 예상 반응 : '전선 그림자때문에 착시가 생긴듯... 사람도 저런 실수 한다..... 역설적으로 이점이 Full AI 베이스 FSD의 위대한 지점..... 블라블라'
진짜 FSD중이었는지 밝혀야 할 것이고
만약 FSD 중에 일어난 사고라면 이 사고는 누가 책임 지는걸까요?
그림자를 차선으로 인식했으려나요? 설마..
자동차의 빠른 개입으로 피할수가 없는 수준에 가까워서 제조사에게 책임이 아예 없다고 보기는 어려울것 같습니다.
운전자가 핸들 잘 잡고 가고 있는데 옆에 사람이 확 꺾어버린거랑 다름없는 수준..
구조대가 올때까지 차안에서 밧데리에 불날까봐 얼마나 마음졸였을까요;;; 그게 더 무섭네요;;;
내가 차를 FSD 로 모는 것도 겁나지만,
반대로 차가 나를 사람으로 인식 못하면 어쩌나 하는 두려움이 더 크게 발생하네요.
테슬라가 단순히 차가 아니다보니 댓글에 별걸 다 증명해야하네요.
Lane을 잘못잡을 만한 상황도 아니었고...
그나저나 문을 열수없다는건 참 문제네요
2025 년 1 분기
1 분기에 운전자가 자동 조종 장치 기술을 사용하는 740 만 마일마다 한 번의 충돌을 기록했습니다. 자동 조종 장치 기술을 사용하지 않은 운전자의 경우 151 만 마일마다 한 번의 충돌을 기록했습니다. 이에 비해 가장 최근의 데이터는 NHTSA 과 FHWA (2023 년부터)는 미국에서 약 702,000 마일마다 자동차 사고가 발생했음을 보여줍니다.
차가 뒤집어 졌으니 루프가 내려앉아서 그랬겠지요.
최초의 잘못된 커브도문제지만, 그 뒤로 뭔가 '아 잘못틀었네' 라는걸 인식하는 단계가 왜 없는지가 더 의아하네요. 그정도 판단을 다시 하기에 충분한 시간이 있는것 같은데말이죠. 화면상으로 회피나 감속을 전혀 안한것 같은 느낌?
reddit 에 사진보면, 오른쪽 바퀴 주위로 본네트 위까지 다 날라갔던데 충격이 엄청컸던것 같습니다 (=감속이 안된것 같다고생각하는 이유2) 불안난게 천운이었던것 같네요.
저도 오토파일럿은 최대한 보수적으로만 씁니다... 무서워요;; 요즘 많이 좋아지긴 했는데;;;
40mph 제한 도로니까 시속64km 또는 그 이상으로 달렸을 수도 있습니다. 요즘 FSD는 제한속도 위로 40% 오프셋이 기본이라 설정에 따라서는 시속 90키로까지 찍을수도 있습니다.
이번 사고 건에 대해서 냉정하게 보면,
FSD가 맞느냐 아니냐고 말하는 것은... 좀 이상하지 않나 싶습니다.
다들 운전 하시니까 아시겠지만 사람이 운전할 때 저런 상황이 나올 가능성이 얼마나 있을까요.
즉, 사람의 운전 패턴으로는 잘 보이지 않는다는 말입니다.
운전자라면 대개 바로 알아 차릴 수 있을 텐데...
이런 상황에서마저
FSD가 맞냐 안 맞냐를 우선적으로 거론하는 모습이 참...
소비자가 자기돈내고 알파테스터까지 하는 것이 이해되지 않습니다.
이미 사용자는 ADAS Level 3 이상으로 사용하고 있는데 말이죠
왜냐면 3 부터는 제조사 책임이 포함되거든요
운전자가 핸들을 조금만 힘주고 잡고있어도 얼마든지 반응할수있습니다
이게 난이도가 좀 높은 도로에서는 운전자도 긴장을 합니다, 공사구간이라던가, 길이 뭔가 좀 복잡하다... 그러면 차가 오판할 수 있으니까... 바로 잡을 수 있도록 마음의 준비를하고핸들을 잡는데,.... 모든 도로에서... 저정도 난이도의 상황에서 조차 그렇게 긴장하고 가야한다면? 그럼 정말 피곤할것 같네요...
사용자도 긴장은 해야죠. 사고에 대한 책임은 어쨌든 사용자에게 있으니까요. 하지만, 그렇다고 해도 FSD를 욕할수는 있고, 이 글의 주제는 FSD의 신뢰성이지, FSD 유저의 문제점이 아니죠;;
뿌리는거 아닐까요?
------------
다음은 표지판과 관련 FSD의 오류가능성에 대한 구글 제미나이의 답변입니다
---------
"WATCH FOR TRUCKS" 표지판이 테슬라 FSD에 미칠 수 있는 영향과 잠재적 오류 가능성은 다음과 같이 추론해 볼 수 있습니다:
인식 오류 가능성:
형태/문자 인식 오류: 표지판이 훼손되거나, 더러워지거나, 빛 반사 등으로 인해 카메라가 "WATCH FOR TRUCKS"라는 텍스트 또는 다이아몬드 형태를 정확히 인식하지 못할 가능성은 항상 존재합니다.
오인식 (False Positive/Negative):
False Positive (오인식): 다른 표지판이나 사물을 "WATCH FOR TRUCKS"로 오인하여 불필요한 주의를 기울이거나 주행 패턴을 변경할 수도 있습니다.
False Negative (미인식): 실제 "WATCH FOR TRUCKS" 표지판을 인식하지 못하여 해당 구역에서 충분한 주의를 기울이지 못할 수 있습니다. 이는 사고 위험을 증가시킬 수 있는 더 심각한 문제입니다.
맥락 이해 부족: FSD는 표지판을 인식하더라도 해당 표지판이 왜 설치되었는지(예: 정말 트럭이 자주 다니는 곳인지, 아니면 과거에 설치된 것인지)에 대한 맥락적 이해는 제한적일 수 있습니다.
FSD의 대응:
FSD는 "WATCH FOR TRUCKS"와 같은 경고 표지판을 인식할 경우, 일반적으로 속도를 약간 줄이거나, 주변 환경에 대한 센싱을 강화하는 방식으로 대응할 수 있습니다.
하지만 이 표지판이 직접적으로 차량의 주행 궤적이나 속도를 크게 바꾸도록 설계된 것은 아니므로, 만약 FSD가 이 표지판을 제대로 인식하지 못했다고 하더라도, 그것이 직접적으로 사고를 유발하는 결정적인 원인이 되기보다는, 다른 잠재적 위험 요인(예: 실제 트럭의 갑작스러운 출현, 운전자의 부주의)과 결합될 때 문제가 발생할 가능성이 더 높습니다.
결론적으로, "WATCH FOR TRUCKS" 표지판 자체가 테슬라 FSD의 직접적인 사고 원인이 될 가능성은 낮지만, 표지판 인식 오류는 시스템이 주변 환경에 대한 이해도를 떨어뜨려 잠재적인 위험을 증가시킬 수 있습니다.
테슬라 FSD는 '운전자 보조 시스템'이며, 운전자는 항상 전방을 주시하고 시스템의 한계를 인지하며, 필요할 경우 즉시 운전에 개입할 준비가 되어 있어야 합니다. 이것이 자율주행 기술의 현재 한계를 보완하는 가장 중요한 부분입니다.