CLIEN

본문 바로가기 메뉴 바로가기 보기설정 테마설정
톺아보기 공감글
커뮤니티 커뮤니티전체 C 모두의광장 F 모두의공원 I 사진게시판 Q 아무거나질문 D 정보와자료 N 새로운소식 T 유용한사이트 P 자료실 E 강좌/사용기 L 팁과강좌 U 사용기 · 체험단사용기 W 사고팔고 J 알뜰구매 S 회원중고장터 B 직접홍보 · 보험상담실 H 클리앙홈
소모임 소모임전체 ·굴러간당 ·아이포니앙 ·주식한당 ·MaClien ·일본산당 ·방탄소년당 ·개발한당 ·자전거당 ·AI당 ·이륜차당 ·안드로메당 ·콘솔한당 ·소시당 ·키보드당 ·PC튜닝한당 ·테니스친당 ·갖고다닌당 ·육아당 ·소셜게임한당 ·노젓는당 ·골프당 ·걸그룹당 ·퐁당퐁당 ·위스키당 ·나스당 ·바다건너당 ·클다방 ·IoT당 ·여행을떠난당 ·디아블로당 ·어학당 ·라즈베리파이당 ·달린당 ·3D메이킹 ·X세대당 ·ADHD당 ·AI그림당 ·날아간당 ·사과시계당 ·배드민턴당 ·야구당 ·농구당 ·블랙베리당 ·곰돌이당 ·비어있당 ·FM당구당 ·블록체인당 ·보드게임당 ·활자중독당 ·볼링친당 ·캠핑간당 ·냐옹이당 ·문명하셨당 ·클래시앙 ·요리한당 ·쿠키런당 ·대구당 ·DANGER당 ·뚝딱뚝당 ·개판이당 ·동숲한당 ·날아올랑 ·전기자전거당 ·e북본당 ·이브한당 ·패셔니앙 ·물고기당 ·도시어부당 ·FM한당 ·맛있겠당 ·포뮬러당 ·젬워한당 ·안경쓴당 ·차턴당 ·총쏜당 ·땀흘린당 ·하스스톤한당 ·히어로즈한당 ·인스타한당 ·KARA당 ·꼬들한당 ·덕질한당 ·가죽당 ·레고당 ·리눅서당 ·LOLien ·Mabinogien ·임시소모임 ·미드당 ·밀리터리당 ·땅판당 ·헌팅한당 ·오른당 ·영화본당 ·MTG한당 ·소리당 ·노키앙 ·적는당 ·방송한당 ·찰칵찍당 ·그림그린당 ·소풍간당 ·심는당 ·패스오브엑자일당 ·품앱이당 ·리듬탄당 ·Sea마당 ·SimSim하당 ·심야식당 ·윈태블릿당 ·미끄러진당 ·축구당 ·나혼자산당 ·스타한당 ·스팀한당 ·파도탄당 ·테스트당 ·빨콩이당 ·공대시계당 ·터치패드당 ·트윗당 ·가상화폐당 ·창업한당 ·VR당 ·시계찬당 ·WebOs당 ·와인마신당 ·WOW당 ·윈폰이당
임시소모임
고객지원
  • 게시물 삭제 요청
  • 불법촬영물등 신고
  • 쪽지 신고
  • 닉네임 신고
  • 제보 및 기타 제안
© CLIEN.NET
공지[점검] 잠시후 서비스 점검을 위해 약 30분간 접속이 차단됩니다. (금일 18:15 ~ 18:45)

굴러간당

정보 라이다 vs 카메라에 기반한 자율주행(?)의 대결 73

6
2025-03-16 09:38:35 수정일 : 2025-03-16 09:41:20 203.♡.149.222
함박눈7

Mark Rober 를 아시나요 ?

전직 NASA, APPLE 직원이었다는 군요. 현재는 남들이 하지 않는 재미있는 과학 실험을 하는 유튜버입니다.

우리나라 성우가 완벽한 더빙까지 해주네요. 영상 퀄이 대단합니다.

오늘아침 영상에서는 라이다가 장착된 차량과 카메라로만 사물을 감지하는 테슬라 차량과의 대결을 준비했네요.


영상의 9분부터 라이다 장착 차량 vs 테슬라 의 대결이 나옵니다. 






결론은요 ?

테슬라도 하루 빨리 라이다를 도입하는 게 낫지 않을까 ? 입니다.


링크 : https://youtu.be/IQJL3htsDyQ?t=540
함박눈7 님의 게시글 댓글
  • 주소복사
  • Facebook
  • X(Twitter)
댓글 • [73]
Tide
IP 121.♡.247.60
03-16 2025-03-16 09:43:48
·
마크로버가 테스트한건 일반 오토파일럿인데,
FSD로 했으면 결과가 어땠을지 궁금하네요.
Harugun
IP 76.♡.35.75
03-16 2025-03-16 14:08:07
·
@Tide님 지난 비오는 밤, FSD가 빨간색 경로로 가야하는데 파란색으로 직진해서 중앙분리연석에 올라탔습니다....;;
비전인식의 한계는 분명히 존재한다고 생각합니다.
Tide
IP 116.♡.110.196
03-16 2025-03-16 14:52:26
·
@Harugun님
네 비전은 말씀처럼 당연하게 시각의 한계에 한정되는데 그것을 사람같은 사리분석으로 인식해내겠다는 것이니까요.

마크로버의 시나리오처럼 연기나 살수로 100% 시야를 가리는 상황에서,

주행유지에 연동된 오브젝트 인식만 하는 오토파일럿과 주행루트에 연관된 모든 오브젝트의 예상경로를 감안하는 FSD의 차이가 궁금했습니다.

물리적인 비전 인식은 오파나 FSD나 같을 테니 그 후의 인지의 차이가 궁금한거죠.
몸튼튼맘튼튼
IP 1.♡.127.40
03-16 2025-03-16 14:54:13
·
@Harugun님
저 상황은 아직 완벽하지 않기 때문에 개선을 해야 할 부분 같네요.
뿌꾸빠
IP 175.♡.133.194
03-16 2025-03-16 15:56:20 / 수정일: 2025-03-16 15:58:02
·
@몸튼튼맘튼튼님
그런 의미에서 테슬라 오너들은 셀프 배타테스터군요.
그 개선점을 테슬라가 아닌 운전자들의 실제 경험을 통해서 개선하니까요.
그렇다면 FSD 사용자는 이용요금을 낼 것이 아니라 테스트비를 받고 이용해야겠네요.
mP9aDKUoc
IP 14.♡.160.196
03-16 2025-03-16 16:06:28
·
@뿌꾸빠님
아이폰에서 분석정보를 Apple에 공유 동의한다고 제품값 깎아주나요?
레벨5 자율주행 아닌거 다 알고 사는건데.. 이건 좀 황당한 깎아내리기네요..
쿠쿠콰콰
IP 106.♡.75.14
03-16 2025-03-16 16:45:46
·
@뿌꾸빠님 원래 베타 테스터가 셀프지요
Harugun
IP 76.♡.35.75
03-16 2025-03-16 23:23:54
·
@쿠쿠콰콰님 그럼 현대차는 왜 욕먹는 걸까요..베타테스터는 셀프인데..
Harugun
IP 76.♡.35.75
03-16 2025-03-16 23:25:04 / 수정일: 2025-03-16 23:26:05
·
@mP9aDKUoc님 아이폰 에 시리나 다른 아이폰 기능을 쓰면서 추가요금을 내지는 않잖아요.
리누
IP 112.♡.123.9
03-16 2025-03-16 09:53:15 / 수정일: 2025-03-16 09:54:44
·
테슬라는 어떤 환경에서도 완전한 주행을 하는 것을 추구한다기보다는 사람보다 나은 정도를 추구하다보니 영상에서 나오는 것처럼 사람도 볼 수 없는 조건은 대응이 안됩니다. (FSD 주행에서는 카메라 DR이 사람보다 더 좋아서 사람이 못 보이는 부분을 보는 경우도 있지만요)

Supervised일 때는 그럴수 있다고 치지만 Unsupervised 로 택시 운행을 하려면 좀 더 보수적인 (불확실하면 감속 운행) 플래너가 별도로 개발되어야 할 것 같습니다. 아직 공개되지 않은 전략이 있겠죠. 로보택시 한다는데 지금 안되는 상태 그대로 출시하겠습니까.
크림치즈펭귄*
IP 110.♡.10.74
03-16 2025-03-16 09:57:12
·
이 채널에 '반짝이 폭탄' 시리즈도 추천드립니다ㅋㅋ 택배도둑이 물건 집어가면 폭발해서 엿멕이는 사이다인데 한 5편?까지 있으니 순서대로 정주행 하시면 재밌어요
나는우주인
IP 1.♡.167.30
03-16 2025-03-16 10:25:02
·
당연한 걀과입니다. 라이다 등 각종 특수 센서가 없는 차량이 불리한 것은 당연한거..
단순 카메라로 하는것은 이미지센서 하나만 있는거죠..
배꼽잡아
IP 106.♡.193.90
03-17 2025-03-17 09:19:27
·
@나는우주인님
사람도 눈깔 2개로 운전한다....가 일론과 그 추종자들의 주장이죠.
애플미니
IP 121.♡.64.201
03-16 2025-03-16 10:30:13
·
오.. 궁금했었어요 만화 같은 가짜 길 어떻게 할지 ㅎ 혹시나 했지만 역시나 ㅎ
리누
IP 223.♡.242.13
03-16 2025-03-16 10:32:28 / 수정일: 2025-03-16 10:33:15
·
아참.. 이 영상은 개인 유튜버 자체기획 영상이 아닌 루미나 바이럴인것 같습니다. 그래서 실험 설계부터 장비동원까지 빵빵하게 만들수 있었던 것 같네요
뀰리앙
IP 39.♡.46.95
03-16 2025-03-16 10:35:29
·
사람도 눈으로 인식하고 운전하는데, 그보다 좋은 성능의 카메라로 당연히 할 수 있다.
라는 취지는 이해하고, 현재도 애용하는 기능이긴 하지만,
자율주행이라면 사람이 하는것보다 훨씬 안전해야 하는거 아닌가 생각이 듭니다.
리누
IP 112.♡.123.9
03-16 2025-03-16 10:57:02 / 수정일: 2025-03-16 10:57:25
·
@뀰리앙님

그렇게 기대할 수도 있지만 한편으로는 70대 고령 운전자가 보편화된 택시에서 복불복으로 기사가 배정되는 택시를 타는 것과 비교하면 이쪽이 더 안전할 것 같기도 합니다. 로보택시는 FSD Supervised보다는 불확실한 상황에 대해 좀 더 조심스러운 움직임을 하도록 만들어질거라 예상해 볼 수도 있구요
Tide
IP 121.♡.247.60
03-16 2025-03-16 11:05:12 / 수정일: 2025-03-16 11:21:13
·
@뀰리앙님
이번에 테스트한 것은 사람등 모든 사물의 예상경로까지는 감안하지 않는 일반 오토파일럿이라,

사물의 경로를 예측해 반영하는 FSD는 한번 인식한 마네킹이 연기나 살수로 시야가 100% 가려져도,
예상충돌경로가 그대로라면 피해가거나 사전에 정지할수 있을지 궁금하네요.

비전자체가 물리적으로 보이지 않는 것을 보겠다는 것이 아니라 사람같은 두뇌로 가려진 것도 사리판단 하겠다는 건데...
중국 안개 테스트에서 카메라 기반으로 피해가는 차들도 있었으니까요.
LanBus
IP 175.♡.161.3
03-16 2025-03-16 11:05:34
·
사람의 눈도 한계가 있는데... 사람의 눈과 비슷한 카메라로 인식한다는게 다소 한계가 있지요!
블랙돈
IP 124.♡.67.164
03-16 2025-03-16 12:01:19
·
FSD로 같은 실험한 결과 궁금하네요.
삭제 되었습니다.
이터니아
IP 121.♡.150.201
03-16 2025-03-16 12:52:37
·
저도 이 영상보고 완전 자율 주행을 위해서는 라이다를 버리기는 쉽지 않겠다고 생각했습니다.
2023basel3최종안
IP 211.♡.176.133
03-16 2025-03-16 12:54:44 / 수정일: 2025-03-16 13:00:39
·
머스크는 좀 관종 사기꾼끼가 있어 그대로 믿으면 안되고요.
카메라만으론 자율주행 하는척 하는것만 가능하지 자율주행은 불가능합니다.
본격 자율주행 하려면 라이다와 고성능 컴퓨터 필수에요.
도로, 차로, 신호등, 표지판, 원거리 교통상황은 영상이, 근거리 장애물은 라이다가 역할 나눠해야 합니다.
엑스베이스
IP 220.♡.21.25
03-16 2025-03-16 13:16:43 / 수정일: 2025-03-16 13:18:32
·
완전한 자율주행을 위해서는 라이다 없으면 불가능하죠. 일론 머스크가 가능하다고 말하니 속는 분들이 많은듯. 카메라만으로는 한계가 있습니다. 사람이 개입없이 한숨 자고 일어나면 목적지에 도착해야 하는데 아무런 신경 안쓰는 레벨4 이상을 달성하기 위해서는 카메라만으로는 안됩니다. 사람을 훨씬 뛰어넘는 수준이여야 하는데 사람과 같이 눈(카메라) 만으로 하겠다? 잠깐의 인지 능력이 떨어지는 순간에 사고 납니다. 눈만 와도 지금도 스스로 제대로 못가고 불빛 한점 없는 저조도에서는 답답한 운전을하고 판단도 느리죠.
sltx
IP 220.♡.98.194
03-16 2025-03-16 13:27:00
·
사람이 시각으로 운전한다고 해서 기계가 그 한계를 답습할 필요는 없죠.
사람은 두 다리를 움직여서 가지만 자동차는 바퀴 굴리잖아요.
리누
IP 112.♡.123.9
03-16 2025-03-16 13:36:16
·
@sltx님

사람은 사방을 동시에 볼수 없는데 카메라는 사방을 동시에 본다는 상대적 강점도 있죠.

저도 악천후 대응은 어떻게 대응할 것인가 걱정입니다만, 사람도 악천후에 아주 천천히 운전하면 대부분의 상황에 눈으로 주행할 수 있고, 그럼에도 불구하고 피할수 없는 사고도 있고 한걸 생각해보면

"안 보이면 조심한다" 정책만 확실하면 대부분의 상황은 사람과 동등수준은 가능하다고 봅니다.

라이다를 채용했을 때 늘어난 연산량을 대응하기 위한 더 비싼 추론칩 등.. 이런 제약이 소비자가 부담할 수 있는 수준이라면 도입할만 하다고 생각합니다만, 지금처럼 플래너는 비전 기반 E2E 모델로 동작하고 라이다는 추돌사고 예방으로 별개의 로직이 돌아가는 하이브리드 방식이면 몰라도 센서퓨전한 E2E 모델은 소비자가 원하는 가격대에서는 구현이 어렵지 싶습니다.
sltx
IP 211.♡.142.184
03-16 2025-03-16 13:53:04
·
@리누님 사람보다 좀 더 나을 수는 있지만 시각의 한계는 명확하죠.
더 좋은 방법이 있다면 인간과 같은 방식을 고집할 필요는 없다는 얘기입니다.
리누
IP 112.♡.123.9
03-16 2025-03-16 14:09:08 / 수정일: 2025-03-16 14:09:35
·
@sltx님

넵. 저는 그 더 좋은 방식에 가격이라는 요소를 무시할수 없는게 지금 상황 같습니다. 리즈너블한 가격이 가능하다면 배제할 필요가 없어지겠지요
sltx
IP 112.♡.233.168
03-16 2025-03-16 14:43:02
·
@리누님 100달러짜리 라이다도 있다고 하던데, 그거라도 달린 것과 안 달린 것은 차이가 클 것 같네요. 그리고 대량생산할수록 가격도 내려갈 여지가 있겠죠.
Harugun
IP 76.♡.35.75
03-16 2025-03-16 23:27:16
·
@리누님 꼭 라이다가 아니라 초음파센서만 달아도 많이 나을텐데요. 초음파 센서는 비싸서 뺐을까요?
리누
IP 222.♡.78.70
03-16 2025-03-16 23:44:03
·
@Harugun님

제가 라이다를 뺐다고 하는데 가격적인 제한요소는 라이다 센서 단품 가격만을 이야기 하는게 아니라, 더 커진 input dimension을 처리하기 위한 추론칩의 연산 요구량과 전력소비량, 냉각성능 등을 마련하는 것을 포함해 생각했습니다.

초음파센서 역시 센서 단품의 가격 문제도 있지만, 더 많은 연산이 필요하다는 점이 걸림돌이라 판단했을 것 같습니다.
JaceChoi
IP 182.♡.106.16
03-16 2025-03-16 14:19:13 / 수정일: 2025-03-16 14:20:47
·
테스트 중 몇개는 인간운전자여도 못피하겠다 싶더라구요.
라이다가 일반승용차에도 탑재 가능할 정도로 단가가 싸지면 안전운전에 확실히 크게 도움될 것 같습니다. 그때쯤이면 일론머스트도 얼굴 철판깔고 태세전환하고 테슬라 차에 라이다 달 것 같네요. 아마도 제일 먼저 달려고 할지도...
2023basel3최종안
IP 211.♡.176.133
03-16 2025-03-16 14:22:59 / 수정일: 2025-03-16 14:34:05
·
사람의 눈은 영상과 거리측정 두가지를 동시에 하나,
특히 인간은 수정체를 이용한 2개의 눈 + 지능으로 거리 추론을 정확히 할수 있습니다만,
물리적 렌즈로는 2개를 사용한다 한들 수많은 동체의 순간적 거리 측정이 어렵습니다.
1개의 렌즈로 AI만을 활용하여 거리측정한다는건 택도 없는 소리죠.
사람도 눈 하나 가리면 거리측정이 엉터리가 됩니다.
ai론 거리측정하는데 한계가 있습니다. 이걸 머스크가 한다고 뻥치고 있는겁니다.

그래서 기계는 거리측정을 위한 장치가 필요한겁니다.
초음파는 너무 단거리고, 적외선은 야외에선 엉터리고, 스테레오 카메라는 너무 형편없고,
현재 레이더가 주로 쓰입니다. 라이다는 레이더 보다 더 고성능이죠.

머스크는 어차피 자율주행할 생각없고, 자율주행하는척 하는 차를 만들기 위한게 목적입니다.
애시당초 자율주행하는척 하는차가 목적이라, 라이다를 없앤거에요.
머스크 말을 너무 믿지 마세요.
리누
IP 112.♡.123.9
03-16 2025-03-16 14:55:12
·
@23nq5lp님

거리 측정을 단안으로 할 수 있는건 이동하면서 시간 흐름에 따른 변화를 누적할 수 있기 때문입니다.

그것도 옛날 이야기고 이제는 테슬라 방식은 거리 측정 자체를 안해요. 사람이 운전할 때 거리 측정해서 생각하지 않듯요.
가을길
IP 211.♡.229.1
03-16 2025-03-16 15:42:48 / 수정일: 2025-03-16 15:43:46
·
@리누님
사람이 운전할 때 거리 측정을 안 한다고 생각하지 않습니다.

1) 운전중 주황색 신호등이 들어왔다->내차와 신호등과의 거리, 내 차의 속도를 고려하여, 장애물등 주변 상황을 파악하고 건널지 말지 판단하는데 말이죠.
2) 옆차로 차선을 변경하기 위해서 옆차선의 차량 속도, 내 차량과의 거리등으로 고려하여 차선변경 여부를 결정하지 않나요?
3) 고속도로 고속 주행시 먼 거리를 보고 운전하고 시내 주행시는 좀더 근 거리 교통 상황을 보면서 운전하죠.
몸튼튼맘튼튼
IP 211.♡.177.19
03-16 2025-03-16 16:34:22 / 수정일: 2025-03-16 16:38:52
·
@가을길님
리누님은
"23nq5lp"님이 댓글로 얘기한
( "그래서 기계는 거리측정을 위한 장치가 필요한겁니다.")
거리 측정 장치를 얘기 한것 같은데요.
리누
IP 223.♡.242.172
03-16 2025-03-16 17:24:27 / 수정일: 2025-03-16 17:29:02
·
@가을길님

측정해서 숫자로 바꿔 생각하지 않고 몇초 정도면 어떻게 상황이 바뀔지 직관을 이용해 추론해서 어떻게 대응할지 결정하죠.

거리는 몇미터고 내 차가 시속 몇km니까 몇초 여유 있구나 하면서 머릿 속에서 계산기를 돌리지 않아요.

AI가 하는게 비슷한 추론 과정이구요.
graycode
IP 118.♡.10.175
03-16 2025-03-16 17:47:39
·
@가을길님
사람이 “신호등이 전방 약 15미터에 있고 현재 내 차 속도가 54km/h임을 감안할 때 약 1초 안에 신호등을 지나갈테고, 그러면 깜박이는 노란불은..” 이러면서 운전하지 않듯이 FSD도 비슷하게 주변의 여러 상황을 고려하여 직관적으로 기동한다는 말씀이신 것 같습니다. (그래도 사람보다는 매순간의 거리 측정을 더 구체적으로 할 수 있고 내부적으로는 하고 있다고 생각합니다.)
2023basel3최종안
IP 175.♡.2.82
03-16 2025-03-16 17:50:15 / 수정일: 2025-03-16 18:00:25
·
@리누님 사람은 보는것만으로 주관적 거리 정보도 함께 전달되지, 도량형 단위로 정확히 모른다고 거리를 모르는건 아닙니다.
인간은 저마다 주관적 방식으로 거리를 인지합니다.

영상과 추론만으로 거리를 알수 있다면 동물은 눈2개로 진화하지 않았겠죠.
거리파악은 대단히 중요한겁니다.
리누
IP 222.♡.78.70
03-16 2025-03-16 19:16:44
·
@23nq5lp님

카메라로 포인트 클라우드 만드는걸 본 적 없으신가보군요.

슈도라이다가 사람보다 거리 추론 능력이 떨어질거라 생각하시나요?

오브젝트의 특성 (비닐봉지 vs 밟으면 안되는 장애물)판별이나 의도 추론에서 사람보다 뒤처질지 모르나, 공간 측정은 이미 평범한 사람의 수준은 넘은지 오래입니다.
2023basel3최종안
IP 211.♡.176.133
03-16 2025-03-16 22:11:07
·
@리누님 추론은 학습된 물체만 거리 측정이 가능하며 학습되지 않은건 측정이 안되요.
리누
IP 222.♡.78.70
03-16 2025-03-16 22:44:40
·
@23nq5lp님

명시적으로 거리 측정을 안한다고 위에 말씀드렸는데요..

원리를 모르는건지 트렌드를 모르는건지, 완벽하게 틀린 내용을 단정 지어 말하시네요.

벡터스페이스가 있던 시절에는 오브젝트를 특정해 분류 하지 못하더라도 복셀맵으로 포인트클라우드를 형성해 슈도라이다처럼 동작했고, 지금은 포인트클라우드를 형성하지 않고 영상 입력에서 곧바로 제어명령 출력이 나옵니다. 거리 라는 차원을 내부적으로 쓰는지 안 쓰는지조차 알기 어렵습니다.
2023basel3최종안
IP 211.♡.176.133
03-16 2025-03-16 22:47:07 / 수정일: 2025-03-16 22:53:15
·
@리누님 물체의 거리 정보가 없으면 자율주행 어렵고요. 자율주행 하는척만 가능합니다. 학습된거 외에는 인지하기 어려워요.
자율주행이 된다면 학습되지 않은 상황도 파악가능 해야 하고 이러려면 거리정보가 필수입니다.
리누
IP 222.♡.78.70
03-16 2025-03-16 23:07:02
·
@23nq5lp님

학습되지 않은 상황을 코딩으로 해결하는게 무한히 많은 경우의 수 때문에 불가능해지니 뉴럴넷의 추론을 이용하게 된거죠. 사람도 겪어보지 않음 상황에 거리를 측정하지 않아도 경험에 의한 추론으로 대처하고요.

거리정보를 이용해서 코딩 기반 플래너로 할 수 있는 것은 최대한 추돌을 피하는 것 뿐이며, 그 외 처음 겪는 상황에 대처하는 능력, 여러 복합적인 평가 기준을 조합해 충족하게 만드는 능력은 추론 기반이 더 유리합니다.
2023basel3최종안
IP 211.♡.176.133
03-16 2025-03-16 23:18:47 / 수정일: 2025-03-16 23:29:30
·
@리누님 똑같은 추론능력이라해도 눈이 2개인 사람과 1개인 사람의 거리측정능력은 차이가 많이 납니다.
눈이 1개면 구기종목 운동은 어렵죠. 추론만 가지고 완벽할순 없어요.
자율주행이 되면 테슬라도 라이더는 반드시 들어갑니다.
현 단계에서 테슬라는 레벨3를 목표로 안하기에 안쓰는겁니다.
이걸가지고 라이더 없이 자율주행 된다 하는건 머스크의 허언이에요.
전기구이
IP 104.♡.242.64
03-17 2025-03-17 07:03:07 / 수정일: 2025-03-17 07:15:02
·
@23nq5lp님 흥미로운 의견이네요. 올해 하반기면 결론이 나겠죠.
origins
IP 172.♡.94.47
03-16 2025-03-16 14:23:01
·
개인적으로도 카메라“만”으로 완전 자율주행은 택도 없다고 생각은 합니다. 결국 우리가 최종적으로 원하는 건 사람보다 훠어어얼씬 안전한 운전 시스템인데, 꼴랑 카메라만으로 될 수가 있을까요..
스타X
IP 195.♡.20.221
03-16 2025-03-16 19:30:53
·
@origins님 이미 테슬라 FSD기록이 사람보다 훨씬 안전합니다. 주행거리대비 사고율로요.
Harugun
IP 76.♡.35.75
03-16 2025-03-16 22:46:52 / 수정일: 2025-03-16 23:28:20
·
@스타X님 착각하시는게, 테슬라 FSD의 기록은 100프로 FSD의 능력이 아니라 FSD+사람의 기록이죠.
제 차만 해도 제가 개입하지 않았으면 FSD중 몇번이나 사고 났을 겁니다. 그 중에는 이 글을 쓰고 있지 못할 경우도 있었겠죠..
스타X
IP 78.♡.197.119
03-17 2025-03-17 06:51:22
·
@Harugun님 아 그 생각은 못 했네요. 감사합니다.
일곱글자가좋아
IP 175.♡.235.40
03-16 2025-03-16 15:36:40
·
라이다 추가한다고 사고가 더 나는 것도 아니고, 그냥 돈 때문이라고 생각합니다.
애교콩
IP 182.♡.142.37
03-16 2025-03-16 16:49:58
·
@일곱글자가좋아님
+1 그냥 돈 때문이죠 ...

나머지는 말장난으로 밖에 안보입니다.
앙리브리앙
IP 183.♡.120.112
03-16 2025-03-16 15:42:47
·
지금 차에 들어가는 컴퓨터의 처리 능력을 고려했을 때,
영상정보에 올인 하는게 좋을지, 깊이(거리)정보를 포함해서,
처리하는게 좋을지는 다툼의 여지가 있다고 생각합니다.

그러나 차가 최종적으로 진화해야 하는 지점은,
여러 센서의 모든 정보가 사용되는 보다 안전한 방향이 아닐까요?
과장을 해보자면 냄새 센서를 이용해서 골목 모퉁이 뒤에 있는 유모차에,
아기의 존재를 인식할 수 있다면, 미리 속도를 줄일 수도 있겠죠.
가장 기본적인 정보는 거리정보를 갖는 라이다가 되지 않을까요?
sltx
IP 49.♡.125.146
03-16 2025-03-16 17:45:45
·
@앙리브리앙님 라이다 정보가 추가된다고 해서 처리에 큰 부담이 될 것 같지는 않습니다.
리치제이
IP 218.♡.6.96
03-16 2025-03-16 16:18:32
·
저건 라이다가 아니라 레이더만 있었어도 감지 할 수 있지 읺을까요?
몸튼튼맘튼튼
IP 211.♡.177.19
03-16 2025-03-16 16:36:51 / 수정일: 2025-03-16 17:04:16
·
테스트 사용한 오토파일럿을 자율주행이나 셀프 드라이빙이라 누구도 얘기 하지 않는데요.
FSD 였다면 모르겠지만요.
그리고 몇가지 편집같아 보이는 영상 문제가 있는것 같네요.

https://twitter.com/Tslachan/status/1901168839574122864
리누
IP 223.♡.242.172
03-16 2025-03-16 17:30:02
·
@몸튼튼맘튼튼님

댄오다우드 같은 놈이 한명 더 나왔군요
Harugun
IP 76.♡.35.75
03-16 2025-03-16 23:40:07
·
@몸튼튼맘튼튼님
1. 가짜벽 실험에서는 중간에 오토파일럿을 실행시키는 장면이 나옵니다.

2. 물 뿌리는 경우에는 살수차 위치 때문에 오토파일럿 시가 아닌 일반 오토 브레이크로 실험하는 것으로 보입니다.

애당초 영상을 보면 오토파일럿시와 일반 오토브레이크의 차이를 잘 인지하고 있고, 설명도 해줍니다.

저 트윗 역시 일부러 실험을 깎아내리려는 테슬라 옹호자로밖에 보이지 않네요.
리누
IP 222.♡.78.70
03-17 2025-03-17 00:06:34
·
@Harugun님

오토파일럿을 실행시키는 장면이 있는데 추돌 순간 영상은 오토파일럿이 꺼져 있습니다.

실제로 멈출수 있는지 여부는 확신할 수 없으나,
꺼진 상태로 추돌한 것은 확실해 보입니다.

추돌 순간 영상에는 오토파일럿 제한속도 표시 없고 무지개 도로칠이 없습니다.
Harugun
IP 172.♡.194.140
03-17 2025-03-17 04:56:54 / 수정일: 2025-03-17 04:58:18
·
@리누님 그건 테슬라가 멈추지 않아서 추돌 순간에 브레이크를 밟아서 오토파일럿이 중지되었기 때문이죠.
영상에 보시면 후방에서 촬영한 영상에서 추돌순간에 브레이크등이 점등되는걸 확인할수 있죠.
리누
IP 223.♡.242.210
03-17 2025-03-17 06:50:17
·
@Harugun님

브레이크등은 이미 차체 일부가 스티로폼을 뚫고 나간 시점이고 화면에 오토파일럿 표식이 사라진 상태의 영상 시작점은 추돌보다 더 이른 시점입니다.
mP9aDKUoc
IP 14.♡.160.196
03-16 2025-03-16 16:44:18
·
저정도 폭우가 실제로 오면 사람이라 한들 서행 말고 답이 있나요?
결국 사람을 대체하는건 사람보다만 낫게 운전하면 가능한데 너무 많은걸 바라는 듯합니다
telecaster
IP 118.♡.11.78
03-16 2025-03-16 17:02:33
·
@mP9aDKUoc님 사고가 난다면 책임소재가 있고 운전자의 자율의지로 운전한게 아니니 사람보다 조금 나은정도로는 안돼죠.
mP9aDKUoc
IP 14.♡.160.196
03-16 2025-03-16 22:20:02 / 수정일: 2025-03-16 22:22:18
·
@telecaster님
당장 사고났을때의 책임소재만 놓고 보면 그렇지만... 사람보다 낫게 운전한다는 것은 전체적으로 교통사고로 인해 희생되는 사람의 숫자가 줄어든다는 뜻이니, 인도적 차원에서라도 도입할 메리트가 충분히 있는거죠. 말씀하신 부분은 자율주행 자체의 한계라기보단 자율주행을 상정하지 않은 제도의 개선 차원의 문제고요.

오히려 사람보다 조금 나은정도론 안된다며 비싼 라이다 등의 장비를 떡칠하게 하는게 자율주행 도입시기를 늦추고 교통사고 희생자를 늘리고 있을지도 모르는거죠. 솔직히 전 사람이 그렇게 운전을 잘하는지도 모르겠거든요.
블레어배
IP 211.♡.137.93
03-16 2025-03-16 17:04:12
·
당연한 결과지요

다만 돈이 문제
예리남편
IP 223.♡.90.106
03-16 2025-03-16 17:06:23 / 수정일: 2025-03-16 17:06:43
·
저정도면 사람도 운전 못합니다.

라이다 떡밥 또 나왔나요. 참… 어디부터 설명해야할지 감도 안잡히네요.

모든 센서를 달자고 하시는데, 그럼 차라리 실시간으로 위성에서 동영상 받아서 자율주행 하는건 어떨까요? 돈때문에 안된다고요? 라이다도 돈때문에 안됩니다.

저 실험은 시각정보에 사실상 재밍을 건 수준인데, 라이다에 재밍 거는거랑 뭔 차이인가요? 라이다 재밍걸고 실험 한번 해보시죠.
유니꾸
IP 14.♡.86.144
03-16 2025-03-16 17:46:52
·
시각정보만으로도 잘 될거라고 생각하긴하는데요.
문제는 테슬라차량에 붙어 있는 카메라가 일반적인 사람 눈만큼 좋으냐인듯해요.
은빈아빠
IP 118.♡.239.2
03-16 2025-03-16 18:15:55 / 수정일: 2025-03-16 18:25:09
·
각각의 센서의 단점을 보완하려면 라이다,레이더,열화상, 카메라를 적절히 조합해서 사용해야 할듯 합니다

그런데 영상의 더빙에 더 관심이 가네요ㅎㅎ
언어 장벽 없이 외쿡 영상들 마음것 볼수있었으면 좋겠습니다
스타X
IP 195.♡.20.221
03-16 2025-03-16 19:28:05
·
라이다 업체 사장이랑 같이 찍음.
라이다의 우수성을 알리기 위해 현실에선 일어나지 않을 무리한 설정을 함. 끝.
에어프라이어매니아
IP 122.♡.179.37
03-16 2025-03-16 21:14:49
·
@스타X님 오스틴 러셀이랑 같이 찍은 사진이 어딨나요 .. ?
스타X
IP 78.♡.197.119
03-17 2025-03-17 06:35:49
·
@에어프라이어매니아님 풀영상 보시면 언급이 나옵니다.
함박눈7
IP 59.♡.11.191
03-16 2025-03-16 21:35:33 / 수정일: 2025-03-16 21:36:36
·
댓글달아 주신 분들께 감사드립니다.

"테슬라"라는 단어는 일촉즉발, 뜨거운 감자인 거 같아요.

앞으로 어떻게 전개될지 팝콘각이네요. ㅎㅎ
배꼽잡아
IP 106.♡.193.90
03-17 2025-03-17 09:14:58
·
사람이 운전할 때 시각정보에만 의존하는 게 아닌데... 카메라로 충분하다는 테슬라를 신봉하던 분들의 라이다 무쓸모론은 여기서는 찾아볼 수 없군요. 신기하군요.
처음소금
IP 211.♡.207.24
03-17 2025-03-17 19:56:14 / 수정일: 2025-03-18 18:29:05
·
선생님
이미 아시겠지만
이영상 지금 해외에선 제법 난리입니다.
마크 로버가 벌인 큰 스캠이 될 수도 있는 상황입니다.
(라이다 회사랑 짬짬이…).
본문 머지막 댓글은
“ 마크 로버가 설마..” 로 바뀌어야 하지 않을까요^^
새로운 댓글이 없습니다.
이미지 최대 업로드 용량 15 MB / 업로드 가능 확장자 jpg,gif,png,jpeg,webp
지나치게 큰 이미지의 크기는 조정될 수 있습니다.
목록으로
글쓰기
글쓰기
목록으로 댓글보기 이전글 다음글
아이디  ·  비밀번호 찾기 회원가입
이용규칙 운영알림판 운영소통 재검토요청 도움말 버그신고
개인정보처리방침 이용약관 책임의 한계와 법적고지 청소년 보호정책
©   •  CLIEN.NET
보안 강화를 위한 이메일 인증
안전한 서비스 이용을 위해 이메일 인증을 완료해 주세요. 현재 회원님은 이메일 인증이 완료되지 않은 상태입니다.
최근 급증하는 해킹 및 도용 시도로부터 계정을 보호하기 위해 인증 절차가 강화되었습니다.

  • 이메일 미인증 시 글쓰기, 댓글 작성 등 게시판 활동이 제한됩니다.
  • 이후 새로운 기기에서 로그인할 때마다 반드시 이메일 인증을 거쳐야 합니다.
  • 2단계 인증 사용 회원도 최초 1회는 반드시 인증하여야 합니다.
  • 개인정보에서도 이메일 인증을 할 수 있습니다.
지금 이메일 인증하기
등록된 이메일 주소를 확인하고 인증번호를 입력하여
인증을 완료해 주세요.