反對者實測特斯拉FSD自動駕駛 一連三次撞上假人模型
馬斯克曾多次吹爆特斯拉的FSD(完全自動駕駛)功能,稱其‘令人驚嘆’,但并非所有人都認同他的觀點,甚至還有批評者,將特斯拉FSD功能,看作是所有美國人的致命威脅。
8月10日消息,Green Hills Software的CEO、特斯拉知名反對者丹·奧多德(Dan O'Dowd)資助并發(fā)布了一項評測結果,特斯拉的FSD自動駕駛系統(tǒng)在評測中多次撞上兒童假人模型。
據悉,奧多德去年曾發(fā)起一項運動“黎明項目”,禁止他所說的不安全軟件進入安全系統(tǒng),該組織一直在積極測試特斯拉的軟件。
該組織發(fā)布的最新一段32秒的宣傳視頻中,在加州的一條測試車道上,一輛特斯拉在開啟FSD功能后,車輛一連三次都撞上或碾壓了兒童假人模型。
測試團隊稱,這項測試在過去一個月的時間里進行了幾十次。在撞到人體模型之前,車輛從未嘗試轉向,或者減速超過每小時25英里。
測試司機表示,在FSD啟動之后,特斯拉Model 3“開始搖搖晃晃,好像很迷惑,放慢了一點速度,但仍然以超過每小時25英里的速度撞擊并碾壓了人體模型”。
奧多德發(fā)聲稱:“我們對特斯拉FSD的安全測試結果非常不安,這應該成為采取行動的呼聲。埃隆·馬斯克(Elon Musk)說,特斯拉FSD軟件‘令人驚嘆’,但事實并非如此。它對所有美國人都是致命的威脅。”
目前,特斯拉還未對此回應。
標簽: 特斯拉FSD自動駕駛 一連三次撞上假人模型