特斯拉 Autopilot 功能極其強大,但其使用條款內「駕駛必須關注路況並隨時準備介入」的堅持是有其理由,因為 Autopilot 並非 100% 不犯錯:它真的會誤判,駕駛絕對不能完全放任系統自駕。 由物聯網專家 Ben Nassi 率領的研究團隊,日前就發布了一項針對特斯拉 Autopilot 測試的實驗成果,團隊透過投影技術在道路上製造人像、汽車、號誌圖案等投影圖案,企圖誤導 Autopilot 辨識結果。 結果顯示,這些人眼一看就清楚知道並非實體物件的平面化投影圖案,卻成功混淆了 Autopilot,系統誤將這些圖案辨識為路面標示與行人、車輛,因而導致車輛轉向不正確的方向或於行駛間降低速度。 Nassi 團隊已經證明 Autopilot 系統確實可以被欺騙,而且用的還不是擬真物體,只要簡單的平面投影就能辦到。 再次提醒各位,Autopilot 真的很強大,不過在現階段的技術上,它對於真實生活中複雜千倍萬倍的周遭環境仍有誤判可能,駕駛一定仍要監管並隨時準備接手,任何在新聞或油管上看到的開車吃麵、開車睡覺或開車打手遊等行為,都是完全錯誤而且危險至極的。 > 消息來源:Ben Nassi