華為自動駕駛真位元斯拉FSD厲害嗎?華為的優勢在哪?

首先,雖然特斯拉的資料是很多,但有幾個問題:1,資料只是材料,最終還是要寫演算法去處理各種場景才能把資料轉變為優勢,並不是有了資料自然就厲害了;2,特斯拉的演算法有多大程度上會為了中國的路況進行最佳化這一點始終存疑,有資料也要有演算法去處理才行;3,積累的資料是攝像頭的資料,不是鐳射雷達的。

華為自動駕駛真位元斯拉FSD厲害嗎?華為的優勢在哪?

而特斯拉的致命問題就在於走錯了路線,堅持只用攝像頭而不用融合方案,如果不盡快改選更張,早晚會走進死衚衕。但基於上面第3點,即便特斯拉也用上了鐳射雷達,之前積累的資料優勢也會損失大半。面對200甚至100美元的鐳射雷達,就看馬一龍能不能放下這個面子了,畢竟無數次信誓旦旦地只用純視覺方案,改或者不改都會是問題。

華為自動駕駛真位元斯拉FSD厲害嗎?華為的優勢在哪?

其次,華為優勢很明顯。目前,華為的純視覺方案和人類肉眼預測沒區別,而且自動駕駛不會有人的僥倖心理,未來車和車聯網之後,3km內自動連線,距離外自動斷開,螢幕無顯示保護行程隱私,大貨車離路口150米早就減速了不可能靠高額保險撞死人,車收到資訊,早就知道你要變道了我就讓讓你。我很喜歡華為高管的一句話,大資料不光看量,還要看緯度,特斯拉的資料都是平面化,再多資料對駕駛演算法的提升也有限,華為不一樣,他採用多角度提取資料,緯度位元斯拉高了一個時代。

華為自動駕駛真位元斯拉FSD厲害嗎?華為的優勢在哪?

同時,純視覺也可以知道建築物距離的,需要大量的資料去分析,比如肉眼範圍內,我看見我前面有一個人,這個人絕對不會超過肉眼視力極限,也就是離我的眼睛有方圓10cm到20米的範圍,現實中也可以有跡可循,我認為純視覺靠演算法和計算是可以完全識別出距離的,誤差1cm左右,另外攝像頭可以加入演算法,車也可以用2英寸的大底攝像頭,相比肉眼在夜晚就只能靠燈光,哪一點燈光根本分析不出,攝像頭可以提高亮度切換演算法。