我有一個理論叫做 「智慧駕駛」永無安全。我不覺得坐在車裏監控一個開車技術水平沒有自己好的傻子AI並為它所做的一切愚蠢的事故去做最終法律兜底是一件高級的事情。
有一個資本角度的考慮,或者說是穿透性的理解,就是智慧駕駛近些年來裹挾的是大量從房地產過來的無處安放的資本,然後湧入汽車,大量高管要從中吸錢去做他們認為重要的領域,但唯獨不會對自動駕駛本身做高額的研發投入,行業中洗錢的現象比較明顯。我就不一一提了。
但普通人都應該懂一個道理, 當用遠端遙控的成本消耗,遠小於自己股價的增長量的時候,我相信每一台自動駕駛車背後都是一位遠端遙控員。
所以目前的智慧駕駛,其實依然是非常低階的一種存在,表面上智慧駕駛吹的天花亂墜,出事前0.1s結束智慧駕駛逃避責任,其實是企業的基礎操作了。
機器學習有這麽一個「黑箱」傾向,畢竟有時候,人工智慧作出的決策,即便是它的設計者也無法解釋為什麽它做這個決定,我覺得ChatGPT或者類似的語言模型,偶爾胡言亂語一下無所謂,畢竟它的終端沒有連結到車輛的MCU控制器,他不會突然給你在盤山道上打一把方向,也不會突然在前方空曠道路上為你的後車突然踩一腳剎車。但車輛智慧駕駛的端到端概念不能放松警惕,目前還沒有企業拍著胸脯說自己的端到端模型能達到100%安全。所以XAI的問題得不到解決,端到端問題就始終存在,而AI領域有一個共識,就是XAI問題只能去談多與少,而不能去談有和無,因為這個XAI問題一定是有的,畢竟,如果AI的行為全能解釋不就等於沒有AI嘛?
始終保持對黑箱的質疑,是我們做內容的天職。