av小说在线观看|亚洲无码AV无码|人人操人人干av|操人视频91免费久草|日韩AV免费不卡在线观看|91五月天婷婷|婷婷精品国产日韩一级片播放|欧美一级特黄片看久久|亚洲免费AV网址|国产高清无码搞逼嫩射b

選擇城市
綜合
  • 綜合
  • 找論壇
登錄
發(fā)布作品
Global
下載App
掃碼下載汽車之家App
小程序
掃碼打開汽車之家小程序
>
點贊
評論
收藏
分享
問編輯
無人駕駛系列六 | 智駕法規(guī)“和而不同”,催生算法本地化
汽車之家研究院
汽車之家研究院
原創(chuàng) · 0瀏覽·2025-12-30 10:00 · 北京
關(guān)注


摘 要

2025年,智能駕駛話題越來越“熱鬧”了:比亞迪喊出“全民智駕”、無人駕駛出租車遍地開花;可另一邊,特斯拉卻因為一場事故被判天價賠償,高呼“冤枉”。讓人不禁想問:技術(shù)跑這么快,規(guī)則如何跟得上?

實際上,國內(nèi)外都在摸索怎么給智駕“立規(guī)矩”:既要鼓勵創(chuàng)新,也得保護路上的每一個人。但由于道德偏好、技術(shù)接受度、“駕駛慣性”等因素的不同,我們預測未來智駕法規(guī)將存在區(qū)域化差異,進而催生智駕算法的本地化:例如,緊急避險時,歐盟要求算法盡量保護行人安全,而美國某些州會要求算法綜合考慮路權(quán)和過往判例,可能選擇優(yōu)先保護車內(nèi)乘客。

算法本地化將給車企帶來額外成本、銷量影響、追責賠償?shù)葐栴}——如何低成本且快速地讓智駕車輛在外國“學會交規(guī)”,將是全球化智能車企需要回答的關(guān)鍵問題。


一、萬眾矚目的事故定責

2019年4月25日的21時許,夜晚的佛羅里達州,一輛特斯拉Model S(參數(shù)|詢價)在偏僻的鄉(xiāng)間小路上以100公里的時速行駛。駕駛?cè)藛讨巍溁?George McGee)在這條路上至少行駛了三十余次,這次他也放心地啟用了自動駕駛。

在行駛過程中,他試圖撿起滑落的手機。然而就在這短短幾秒,特斯拉闖過路口停車的標志,沖進路邊停車場,并將一輛??康难┓鹛mSUV橫向撞翻,造成其車主一死一重傷。

經(jīng)過漫長的審理后,今年8月1日,邁阿密聯(lián)邦法院陪審團裁定特斯拉對該事故負有約33%的責任,需要承擔其中約4250萬美元的補償性賠償,以及全部2億美元的懲罰性賠償,總計約2.425億美元。這場致命交通事故和天價賠償金,在2025年又一次引爆了智駕輿論。

由于現(xiàn)行法律中對自動駕駛責任劃分的模糊性,導致陪審團對本次案件“定責難”。但即使事故發(fā)生在六年后的今天,仍然缺少針對性的相關(guān)法律。敗訴后,特斯拉當即表示并不認可當前的責任劃分,并將發(fā)起上訴。而在美國判例法的體系下,本次裁決無疑將成為后續(xù)智駕事故的參考依據(jù),天價賠償也將使特斯拉面臨更多潛在訴訟。相較技術(shù)的快速進步,智駕規(guī)則的建立仍在步步為營。

汽車之家

事故現(xiàn)場照片


二、法規(guī)慢慢來,因為“人命關(guān)天”

完善的配套法規(guī)體系,是高階智駕大規(guī)模落地的重要前提。12月15日,工信部許可了長安牌和極狐牌兩款L3級自動駕駛車型產(chǎn)品,但對試行路段、最高時速、適用功能等附加了嚴格的限制條件,也側(cè)面說明了相關(guān)法規(guī)體系的完善還需漫長過程,剛性的、涉及面更廣的全國性法規(guī)很難短期一蹴而就。

今年7月23日,科技部官網(wǎng)公布了《駕駛自動化技術(shù)研發(fā)倫理指引》,率先明確了高階自動駕駛的倫理框架和責任原則?!吨敢分饕獌?nèi)容可以歸納為以下幾方面:

● 責任劃分:L2及以下,主要由司機負責;L5以上,大概率車企負責;L3、L4看情況。

● 代碼要“透明”:智駕系統(tǒng)怎么決策的,事后要能查、能解釋。

● 算法要體現(xiàn)社會認同:需要符合大多數(shù)人的道德直覺,不可歧視。

● 新增倫理審查:車企最好設(shè)個倫理委員會,別閉門造車。

這份軟性《指引》體現(xiàn)了上層機構(gòu)對智駕定責的方向性判斷,對于車企存在更強的指導意義。


三、全球智駕法規(guī)將“和而不同”

放眼全球,各國均在穩(wěn)步推進智駕法規(guī)體系的完善。整體趨勢是隨著自動化程度提高(如L4及L5級別),責任主體從駕駛員向制造商和系統(tǒng)運營方轉(zhuǎn)移。其中走在最前列的德國,于2021年通過了《自動駕駛法》:在L3級別下當車輛在自動駕駛系統(tǒng)正常運行的條件下發(fā)生事故,汽車制造商將自動承擔事故責任;而在L4級別下,責任主要由車輛運營商或制造商承擔。美國各州在要求上仍存分歧,NHTSA(國家公路交通安全管理局)正通過推動AV-STEP計劃放松監(jiān)管、統(tǒng)一規(guī)則,要求企業(yè)提交自動駕駛系統(tǒng)的安全評估數(shù)據(jù)。

但我們預測,由于不同區(qū)域的文化、經(jīng)濟、歷史等因素各不相同,自動駕駛的法律細則在未來一定會形成區(qū)域化的差異——下文將從道德偏好、技術(shù)接受度和“駕駛慣性”等維度,闡述相關(guān)原因。

(1)道德偏好:區(qū)域差異下的“自動駕駛電車難題”

隨著VLA和世界模型的進化,自動駕駛車輛大概率將具備識別道路參與者身份特征(如老人、孕婦、兒童等)的能力。當緊急避險發(fā)生時,交通參與者的生命安全將由預置的算法決定。算法設(shè)計者的道德偏好,也將直接影響車輛的避險因子權(quán)重。現(xiàn)在我們一起來思考一個兩難的場景——當面臨剎車失靈的緊急避險選擇時,你認為“道德”的無人駕駛應(yīng)該:

①緊急變道:與大卡車碰撞,車內(nèi)四人死亡但行人不會受到傷害。

汽車之家

②不進行緊急變道:導致正在過馬路的四個人死亡,但四名車內(nèi)人員不會受傷。

汽車之家

③如果四個行人正在闖紅燈,或者車內(nèi)只有一名司機,你的答案是否會有不同?

以上與經(jīng)典問題“電車難題(Trolley Problem)”極其相似的假設(shè)場景,出現(xiàn)在麻省理工學院(MIT)部署的“道德機器”(Moral Machine)這一在線實驗平臺。用戶在網(wǎng)頁上可以看到類似的事故場景,研究者則根據(jù)用戶選擇,來探索人們對9個因素(如年齡、性別、社會地位等)的道德偏好。這個大型“道德數(shù)據(jù)庫”的實驗結(jié)果被發(fā)表在了《自然》雜志上(Awad, E. et al., 2018)。先看看全世界的人是怎么選的:

普遍的道德偏好:在大部分國家中,人們優(yōu)先拯救人類而非動物、優(yōu)先拯救更多生命、優(yōu)先拯救年輕生命。

跨地區(qū)的道德偏好差異:西方文化圈(如北美和基督教傳統(tǒng)的歐洲國家)傾向于不干涉現(xiàn)有路線;東方文化圈(如東亞和伊斯蘭教國家)更尊重長者并重視規(guī)則;南方文化圈(如拉丁美洲和法國影響地區(qū))更傾向保護女性和高地位人群;高GDP/強政府國家傾向懲罰違反交通規(guī)則的行人;高貧富差距國家更可能犧牲社會地位低者(如流浪漢)。

汽車之家

普遍的道德偏好

汽車之家

不同文化區(qū)域的道德偏好

德國法學家格奧爾格·耶利內(nèi)克曾說:“法律是最低限度的倫理”。不同地方的人,對“算法道德”的理解可能完全不同,這也將影響不同區(qū)域智駕法規(guī)的形成,進而使算法產(chǎn)生地域差異。

(2)技術(shù)接受度與“駕駛慣性”催化算法本地化

除了道德偏好外,社會的技術(shù)接受度,以及現(xiàn)行法規(guī)/文化造成的“駕駛慣性”,也會導致智駕法規(guī)的地區(qū)差異性

技術(shù)接受度:不同地區(qū)對前沿技術(shù)“上車”的接受度不一。咨詢公司MHP調(diào)研發(fā)現(xiàn),中國受訪者對技術(shù)更加開放,僅有3.6%的中國受訪者認為AI的風險高于收益,遠低于歐美的25%。除此以外,今年5月,OpenAI和Anthropic都曾報告過AI欺詐甚至威脅開發(fā)者的事件,引發(fā)了使用者的恐慌——如果公眾對前沿技術(shù)的接受度難以上升,智駕算法也需要更保守。

“駕駛慣性”現(xiàn)行法規(guī)和文化,培養(yǎng)了不同地區(qū)駕駛?cè)说臐撛诹晳T,大概率將會影響后續(xù)的立法與修改。以機動車與行人發(fā)生交通事故為例,在機動車無過錯的情況下,國內(nèi)與美國、甚至美國各州之間的賠償判決可能并不一致。國內(nèi)機動車即使沒有過錯的,通常也要承擔不超過10%的賠償責任。而在美國采取責任過半認定制和簡單多數(shù)制的州(如科羅拉多、阿拉巴馬等)中,司機可能無需進行任何賠償。對于車企/技術(shù)方來說,需要基于此調(diào)整避險算法的因子權(quán)重。

因此,各地的智駕法規(guī)很難完全相同,編寫符合各地合規(guī)政策的“普世算法”,也幾乎是不可能的任務(wù)。

四、算法本地化給車企帶來的挑戰(zhàn)與機遇

對于瞄準全球市場的車企,不同地區(qū)對算法的本地化需求無疑將帶來新的挑戰(zhàn)。

● 額外成本:“一地一算法”將為車企出海帶來額外成本,包括本地數(shù)據(jù)/算法庫(如中國版“特斯拉”)、當?shù)亟煌酥?法規(guī)知識庫、倫理與法規(guī)專家、合規(guī)/倫理委員會、當?shù)厣缛汉献鞯取?/span>

● 銷量影響:如果消費者對車輛的智駕算法不認同,或者認為無法保護自己,可能會選擇不購買智駕車輛。圖盧茲經(jīng)濟學院的 Jean-Francois Bonnefon 等人的調(diào)研顯示,受調(diào)研者希望其他人坐在“行人保護優(yōu)先”的無人駕駛汽車中,但自己不會購買這樣的汽車。被強制要求公開的算法偏好,或?qū)⒊蔀橛脩糍徿囆碌目紤]因素。

● 追責賠償:不同國家對制造商的追責方式也將不同,而企業(yè)需要考慮如何承擔海外事故帶來的潛在成本(例如,通過特定保險分擔追責風險)。

挑戰(zhàn)的另一面是機遇。未來誰的智駕算法能更好更快地學會本地交規(guī),就將搶占未來無人駕駛車輛市場的先機。

另外,當車企能夠?qū)崿F(xiàn)算法本地化后,或許針對個人的“一人一算法”也將出現(xiàn),帶來新的商業(yè)化可能。激進或保守,重視路權(quán)或無私讓行——駕駛?cè)说牡赖缕煤惋L格,也可以體現(xiàn)在自動駕駛中,作為個性化選配帶來新的商業(yè)化空間。

德國奧爾登堡大學的最新研究表明,當面臨無人駕駛的道路決策時,實驗參與者特定區(qū)域的腦電波情況將發(fā)生異常振動(Bertheau, M.A.K., Boetzel, C. & Herrmann, 2025)。或許隨著我們對AI和神經(jīng)科學等技術(shù)的進一步成熟,智駕車輛真的可以學習和模擬車主的駕駛風格和避險偏好。

五、道阻且長,行則將至

自動駕駛所帶來的交通新形態(tài),將引發(fā)對現(xiàn)有法規(guī)政策的全方面挑戰(zhàn)。各國智駕法規(guī)的區(qū)域化差異,將催生算法的本地化需求。智駕的算法決策并不存在唯一的正確答案,重要的是我們能否建立起一個動態(tài)、透明、包容的倫理-技術(shù)-法律框架,真正滿足當?shù)厣鐣兔癖妼χ邱{技術(shù)的期待。

這是關(guān)乎生命的抉擇,未來或許每一行自動駕駛的代碼都承載著人類文明的爭吵、妥協(xié)與希冀——這注定是一場沒有終點的對話,也是構(gòu)建信任的基石。

點贊
評論
收藏
分享
舉報/糾錯
掃碼下載汽車之家App
? 2025 汽車之家 www.goldreef.cn
2025/12/30 21:48:28