自動駕駛汽車?法律:倫理
首發地址:https://yq.aliyun.com/articles/73372
自動駕駛汽車中的法律與倫理
作者介紹:karla Lant
一位有經驗的自由撰稿人和編輯,兼職教授。具有先進的教育和寫作經驗。作為一名作家,其研究領域包括:技術、科學、技術寫作、教育、商業、法律等。
個人主頁:https://karlalant.contently.com/
領英:https://www.linkedin.com/in/karlalant/
自動駕駛汽車很可能會比人操作汽車更加安全,但也不是完美的。在很長的一段時間裏,自動駕駛汽車仍然需要與人自己駕駛汽車共享道路,這意味著大量關於自動駕駛汽車的法律和倫理應該被發展。
目前的法律狀態
在汽車的駕駛員和安全領域中,以人類的倫理標準編撰自動駕駛汽車的法律,這意味著以靈活的方式詮釋許多法律法規,以至於我們能夠在每種情形下實現一個公正的結果。
的
在類似的情況下,如果沒有像一個合理謹慎的人那樣做,那麼我們是疏忽大意的。在決定一些人的行為是否像正常人,法律考慮了很多的因素,包括個人經曆、學識以及其感知能力等。
法律假設我們所有人都能看見、聽見並知道正常人會在相同情形下的行為,並假設都知道一些常識。
合理的機器人應該需要滿足或者超過對正常人的期望,這即是簡單又是複雜的,因為它包含了技術和倫理成分。
30s一旦發生碰撞,律師和監管部門將能夠對這些汽車執行難以置信的高安全標準,以至於人類永遠不會與其發生碰撞。
當考慮到倫理問題時,合理的機器人就陷入問題中,我們認為正常人都知道基本的常識,但這對於機器人來說是困難的。另外駕駛與風險同在,決定如何在自動駕駛汽車、騎自行車的人、行人之間分配風險,如何遵從法律、分散風險並最小化傷害,這些都是需要麵臨的難題。
自動駕駛係統
存在許多的情形會讓駕駛員的常識不顧法律的規定,比如一個小孩突然跑進你車前的視野中,你將會在雙黃線上轉彎以避免撞到小孩。對於自動駕駛係統而言,這主要歸功於在安全的前提下,決定破壞雙黃線法律。自動駕駛係統不依賴於人的常識,但存在置信度。
2014自動駕駛係統的風險最小化策略的專利權。穀歌想象自動駕駛汽車行駛在三線寬的公路上,左側有一輛小車,右側有輛大卡車。自動駕駛係統將會使其更靠近小車以最優化汽車的安全。但這個涉及到倫理問題,自動駕駛係統不公平地將更多的危險分配到小車上。
一
現存的法律係統估計生命是與自動駕駛係統有區別的,比如在非正常死亡負責起訴陪審團能基於逝者的教育水平、工作性質以及其它因素來決定一個人的生命在未來有的價值。而在風險分配和自動駕駛係統中,這種區別潛在會帶來不好的結果。
雙輸情景會在碰撞是無法避免的時候發生,在這種情景中,自動駕駛係統應該基於一些目標最小化產生的結果,決定什麼目標就會選擇不同的方式。最小化人的傷害是一個重要目標,但是選擇如何分配或者直接傷害人並按照人的優先順序排列保護是困難的。
假設自動駕駛係統能夠精確地區分動物與非動物目標,非動物目標應該如何排序?如果自動駕駛係統必須選擇傷害其中一個,應該首先傷害最小價值的汽車?應該對自動駕駛係統的倫理進行編程以避免受到一些人為因素去碰撞其它汽車?
沒有單一的倫理指導原則指導自動駕駛係統編程。而不是尋找正確的基本指令,我們應該學會通過將編程倫理看做成一個工程問題來區分各種問題的解決辦法。
將倫理作為一個工程問題意味著服從一些嚴格的限製,當需要優化幾個方麵。選項在道德上不可接受或根據約束幾乎不可能排除。識別利益相關者和共同利益可以闡明剩餘的選項。
理想情況下,基於控製的結果決定是高風險或低風險決定是否硬編碼或將選擇留給消費者。高風險,
,
文章原標題《》,作者:,譯者:海棠,審閱:東東邪
原文
最後更新:2017-07-12 22:11:08