自动驾驶汽车?法律:伦理
首发地址:https://yq.aliyun.com/articles/73372
自动驾驶汽车中的法律与伦理
作者介绍:karla Lant
一位有经验的自由撰稿人和编辑,兼职教授。具有先进的教育和写作经验。作为一名作家,其研究领域包括:技术、科学、技术写作、教育、商业、法律等。
个人主页:https://karlalant.contently.com/
领英:https://www.linkedin.com/in/karlalant/
自动驾驶汽车很可能会比人操作汽车更加安全,但也不是完美的。在很长的一段时间里,自动驾驶汽车仍然需要与人自己驾驶汽车共享道路,这意味着大量关于自动驾驶汽车的法律和伦理应该被发展。
目前的法律状态
在汽车的驾驶员和安全领域中,以人类的伦理标准编撰自动驾驶汽车的法律,这意味着以灵活的方式诠释许多法律法规,以至于我们能够在每种情形下实现一个公正的结果。
的
在类似的情况下,如果没有像一个合理谨慎的人那样做,那么我们是疏忽大意的。在决定一些人的行为是否像正常人,法律考虑了很多的因素,包括个人经历、学识以及其感知能力等。
法律假设我们所有人都能看见、听见并知道正常人会在相同情形下的行为,并假设都知道一些常识。
合理的机器人应该需要满足或者超过对正常人的期望,这即是简单又是复杂的,因为它包含了技术和伦理成分。
30s一旦发生碰撞,律师和监管部门将能够对这些汽车执行难以置信的高安全标准,以至于人类永远不会与其发生碰撞。
当考虑到伦理问题时,合理的机器人就陷入问题中,我们认为正常人都知道基本的常识,但这对于机器人来说是困难的。另外驾驶与风险同在,决定如何在自动驾驶汽车、骑自行车的人、行人之间分配风险,如何遵从法律、分散风险并最小化伤害,这些都是需要面临的难题。
自动驾驶系统
存在许多的情形会让驾驶员的常识不顾法律的规定,比如一个小孩突然跑进你车前的视野中,你将会在双黄线上转弯以避免撞到小孩。对于自动驾驶系统而言,这主要归功于在安全的前提下,决定破坏双黄线法律。自动驾驶系统不依赖于人的常识,但存在置信度。
2014自动驾驶系统的风险最小化策略的专利权。谷歌想象自动驾驶汽车行驶在三线宽的公路上,左侧有一辆小车,右侧有辆大卡车。自动驾驶系统将会使其更靠近小车以最优化汽车的安全。但这个涉及到伦理问题,自动驾驶系统不公平地将更多的危险分配到小车上。
一
现存的法律系统估计生命是与自动驾驶系统有区别的,比如在非正常死亡负责起诉陪审团能基于逝者的教育水平、工作性质以及其它因素来决定一个人的生命在未来有的价值。而在风险分配和自动驾驶系统中,这种区别潜在会带来不好的结果。
双输情景会在碰撞是无法避免的时候发生,在这种情景中,自动驾驶系统应该基于一些目标最小化产生的结果,决定什么目标就会选择不同的方式。最小化人的伤害是一个重要目标,但是选择如何分配或者直接伤害人并按照人的优先顺序排列保护是困难的。
假设自动驾驶系统能够精确地区分动物与非动物目标,非动物目标应该如何排序?如果自动驾驶系统必须选择伤害其中一个,应该首先伤害最小价值的汽车?应该对自动驾驶系统的伦理进行编程以避免受到一些人为因素去碰撞其它汽车?
没有单一的伦理指导原则指导自动驾驶系统编程。而不是寻找正确的基本指令,我们应该学会通过将编程伦理看做成一个工程问题来区分各种问题的解决办法。
将伦理作为一个工程问题意味着服从一些严格的限制,当需要优化几个方面。选项在道德上不可接受或根据约束几乎不可能排除。识别利益相关者和共同利益可以阐明剩余的选项。
理想情况下,基于控制的结果决定是高风险或低风险决定是否硬编码或将选择留给消费者。高风险,
,
文章原标题《》,作者:,译者:海棠,审阅:东东邪
原文
最后更新:2017-07-12 22:11:08