阅读49 返回首页    go 阿里云 go 技术社区[云栖]


MIT新研究|如何让自动驾驶汽车做出道德选择


0?wx_fmt=jpeg

我们人类经常会犯这样那样的错误,不是把钥匙放在冰箱里之类的小错,就是把烤箱开上一整天这样的致命错误。我们通常会表现得鲁莽,健忘,自负,难以集中注意力——一些当我们以百公里时速驾驶一辆两吨重的金属机器穿越大街小巷时极为致命的特性。导致车祸的五大首要原因有四项可归结为人为失误。

电脑,相比之下,就有着极为务实的思维。它们以程序设定的,经过计算的方式来收集数据并作出反应。自动驾驶车辆已经显示出了相比人类驾驶更高的安全性。近几年人工智能方面的进步速度甚至使得一些专家预言2030年前人工驾驶将被非法化。

机械智能可能需要处理一些棘手状况:为了使某些人存活某些人必须得死。

不过,正如大部分司机所了解的,驾驶可能需要你在不到一秒内做出没有明确答案的抉择。

一只小松鼠冲到路上——你会冒着撞上其他车辆的危险突然转向,还是径直开过去并祈祷松鼠还活着?如果是狗呢?又或者是个罪犯?又或者是孩子?到底哪些生命是值得你冒险的?这些问题困扰着全球的研究者们。现在他们将从你们身上寻求答案。

“自动驾驶车辆现在已是大势所趋。”

麻省理工毕业生以及研究助理Sohan Dsouza告诉Digital Trends“这是件好事,大体上来说,因为它们每天将拯救无数正因人类司机的失误而丧失的生命并给无数没有驾驶能力的人带来独立的机动性。”

  0?wx_fmt=jpeg

为了达成这个目标,Dsouza,Edmond Awad,以及他们在MIT媒体实验室的研究团队开发了道德机器,一个使使用者接触道德抉择,询问他们一辆自动驾驶车辆应当如何应对的平台。每个场景都提供了一些背景要素,包括受害者的年龄性别,他们的社会地位,以及他们是否遵纪守法。参与者被要求在13个两难境地中做出抉择。这些结果被作为众包数据堆积起来,并在未来用于伦理仪器的开发中。在做出抉择后,用户还可以比较其他用户的选择,甚至设计自己的场景供他人解答。

“我们的主要目标之一就是在公众中引发争论,”Dsouza说“特别是引起用户,制造者,保险业者以及官方人员间的对话”

不是所有的车祸都可以避免,而自动驾驶车辆需要处理你死或是我亡可能性依然存在,很像是经典的哲学问题,即着名的电车变轨问题。

人们琢磨电车问题将尽50年了。其中,一辆列车正行驶在即将撞死五人的原轨道上。你有一个开关可以使列车变轨,使其只会撞死一人。你会干预还是袖手旁观呢?

“对于这些可能性很少有基于实验的研究,”Dsouza说,“介于此,我们需要制造一个平台来生成大量具有复杂因素的场景并以一种易懂易用且身临其境的方式把它们呈现给用户,以此来建立人们如何看待及其所做出的道德选择的模型。”

道德机器已经收集了在1100万场景中人们的答案。尽管团队还没开始对这些数据深入分析,但他们已经发现地区差异暗示了未来研究路困难重重。“平均下来,来自西部乡村地区的参与者更为重视减小伤亡数目的价值——也就是说,相比东部人,他们更赞同功利主义的选择。“

原文发布时间为:2016-10-11


本文来自云栖社区合作伙伴“大数据文摘”,了解相关信息可以关注“BigDataDigest”微信公众号

最后更新:2017-06-02 19:33:44

  上一篇:go  自然语言处理透析希拉里和特朗普各自的“演讲范儿”
  下一篇:go  Airbnb数据科学团队进化论:如何由内而外实现数据驱动