近日,德国奥斯纳布吕克大学认知科学学院的一项最新研究表明,人类在驾驶过程中做出的道德抉择并没有此前认为的那么复杂,或者说与环境的关联度不大。这项研究成果显示,人类驾驶员做出的道德选择,是在相对简单的以生命为基准的价值观指导下做出的。这意味着通过编程的方式令自动驾驶汽车做出合乎人类社会道德取向的选择,应该并不是件难事。
这项研究共有105名志愿者参与,所有人被放置于一处虚拟现实的场景中:雾天中你驾驶车辆在郊区中转悠,之后会出现一些需要作出两难选择的情节,你不得不在「是驾车撞向行人、动物还是无生命物体」之间进行抉择。
按照之前的假设,人类驾驶员在面对这三种情况时做出的选择,很大程度上取决于当时的环境,因此超越了计算机建模的能力。“不过我们发现事实恰恰相反,这种两难场景下的人类行为可以借助「相对简单的以生命为基准的价值观模型」进行建模,每一位实验参与者在遇到行人、动物或无生命物体做出的判断,基本上都遵循类似的规则。”这项研究的第一作者Leon
Sütfeld在接受《科学日报》采访时如是解释道。
此前,网络上曾有不少言论担忧自动驾驶汽车能否给人类社会带来好处。特斯拉CEO埃隆·马斯克是自动驾驶技术坚实的拥护者,他甚至“毫不客气地”回应那些不支持的人,称其“行为无异于谋杀”。马斯克认为自动驾驶汽车能够变得更智能,更中立,甚至要比人类更能开好车,避免更多严重交通事故的发生。
不过目前自动驾驶技术仍处于发展初期,至于能挽救多少生命取决于工程师如何进行编程,这也是奥斯纳布吕克大学这项研究要探寻的问题。不过如果我们期望自动驾驶汽车的表现要比人类更好,那又为什么要通过编程使其更像人类呢?
作为这项研究的主要作者,Gordon
Pipa教授解释称,“我们其实需要搞明白的是,自动驾驶系统是否应该做出基于人类道德标准的判断。如果需要的话,那么它们应该通过模仿人类的选择继而做出有道德的行为吗?或者说它们应该遵循一定的道德规则,那这样的规则又是什么?而且更关键的问题在于,一旦发生了不好的事情,又到底是谁应该承担责任呢?”
总的来说,人工智能的道德标准依然是道德范畴内十分模糊的领域。业界也在大量的尝试将一系列相关法律通过编程的方式来控制人工智能的行为。目前德国国土交通省已经制定了20条自动驾驶汽车应该遵守的相关规则。
那么未来自动驾驶汽车能够变得多安全取决于工程师如何进行编程,尽管这项任务并不简单,但先搞清楚人类驾驶员在不同的场景中是如何作出反应的,这是最关键的。
|