自动驾驶遇瓶颈 遇到「道德困境」只会煞车?

  • A
  • A+
  • A++
2016-09-02

近年来,自动驾驶的技术越来越完整,在技术上,无人车应该不会遇到什么太大的问题,但看似正常没问题的时候,Google发现了一件找不到用「科技」解决的问题-道德困境。

 

自动驾驶遇瓶颈 遇到「道德困境」只会煞车? | 文章内置图片
(图/取自网路)

 

道德困境,是指机器能否在「一定会造成伤害」的状况当中,做出「伤害最小」的决定,网路上有许多例子,像是火车驾驶开在主线上,是要朝向主线的五个孩子驶去,还是前往只有一个孩子的废弃铁道上?

 

Google的首席工程师Andrew Chatham表示,当电脑不知道哪个是最佳选择时,唯一的做法就是「放慢速度」,但也坦承,这不会是最好的答案,路上状况变化多端,如果真的以「煞车」作为唯一选择的话,那么一定有着相当危急的情况,更别说那些煞车解决不了的情况了。对此,Google的技术总监Ray Kurzweil也表示,这个问题目前没有答案,如果告诉电脑「不能杀人」这样的答案也过于笼统,无法有较好的解释。而若输入「机器人不得伤害人类、也不能不作为使人类受伤害以及必须服从命令」的机器人三法则,也必须创造出不互相违背的规定,可说是相当复杂的问题。

 

自动驾驶遇瓶颈 遇到「道德困境」只会煞车?
(图/取自网路)

 

但为了解决这问题,美国麻省理工学院将会进行一连串的调查,分析人们在面对到道德问题时会如何做选择,进而让电脑学习判断,但要在多久之后才可以实际应用在物品上,可能还得花上一段时间。

 

【101传媒/整理报导】

 

-------------------------------------------------------

文章内容若有侵权疑虑,请来信告知。

客服信箱:[email protected]

 

 

免责声明:

部分图片、观点,来源于网际网路及其他网路平台,主要目的在于分享讯息,让更多人获得需要的资讯,其版权归原作者所有。如涉及侵权请告知,我们会在24小时内删除相关内容。

 

 

  • 本文评论:
延伸阅读