英国研究发现机械人面对道德两难时往往取舍不当

(神秘的地球报道)人工智能科技一日千里,科学家希望机械人可投入救援工作,减轻人命伤亡。不过,英国近日进行机械人救人实验,测试机械人是否能阻止人类堕坑,结果发现机械人面对道德两难时,往往取舍不当,半数时间任由机械人扮演的“人类”死亡。科学家对机械人的道德判断能力仍有疑虑,忧心无人车等人工智能产品,未必能保护用家性命。

电影《机械公敌》中,机械人救人只据程式计算,不管人情道德,令人印象深刻。西英伦大学的工程师温菲尔德称,他们想知道机械人能否在生死关头拯救人类,故此以输入救人观念的“道德机械人”作实验,而其他机械人则扮演即将跌入坑洞的人类。当道德机械人看到一名“人类”正步入陷阱时,会立即将其撞开,以阻止其前进。不过当面对2名人类时,只见它站在原地犹豫,然后走开,2“人类”一并堕坑。
  
温菲尔德说,道德机械人面对2名“人类”时,会疑惑不知应救哪1人。在33次试验中的半数时间,即使有充裕时间,它仍无法救人,成为“道德丧尸”。它有时会救出其中1人,其中3次则突破潜能,将2名“人类”一同救起。

实验中的“道德机械人”未能拯救人类

实验中的“道德机械人”未能拯救人类

“道德机械人”陷入两难

“道德机械人”陷入两难

《机械公敌》剧情围绕人类与机械人的关系

《机械公敌》剧情围绕人类与机械人的关系

《机械公敌》剧照

《机械公敌》剧照

《机械公敌》中的机械人威胁人类安全

《机械公敌》中的机械人威胁人类安全

无人驾驶汽车即将问世,它由中央电脑全自动控制,为人带来便捷生活,今次实验却反映人工智能在遇上突发交通状况时,未必可作出符合人类道德的应变。有伦理学者提出,自动汽车遇上如儿童挡路,究竟应该撞上去以保车上的人安全,还是扭軚、舍乘客之命以救路人,如此重大问题的未必能交由予无人车决定。有调查发现,77%受访者认为这重大决定应交在用户手上。

同是人工智能产品,美军研发的战争机械人以攻击为目标,美军更声称它比人类士兵更道德,因为它不会在愤怒和仇恨情绪驱使下滥杀无辜。不过外界仍忧虑战争机械人会失控,导致人类灭亡,联合国呼吁各国停止研发。





上一篇 下一篇 TAG: 机械人