如果佛教僧侣训练人工智能

哈佛心理学家乔舒亚·格林是“手推车学”的专家,他谦逊地描述了他对“手推车问题”的多种变体的研究。“这个问题的基本形式很简单:有一辆手推车正朝五个人开过来,如果他们被击中,他们会死。但是你可以把手推车换到另一条只有一个人站着的轨道上。你应该做吗?

从这个简单的道德直觉测试中,格林这样的研究人员创造了一系列无穷无尽的变异。通过稍微改变条件,电车问题可以作为人类思想和社区的实证调查(尽管不是所有人都同意)。

例如,考虑人行天桥的变化:你和一个很大的人站在电车轨道上方的人行天桥上,如果你推他或她,他或她可以阻止电车杀死五个人。虽然挽救的生命数量是一样的,但事实证明,扔开关的人比推开关的人多得多。

但这并不是一个普遍的结果。格林星期三在阿斯彭研究所和大西洋联合主办的阿斯彭创意节上开玩笑说,只有两个群体可能会说,让这个人走上正轨是可以的:精神病患者和经济学家。

后来,他通过本科研究员辛祥的工作回到了这个话题,他在实验室写了一篇获奖论文,题目是“佛会推人行天桥的人吗?”?汉藏美道德判断与惩罚倾向的系统变异。“

向拉萨市附近的佛教僧侣传授人行天桥变体,并将他们的答案与汉族和美国民众进行比较。格林说:「[和尚]绝大多数人更可能说把这个人推出人行天桥是可以的。」

他指出,他们的结果与精神变态者(临床定义)和大脑中被称为前内侧前额叶皮层的特定部位受损的人相似。

「但我认为佛教僧侣正在做一些非常不同的事情。」“当他们做出这种反应时,他们说,‘当然,杀人是一件可怕的事情,但是如果你的意图是纯粹的,你真的是为了更大的利益,而不是为了你自己或你的家人,那么这是有道理的。“

对格林来说,使用开关而不是推人是我们生物进化的道德体系中的一种“缺陷”。

「所以你可能会看著人行天桥手推车的箱子,说:「好吧,把那家伙推出桥外,这显然是错误的。」这侵犯了一些人的权利。你把它们当作手推车的塞子等等。但开关箱没问题,”他说。“然后我走过来告诉你,你的反应很大一部分是用手推而不是按开关。你认为这在道德上重要吗?“

他等了一拍,然后继续说道。

「如果一个朋友在人行天桥上打电话给你,说: '嘿,有一辆手推车来了。我也许能救五条命,但我最终会杀人的!我该怎么办?你会说,‘那要看情况了。你是用手推还是用开关?“

在格林斯看来,人们应该争取的是道德上的一致性,而不是基于不应该决定人们生死的细节。

格林把他关于道德直觉的工作与当前的人工智能软件结合起来。即使他们没有或不会遇到像电车和人行天桥这样简单的问题,人工智能系统也必须嵌入某种伦理框架。即使他们没有为什么时候采取某些行为规定具体的规则,他们也必须接受某种道德观念的训练。

事实上,格林说,他目睹了谈论手推车的人激增,因为自动驾驶汽车即将出现在人造道路上。尽管格林说,汽车最有可能是不是应该牺牲车上的人来挽救更多的生命,但自主汽车似乎在电车问题上会面临一些变化。

同样,在这种情况下,人们并不持有一致的观点。他们说,一般来说,汽车应该是实用的,能挽救大多数人的生命。但是当谈到他们的特定汽车时,他们的感觉会发生变化。

所有这些玩具问题加在一起,构成了人类道德直觉的一幅(仍不完整的)画像,由于训练机器人的必要性,这种直觉正被强制转变成明确的形状。这是非常奇怪的。

格林希望我们在构建这些系统之前问自己的一个大问题是:我们知道是哪一个吗我们道德直觉的一部分是特征,哪些是缺陷?