奇怪的方式你的政治影响你的道德

当有消息说我们最喜欢的政治家的错误行为时,另一方则不可避免地认为我们手上有丑闻。我们喜欢认为我们对逻辑的优越把握是使我们能够理解和拒绝对方的关切。

但是,我最近发表的一系列三项研究表明,这样的决定不仅仅是推理的结果。相反,感觉到对政治对手的道德厌恶迫使我们去帮助我们的团队“赢”的职位。这是真的,即使它意味着采取我们否则不同意的立场。

这就是一个简单的效果:想象你在选举日走进了一个冰淇淋店。你发现店里充满了你所反对的总统候选人的支持者,你们发现这个候选人的支持者在道德上是可恶的。当你到达线路的前方,工作人员告诉你所有的其他客户刚刚订购了红色天鹅绒 – 通常是你最喜欢的味道。

我的研究表明,当被要求下令时,你可能会感到有一种冲动,从你最喜欢的风味偏向一个你喜欢的人,在政治上偏向一个无关紧要的决定。

无论他们认为什么,都认为相反

要了解这里“敦促”的含义,这有助于了解Stroop效应。在这个经典实验中,人们看到一个单词,并被要求列出打印单词的颜色。当颜色和字匹配 – 例如,“红色”打印为红色 – 任务很容易。当颜色和字词不一致时 – 例如,“红色”印在蓝色中 – 任务更难。人们感到一种冲动,或者是“冲动”地意外地读这个词。这种冲动干扰了命名颜色的任务,什么是简单的任务会变得奇怪。

乔纳森·海德特(Jonathan Haidt)提出的道德理论认为,道德上的“盲目”的人们,以至于考虑到对方的观点是禁忌的。考虑到这个理论,我认为,道德厌恶可能是一种类似于Stroop任务中经历的敦促的非生产性推动的社会原因。也就是说,正如Stroop任务中的人们感受到不正确地阅读这个词的冲动,我认为强烈的道德信念可能会导致人们产生冲动,做出最大限度地与他们认为有不同道德的人的距离的决定。

测试如何工作

以下是我测试的方法:

我首先让人们做了几次Stroop试验,使他们意识到想要做出错误的想法。

接下来,我向人们询问了六个相当微不足道的消费者选择问题,例如偏爱汽车颜色(森林绿色对银色)或真空品牌(胡佛与恶魔)。

以下是这个问题:在回答每个问题后,与会者被告知大多数其他与会者回答了同样的问题。这个多数群体的身份是随机的。它可以是每个人都属于的组织(例如,美国人)或更政治化的团体(例如,特朗普的支持者,克林顿支持者或白人至上主义者)。

最后,我第二次向参与者介绍了一系列问题,并要求他们再次简单地陈述自己以前的答案。我还要求参与者评价他们改变答案的冲动 – 类似于在Stroop测试中发出错误的冲动。

这应该是直截了当的。

参与者没有被要求评估多数答案或以任何方式重新考虑他们的意见。不过,就像在Stroop任务中的干扰一样,知道多数答复使人们觉得有错误的答案。

当参与者属于多数群体时,他们报告说,当他们以前不同意大多数人的时候,他们报告提出了一个错误提示。尽管刚刚被要求重复他们刚才所说的一个相当微不足道的意见问题,他们觉得有一个遵守的冲动。

同样地,当大多数团体的参与者对道德厌恶感到厌恶时,他们表示高度的呼吁,当他们同意这个团体的时候出错。换句话说,参与者的初步回应现在在道德上“污染”,即使对于这些相当无关紧要的问题,他们也觉得放弃这种反应并且远离对手的冲动。这种冲动使得他们的意见再次略微更加困难。

“蜂巢头脑”和被动效应

由于美国在历史上比任何其他观点都更加意识形态地分裂,这些结果揭示了政治两极分化背后的心理学两个方面。

首先,人们可能会认为他们能用他们的推理来决定是否说最低工资增长会产生积极或消极的后果。然而,在这个问题的任何审议思想开始之前,道德冲动可能已经推翻了人们对待对手的不同意见。

其次,这里观察到的效果可能是被动的过程。参与者不想感到有兴趣在Stroop任务中发生错误,他们可能不希望在我的学习中担心自己的意见。敦促由于道德驱动的心理学而发生。

这些结果表明,将边缘附近的工作更接近中间的可能性将不大可能。更乐观的解释是,两极分化可能源于无意的党派敦促。虽然不存在导致两极分化的道德问题,但两极分化并不一定是由于涉及的恶意。

发表评论

电子邮件地址不会被公开。 必填项已用*标注