如何成为更聪明的人
上QQ阅读APP看本书,新人免费读10天
设备和账号都新为新人

怎样识别不可靠直觉

直觉在我们的思考中扮演着重要而有价值的角色,因此我们必须知道,什么时候可以依赖自己的直觉,什么时候需要深思熟虑。丹尼尔·卡尼曼描述了这两种思考方式的不同:

•系统1思考——快速,依靠直觉。

•系统2思考——缓慢,内省,更审慎。

在意识到直觉所提供的答案并不可靠时,我们就需要启动系统2思考。那么,我们应该警惕哪些直觉呢?

叙述谬误

我们生活在一个不确定的世界里,但我们描述的故事却并非如此。为了理解陌生经验,消除焦虑,我们会编造出一些更具有说服力的故事,强迫自己把可识别的行为纳入其中,创造出事件的前因后果。我们会避免使用抽象词汇,用词尽可能具体。在日常生活中,我们对这些故事耳熟能详,每个人的特质、意图和个性也表现得很清楚,所以在经过处理之后,它们已经变得熟悉而可预测了,我们很容易就能理解这些陌生的麻烦事。

这就是系统1思考方式。它的主要任务就是将事情简化为熟悉的事件,让它们具有意义。从很大程度上说,它是一种杜撰,在这些故事里,各个因素互为因果。然而,对于无关联的事实而言,这是一种无效的思考方式,如数据。因为数据之间不存在因果关系,也不具备相似的个性特质。

可预测性和可控性是一种假象

更重要的是,叙述喜欢给我们提供一种可预测感和确定感:我们知道事情怎样发生,我们可以控制它们,预测它们的结果。受其影响,我们就会低估运气和“黑天鹅效应”造成的影响。

诺贝尔奖得主及免疫学家彼得·梅达瓦(Peter Medawar)爵士指出,这种言谈“只不过是帷幕升起时,我们在人们眼皮底下所选择呈现的姿态”。它只在表演时才行得通,因为“只有当我们回顾整个思考过程时,你才可以让它显现出这种模样”。事实上,科学发明是一种创造,误打误撞地开始,过程一片混乱,到处都是死胡同,柳暗花明只是偶发事件。

举例

科学进步通常是不可预测的,但是为了理解它们,我们却常常扮演着事后诸葛亮的角色,将它们合理化,把它们看作必然事件,好像它们的发现可以用一种简单的逻辑来解释。事实上,科学家们自己也认为,这种对科学方法的合理化并不是事实的反映,而是一种想当然的情况。

运气、“黑天鹅效应”和不确定性

然而,这并不是说这之中就不存在因果关系,因果关系当然是存在的。只是在寻求简单、存在因果关系的故事中,系统1思考总会过度简化,甚至完全忽略证据的存在。事后的合理化造就了一个假象,让我们误以为一切尽在掌握之中,一切都是确定的。如此一来,我们就会忽略运气造成的影响。纳西姆·塔勒布指出:

历史和社会并非缓慢前行,它们大步飞跃。它们是一些互不相关的断层,中间的联系寥寥无几。然而,我们(和历史学家)却相信可预测性,把它看作一个渐进的过程……我们只是一群事后诸葛亮……人类就是喜欢这样自欺欺人。

系统1思考用同化事物的方式赋予其意义。它们只是一些颇具说服力的故事,带有可识别的特征和特质。它们为我们造就了可确定、可预测、可控制的假象。

终极检测

当然,对于任何解释的最终检测都基于我们能否很好地预测这件事。编造这些令人信服的故事时,系统1思考给我们以安全感,让我们以为自己可以预测事件,并为之做好准备,然而事实却并非如此。

没有人会比当权者更应具有预测能力、更能够预测出对大家造成影响的事件了,但是在2007年经济危机爆发的前夜,首相戈登·布朗(Gordon Brown)和反对派领导人戴维·卡梅隆(David Cameron),都没能预料到即将发生的事。戈登·布朗甚至还宣称,银行家们用自己的聪明才智和创造力“开创了新的世界秩序”,我们有幸生活在“将被历史称为新黄金时代开端的时代”。

同样,银行系统明明已破绽百出,戴维·卡梅隆还信心十足地宣称,银行家们努力地创造出了一种新的世界经济。他宣称,世界经济现在已经达到了前所未有的稳定状态。

举例

还记得塔勒布的例子吗?他说,如果我们生活在1914年,我们很难猜测这一年里将要发生的事。战争爆发前期,大多数人脑子里想的都是快速行军的队伍,战士们在空旷的阵地里英勇作战,荣耀加身。他们万万不会想到战场只是弹丸之地,大家挤在泥泞的战壕之中,在弹坑中垂死挣扎,四周都是围着铁丝网的无人之地。

不可靠直觉

综上所述,叙述谬误影响着我们对风险和概率的评估。我们创造的因果故事让我们信心十足,我们很难再去相信未来的不可预测。很少有人明白,事后能够弄清楚的问题,事前未必就可以预测。系统1思考给我们的信心是主观的,它来源于我们的故事,而不是对问题理性的分析和评估。不可靠的直觉认为事后可以弄清楚的问题,事前也可以预测。

简化启发法

最不可靠的直觉反应多源于用一个问题代替另一个问题。我们没有深入地思考这个问题,也没有去分析它的含义,而是转向了另一个更简单的问题。在实验中,在被分派去分析事件概率并做出预测,评估某种情况发生的频率,或估计一个假设的信度时,被试者常常会忽略相关的数据信息。相反,他们会依附类似的启发或从过去经验中得到的原则,去简化这个问题。

代表性偏差

其中一种形式就是用相似的简单问题代替复杂问题。刻板印象便是典型例子。我们把一个特殊的群体设想成一种模样,并且在一段时间内认为这个群体内的每个个体都是这样。

试一试

你在公交车上看到一个人正在读哲学季刊《心智》(Mind),你会选择下列哪个答案:

1.她是一名哲学博士。

2.她没有学位。

我们大部分人都会选择答案1,因为这个答案更符合我们对读哲学学术刊物之人的一般看法。但是,更可能的选项却是答案2,因为不是哲学博士的人比哲学博士更多,所以我们在公交车上遇到前者的可能性比后者更大。

试一试

阅读下列描述,然后按其可能性从最高至最低的顺序排列下列8项描述。

琳达,31岁,未婚,阳光外向,哲学学士。她非常关注歧视问题和社会公正问题,她还参加过许多反核游行。

a.琳达是一名中学老师。

b.琳达在一家书店工作,练习瑜伽。

c.琳达热心于女权运动。

d.琳达是精神病治疗社会工作者。

e.琳达是妇女选民联盟的一员。

f.琳达是一名银行出纳。

g.琳达是一名保险销售人员。

h.琳达是一名银行出纳,并热心于女权运动。

现在,检查一下你排列的顺序,看看你是否将h项排在f 项前面。如果是这样,其实这样做的不只你一个人。特维斯基和卡尼曼曾把这道题拿给英属哥伦比亚大学的大学生做,92%的人都把h项排在f 项前面。他们也把这道题拿给了斯坦福大学商业学院的研究生做,83%的人选择了相同的排列顺序,要知道,他们所有人都曾学过概率和统计的高级课程。另几所重点大学的本科生也一样:85%~90%的人都把h项排在f 项前面。

这是一个“合取谬误”的例证:我们认为,两件事情共同发生的概率要大于其中的一件。但是,合取原则却说明两件事情共同出现的概率要小于其中一件事单独出现的概率。下图就清楚地说明了这一点:

A=银行出纳         

B=银行出纳,并热心于女权运动

代表“女权主义银行出纳”的圆圈完全被包含在“银行出纳”的圆圈之中。因此,琳达是“女权主义银行出纳”的概率要低于她是“银行出纳”。说得更简单一点,世界上的“银行出纳”要多于“女权主义银行出纳”。这就说明一个事物所受限制越多、越具体,它出现的概率就越小。

相似是一种非常强烈的直觉。我们选择的答案总会结合最多的个性特质,因为这些特质会制造出貌似最连贯、最合理的故事。这比计算概率要容易多了。但是,这却是错误的答案。试想一下,通过这种方式用近似性来代替概率可能会制造出严重的错误预测,特别是在涉及刑法和审议的情况下。

•我们用简单的问题代替复杂的问题。

•我们不问可能性,只查看相似性。

•合取谬误:我们认为两件事共同发生的概率比单独一件事更大。

信念偏差——共享假设

同样,我们每个人都持有某些信念和假设,并用它们来解读自己的经验,赋予它意义。它们是决定的基础,告诉我们哪些事情是可能的,哪些事情是不可能的。特定领域的学者们常常会分享相同的基本假设。社会学家普遍对人性有一种看法,他们认为个体就是一种理性和自私的存在。很少有人会质疑这种观点。

这通常会影响我们的演绎推理能力。在一项研究中,参与者需要从两种陈述中按逻辑演绎出某种确定结论。

举例

《科学革命的结构》(The Structure of Scientific Revolutions)是托马斯·库恩(Thomas Kuhn)的名作。在这本书中,他把科学进步描述为一系列的革命,一种强大的理论,一个范式,一种超越一切的成功。新范式把基础建立在研究的基础之上,定义了其广义假设:它的目标,需要去解决的问题,以及所使用的方法。

后来,科学家们习惯了库恩所描述的“常规科学”。他们把真理范式看成理所当然的东西,不愿去证伪,而把精力集中在它所定义的问题之上,去证实它,把它看作找到解决方法的保障。

试一试

我们假设每个描述都是正确的,那么,请你想一想,由此得出的结论一定是正确的吗?


警犬都不是恶狗。

一些训练有素的狗很凶恶。

所以,一些训练有素的狗不是警犬。


所有营养物品都不廉价。

有些维生素片很廉价。

所以,有些维生素片没有营养。


所有令人成瘾的东西都不廉价。

有些香烟很廉价。

所以,有些可令人成瘾的东西不是香烟。


所有百万富翁都不是勤奋工作的人。

有些有钱人是勤奋工作的人。

所以,有些百万富翁不是有钱人。

答案是前两个推论成立,后两个不成立。

如果你对此答案感到惊讶,那么你很可能已经落入了信念偏差的泥沼:你认为先验信念比论点的逻辑性更重要,因为按照先验信念,第一题和第三题的结论是可信的,而第二题和第四题的结论却不足为信。研究者发现,当有效性和可信性发生冲突时,人们常常会给出错误的答案。如果论点成立,但结论不可信,那么只有55%的人会接受这个观点。当论点不成立,但结论可信时,70%的人都会接受它。

•决定我们答案的是先验信念,而不是论点的逻辑性。

•先验信念是我们判断事情可能性的基础。

锚定效应

与先验信念一样,如果我们在评估某个量之前,对这个量有一个预先印象,那么我们的评估值就会接近大脑中的这个数字。系统1思考竭尽所能在创造一个世界,在这个世界之中,我们预想的数字——这个锚定数字——就是真实的数字。

•先入为主的概念极大地影响着我们的评价,使我们无暇顾及其他因素。

•系统1思考影响着我们的判断,使其符合锚定目标。

举例

人们要求一些房地产中介对一幢房子的价格进行评估。他们会得到一些相关信息,其中就包括卖主的要价。其中一半中介得知的“锚定价格”比原价要高,而另一半得知的要低。接着,人们要求他们设立一个合理的价格。当被问及影响他们判断的因素时,没有人提到这个给出的要价。他们都坚信自己没有注意到这个要价,他们依赖的是自己的专业知识。但是,那些得知低价格的中介人比那些得知高价格的人所给出的平均价格要低得多,只是后者的41%。看来,就算是接受过专业训练,我们也不能摆脱锚定效应的影响。

可得性启发法

当有人要求我们评估事件的发生频率时,我们倾向于回顾记忆中的实例,给出答案。于是,回忆的难易便成为我们判断其频率高低的决定因素:如果我们能轻而易举地回忆起发生的实例,频率自然就高。这一次,我们又是用一个问题代替了另一个问题:我们不是评估事件发生的频率,而是在报告从记忆里提取实例的难易程度。

举例

许多人都不会否认,我们对飞行是否安全的判断受到空难报道的影响。媒体和报纸上铺天盖地的宣传会在一段时间内影响我们的评判。

同样的事情也会发生在我们对街道进行安全评价时。我们读到一些吓人的故事,说我们这一片区有人行凶抢劫,于是晚上出门时我们就会担心害怕。这时,我们需要的是启动系统2思考,反驳直觉,并重新评估这些预测。

•我们回忆实例的难易程度,影响着我们对事件频率的判断。

•我们用容易的问题替换难题。

举例

苏格兰皇家银行成功地收购了一些小银行,所以在决定收购荷兰银行时,可得性启发法无疑增强了它的自信。它没有过失败的经历,就容易低估其中的风险。

情感启发法

情感启发法或许是我们最耳熟能详的启发法了。与其他方法一样,我们用简单的问题替换掉难题。在这种情况下,简单的情绪反应会取代复杂的判断和决定,并给出答案。我们不再审慎思考,深思熟虑,只遵循直觉,根据爱憎来判断。

这也许就是我们在思考问题时经常犯的错误。就算是训练有素的专业人士在回答复杂问题时,也会有依赖情感反应的时候。加纳·斯利瓦斯塔瓦(Ranjana Srivastava)是一名肿瘤专家,他提到,有人指名道姓要某位医生为他治病,仅仅是因为“感觉这个医生很棒”。

•我们把情感反应当作答案,不再审慎思考。

•系统1思考热衷于直觉反应,根据爱憎来判断。

举例

一个学生决定申请哪所大学?在这种情况下,她应该问自己:“达勒姆大学是所好学校吗?”然而,她提出的却是另一个问题:“我以前去达勒姆时开心吗?”

所有这些不可靠直觉都是我们敏捷思维路上的绊脚石。我们被局限在其套路中无法自拔,因此我们很难进行逻辑思考、处理数据、评估风险和概率,也很难运用自己的想象去创造独一无二的观点和解决方案。总之,它桎梏了我们的巨大潜力。

在接下来的章节中,你将学到怎样去释放这些潜能,特别是学会怎样运用系统2思考创造出更多自己的想法,进行概念思考和创造思考,更好地评估风险和事件发生的概率,从而做出合情合理的决定。