首页 > 古典文学 > 今日简史 > 第一部分 科技颠覆 第三章 自由:数据霸权与社会公平

第一部分 科技颠覆 第三章 自由:数据霸权与社会公平(1/2)

目录

就自由主义看来,人类的自由是最重要的价值,所有权力都来自个人的自由意志,表现在每个人的各种感受、欲望和选择之中。在政治上,自由主义相信“选民能做出最好的选择”,所以它赞成民主选举。在经济上,自由主义相信“顾客永远是对的”,所以它拥抱自由市场的原则。而在个人方面,自由主义鼓励每个人“聆听内心的声音,随心所欲”,只要不侵犯别人的自由就行。于是,人权便将这种个人自由的概念奉若神明。

在西方的政治论述中,“自由主义者”(liberal)的用法有时候比较狭义且偏颇,特指支持同性婚姻、枪支管制、堕胎等特定议题的人。然而,就算是所谓的保守派,其实也会接受广义的自由主义世界观。特别是在美国,共和党人和民主党人都该偶尔停战一下,想想彼此不是都同意人权、自由选举和司法独立之类的基本原则吗?

特别值得一提的是,像里根与撒切尔夫人这样的右翼名人,除了积极提倡经济自由之外,同时也坚定地拥护个人自由。撒切尔夫人在1987年的一次著名访谈中曾表示:“没有‘社会’这种东西。生活就是由男男女女交织而成……生活质量如何,取决于每个人准备为所有人承担多少责任。”

撒切尔夫人的保守党后辈的想法也和工党完全一致,认为政治上的权威来自每个选民的情感、选择与自由意志。因此,英国要决定是否脱离欧盟的时候,首相卡梅伦并不是去征询英国女王、坎特伯雷大主教、牛津大学或剑桥大学的意见,也不是去询问议会议员,而是直接举行全民公投,问所有的英国人:“你感觉该怎么做?”

有人可能会提出反驳,认为当时问的是“你怎么想”,而不是“你怎么感觉”。这是一种常见的误解。所有的公投和选举,诉诸的永远是人类的“感觉”,而不是人类的理性。如果民主谈的就是理性决策,那么哪还有理由让人人都享有平等的投票权?甚至还投什么票呢?早就有充分的证据显示,就是有一些人比别人学识更渊博、更具理性,特别是讲到特定的经济和政治问题时更是如此。英国脱欧投票之后,著名生物学家理查德·道金斯(richard dawks)就提出抗议,认为绝大多数英国民众(包括他自己)其实都缺乏必要的经济和政治科学背景,根本不该要求他们投下这张公投票。“这岂不就像是要用全国公投决定爱因斯坦的代数算得对不对,又或是让乘客表决飞机驾驶员该在哪条跑道降落?”

但无论如何,选举和公投的重点并不在于我们怎么“想”,而在于我们怎么“感觉”。讲到感觉这件事,爱因斯坦和道金斯也并不比其他人更强。民主的概念认为,人类的感受反映出一种神秘而意义深远的“自由意志”,而这就是权威的本源;虽然每个人的聪明程度高下有别,但自由程度一律平等。就算是一个不识字的女佣,也和爱因斯坦和道金斯一样有自由意志,因此到了选举日的时候,她的感受(表现在她投的选票上)也就与其他任何人一样重要。

感受所影响的不只是选民,还包括领导者。在2016年的英国脱欧公投中,脱欧派由鲍里斯·约翰逊(boris johnn)和迈克尔·戈夫(ove)领头。卡梅伦辞职后,戈夫原本支持约翰逊担任首相,却在最后一分钟反悔,宣称约翰逊并不适任,自己将出马竞选。戈夫打乱了约翰逊的一盘棋,有人认为这是不择手段的政治暗杀。但戈夫的辩词是诉诸自己的感受,他解释道:“在我的政治生涯里,每走一步我都自问:‘什么是我该做的?我的心怎么说?’”根据戈夫的说法,他就是因此才铆足劲儿推动英国脱欧,也因此不得不在背后捅自己过去的盟友约翰逊一刀,由自己竞逐龙头宝座。一切都是因为:他的心是这么说的。

这种对“心”的依赖,可能就是自由民主的致命弱点。一旦有人研发出相关技术,能够攻入并操纵人心,民主政治便将成为一场情感丰沛的木偶戏。

听算法的就对了

自由主义相信感受,相信自由选择,但这些概念其实并不自然,也称不上久远。过去曾有几千年的时间,人类相信权威来自神o,而非来自内心,该推崇的是神的话语,而不是人的自由。到最近几个世纪,权威的来源才从天上的神变成有血有肉的人。

然而很快,权威的来源可能再次改变:从人类转到算法。在过去,神的权威是靠宗教神话建立的,人的权威是靠自由主义这套故事建立的。至于即将到来的技术革命,则可能建立起大数据算法的权威,同时完全推翻关于个人自由的信念。

正如前一章中提到的,对于人脑和人体运作方式的科学研究显示,人类的种种感受既不是什么人类独有的精神灵性,也不代表什么“自由意志”。所有的“感受”只是所有哺乳动物及鸟类都拥有的生化机制,用来快速运算生存和繁殖的概率。“感受”的基础也不是直觉、灵感或自由,而是运算。

猴子、老鼠或人类看到蛇的时候会感受到恐惧,是因为大脑里的几百万个神经元迅速计算了相关数据,并得出“死亡的可能性很高”这个结论。而根据另一套生化算法的计算,如果发现有很大的可能性和附近的某个个体成功交配、建立社交连接或达成其他令人渴望的目标,性吸引力的感受就会上升。至于愤怒、内疚或宽恕之类的道德感受,则是源于与团体合作相关的神经机制。所有这些生化算法都经历了数百万年的进化打磨。如果某个古代祖先的感受犯了某个错误,塑造这些感受的基因就不会再传给下一代。因此,感受并非与理性背道而驰,而是体现了进化上的理性。

我们通常不会意识到各种感受是出于运算,原因在于这些快速的运算远不在我们的意识阈值范围内。我们感觉不到大脑里几百万个神经元在怎样运算着生存和繁殖的可能性,于是就有了一种错误的想法,以为我们对蛇的恐惧、对伴侣的选择或对欧盟的看法是出于什么神秘的“自由意志”。

然而,虽然自由主义在“种种感受反映出人类的自由意志”这一点上犯了个错,但直到今天,依靠情感来做决定仍然有很好的实际意义。因为,虽然各种感受并没有什么神奇或自由的地方,但讲到该学什么专业、该跟谁结婚、该把票投给谁,“靠感受”仍然是最好的办法。而且,也没有什么外部系统能够比我们自己更了解自己的感受。就算中世纪的西班牙宗教法庭或苏联的秘密警察每分每秒都在监控我的一举一动,他们还是少了必要的生物知识及运算能力,他们无法攻进我的身体,也无法了解种种生化程序是如何塑造我的欲望和选择的。所以实际上,大可直接说人有自由意志,因为人的意志主要是由内在力量的相互作用形成的,这是任何人都看不到的。于是,我可以骗自己说我掌控了自己神秘的内在领域,外界永远无法真正理解我内心正在发生的事以及我如何做出决定。

因此,自由主义要人们追随自己的内心,而不是听什么祭司或政客说的话,其实也没错。然而,计算机算法很快就能给你比“人类的感受”更好的建议。随着西班牙宗教法庭和苏联的秘密警察让位给谷歌和百度,“自由意志”大概就会被拆穿,自由主义的实用价值也随之降低。

我们现在正处于两次巨大革命的交汇中。一方面,生物学家正在揭开人体(特别是大脑和人类感受)的种种奥秘;另一方面,计算机科学家也让我们获得前所未有的数据处理能力。生物技术革命与信息技术革命融合之后,大数据算法有可能比我更能监测和理解我的感受,而掌控一切的权威也可能从人类手中转移到计算机手中。如果我每天遇到的各种机构、企业和政府都能了解甚至操纵过去我以为没有外人可进入的内心世界,我大概也就不会再以为自己有自由意志这种东西。

医学领域已经如此。我们生命中最重要的医疗决定,并不是取决于我们自己是否觉得健康,甚至也不是看医生做出什么判断,而是要看比我们更了解我们身体的计算机得出怎样的运算结果。再过几十年,大数据算法就能通过持续的生物统计数据流,24小时监测我们的健康状况。早在我们出现任何感觉之前,算法就能监测到流感病毒、癌细胞或阿尔茨海默病的蠢蠢欲动,接着就能针对每个人的体质、dna(脱氧核糖核酸)和性格,量身推荐适合的治疗方案、饮食和养生之道。

这样一来,人类将能够享有历史上最佳的医疗保健服务。但也正因为如此,人类大概永远无法摆脱生病这件事。毕竟,身体总会有什么地方不在最佳状态,也总有什么地方是能够改进的。在过去,只要不觉得痛或没有出现像跛脚之类的明显失能,人们就会觉得自己是健康的。但到了2050年,有了生物传感器和大数据算法之后,可能早在疾病造成疼痛或失能之前,就能得到诊断并开始治疗。这样一来,你会发现自己老得面对一个又一个“病症”,得遵守这个或那个算法建议。不想听算法的?那么医疗保险就有可能被取消,或者会被公司解雇。毕竟,为什么他们要为你的固执己见付出代价呢?

例如抽烟这件事。现在只是有个整体的统计数据,告诉你抽烟和肺癌有关,你要继续抽是你自己的选择。但以后可能会有个生物传感器明确警告你:刚刚在您的左上肺检测到17个癌细胞。这时候你要继续抽烟,情况就完全不同了。如果你不理会传感器的警告,传感器就把警告转发给你的保险公司、你的领导和你的母亲,你该怎么办?

谁有足够的时间和精力去面对所有的大小疾病?我们很可能会干脆直接告诉健康算法,大多数时候它觉得该怎么办就怎么办吧!于是它大概只会定期把近况通知发送到我们的智能手机上,告诉我们“已监测并消灭17个癌细胞”。整天担心自己生病的焦虑症患者或许真的会去看这些通知,但大多数人大概只会一眼扫过,就像我们现在懒得细看那些烦人的反计算机病毒通知一样。

“决策”这出戏

医疗领域已经发生的事,很可能即将延伸到越来越多的领域。扮演关键角色的发明就是生物传感器。在人们将它们穿戴上或植入人体之后,生物传感器就能将各种生物程序转换成计算机能够存储、分析的电子信息。只要有了足够的生物统计数据及运算能力,外部的数据处理系统就能进入你的身体,得知你所有的欲望、决定和意见。换言之,它们能够完全知道你是怎样的人。

大多数人并不太了解自己。我是到了21岁,才终于走出几年的自我否认,意识到自己是同性恋。而我绝非特例,许多同性恋男性在整个青少年时期都无法肯定自己的性取向。现在想象一下2050年的情况,或许有算法可以告诉青少年他位于同性恋(或异性恋)光谱的哪个位置(甚至还能告诉他这个位置有多容易受影响而移动)。或许,这个算法会先显示出一些性感男女的照片或影片,再追踪你的眼球移动、血压和大脑活动,只要短短的5分钟,就能找出你在金赛量表上的数字。如果早有这种程序,我就不用那么多年都活得如此受挫了。或许你并不想做这种测试,但有那么一天,你和一群朋友一起去参加另一个朋友的无聊生日派对,有人提议所有人都来玩玩这个超酷的新算法。做测试的时候所有人都在围观,还会对结果七嘴八舌,你要直接掉头走人吗?

就算你真的掉头离开,继续躲着自己、躲着同学,你也躲不过亚马逊、阿里巴巴或秘密警察。每当你浏览网站、看youtube视频、阅读社交媒体的动态,算法都会偷偷监控你、分析你,再告诉可口可乐公司,如果要卖给你碳酸饮料,该用的广告模特儿是拥有8块腹肌的猛男,而不是身材火辣的美女。你对这些完全一无所知,但它们对这一切却了如指掌,而且这些信息可以卖几十亿美元。

但同样,或许这一切将会是完全公开的事,所有人心甘情愿地分享自己的信息,以获得更好的建议,最后直接让算法为他们做出决定。一开始只是些简单的事,比如该看哪部电影。打算和一群朋友一起坐在电视机前,共度一个愉快的晚上吗?首先就要决定看哪部电影。或许在50年前你别无选择,但今天有了各种随选即看的服务,足足有几千部电影任你挑选。这下要让大家意见一致就难了,可能有人喜欢科幻惊悚片,有人喜欢浪漫喜剧片,有人又说要看法国艺术片。到头来妥协的结果,可能就是挑了某部无聊的b级电影,人人都不满意。

此时算法可以派上用场。只要告诉它,你们每个人以前最爱看的是哪几部电影,算法就能根据其庞大的统计数据库,找出最适合你们这群人的完美电影。但遗憾的是,这样的算法还太粗糙,容易出错,特别是大家都知道,自己说喜欢什么,常常并不能反映出你真正的喜好。常有的事情是,我们听到很多人说某部影片真是神作,觉得不看不行,结果自己看到一半就睡到不省人事,但事后觉得可不能让人认为自己是个俗人,所以还是要向大家声称这部片子真是太好看了。

这种问题也是可以解决的:与其根据我们自己提供的不可靠信息做决定,不如允许算法在我们看电影的时候收集实时数据。算法可以直截了当地监控我们看完了哪些电影,又有哪些是中途就放弃了的。就算我们告诉所有人《乱世佳人》(gone with the d)真是史上最棒的电影,但算法知道我们从来就没能观看此片超过半小时,根本没看过片尾亚特兰大陷入火海的场景。

算法能做的远远不止这些。工程师正在研发软件,希望能通过人类眼部及脸部肌肉的动作来监测情绪。这样一来,只要在电视机上再装一个足够好的摄像头,这种软件就能知道哪些场景让我们发笑,哪些场景使我们哀伤,又有哪些场景令我们感到无聊。再进一步的做法,如果算法能够与生物传感器连接,算法就能知道每个画面如何影响我们的心跳、血压和大脑活动。假设我们看着昆汀·塔伦蒂诺(ent taranto)的《低俗小说》(pulp fiction),算法可能会发现,那个强奸场景让我们起了一点儿难以察觉的性兴奋;文森特不小心一枪爆了马文的头,我们知道不该笑,但都笑了;还有那个关于大魔法师汉堡(big kahuna burr)的笑话,其实我们看不懂,但都赶快跟着笑,以免被别人发现。人在假笑的时候,运用的大脑回路和肌肉其实和真心大笑不同,虽然人类通常察觉不到,但这个细节生物传感器可不会放过。

英文单词“television”(电视)的语源,分别来自希腊文的tele(远),以及拉丁文的visio(视界),原本是要让我们可以看到远方的事物,但很快就可能是让别人从远方看见我们。正如乔治·奥威尔(e orwell)在《一九八四》中的想象,我们看着电视的时候,电视也正看着我们。等到我们把整部《低俗小说》看完之后,可能早就忘了大半情节。然而,网飞(flix)、亚马逊或任何拥有这套电视算法的人,将会知道我们的性格类型,也知道怎样能触动我们的情绪。有了这些数据,网飞和亚马逊除了能帮我们挑片挑得精准无比,更能够为我们做出人生中最重要的决定,比如该读什么专业、在哪里工作、和谁结婚。

当然,要求亚马逊永远不犯错,那是不可能的事。不管是因为数据不足、程序错误、目标定义不明,还是生命本来就是一团混乱,总之各家算法一定会时不时犯下各种错误。然而,亚马逊并不需要做到完美,只要能比我们这些人类强就行了。而且这并不难,因为大多数人并不太了解自己,也总是在做人生最重要的决定时犯下可怕的错误。比起算法,人类因为数据不足、程序错误(基因或文化上)、目标定义不明、生命一团混乱而犯下错误的机会,实在有过之而无不及。

谁都可以列出算法面临的许许多多问题,并由此得出结论:人类永远不会信任算法。这有点儿像列出民主的所有弊端,然后得出结论:任何一个有理智的人都不会支持这种制度。丘吉尔曾有一句名言,说除了其他所有制度之外,民主是全世界最糟糕的政治制度。不论是对是错,人类都可能对大数据算法得到相同的结论:虽然算法漏洞百出,但我们并没有更好的选择。

随着科学家越来越了解人类的决策机制,对算法的依赖可能也会越来越强烈。掌握人类的决策机制之后,就能提升大数据算法的可靠性,但同时也降低了人类感受的可靠性。而当政府和企业都能够成功进入我们这套人体操作系统时,人类就将面临铺天盖地的种种精准操纵、广告和宣传。到时候,要操纵我们的观点和情绪将非常简单,于是我们也不得不依赖算法来反制,就像飞行员一旦因为眩晕而产生空间迷向,就不能再相信自己的感官,而必须全然相信仪器。

在某些国家和某些情况下,人们可能完全没有选择,只能被迫服从大数据算法的决定。然而,就算是在理论上自由的社会里,算法也可能成为权威,因为经验让我们把越来越多的问题交给算法来处理,最后也就逐渐失去为自己做决定的能力。只要简单回想一下,短短不到20年,就已经有几十亿人把一件可以说是最重要的任务全然交付给了谷歌搜索算法:搜索相关、可信赖的信息。我们不再自己去搜索信息,而是都靠“谷歌一下”。而随着我们越来越依赖谷歌来寻找答案,自己搜索信息的能力就会下降。今日的“真相”,已经是由谷歌搜索排名最靠前的结果来定义。

人类的身体能力也正在发生这种情况。以找路为例,现在已经有很多人用谷歌来导航。到了十字路口,虽然直觉可能是让他们左转,但谷歌地图说右转。在过去,他们大概会听从直觉,结果一左转就遇上堵车,最后错过了重要会议。于是,下一次他们决定听谷歌的,向右转,并且准时到达目的地。就这样,他们从经验中学会了要相信谷歌。一两年后,他们已经习惯了盲目遵照谷歌地图的指示,如果智能手机死机,他们将完全手足无措。

2012年3月,三名在澳大利亚旅游的日本游客决定到一个小岛上一日游,结果却把车一头开进了太平洋。21岁的司机野田后来说,她只是按照gps(全球定位系统)的指示开车,“gps说我们可以开过去,它一直说会把我们带到一条路上。然后我们就开进了海里”。还有很多类似的例子,有人冲进湖里,有人栽到桥下,显然都是开车的时候太听gps的话。找路的能力就像肌肉,用进废退。选择伴侣或选择从事哪个职业的能力,也是如此。

每年都有几百万名年轻人要决定大学读什么专业。这是个既重要又困难的决定。父母、朋友和师长各有想法,让你深感压力,而且,你还有自己背负的恐惧和想象。你的判断力受到各种好莱坞大片、垃圾小说和高明的广告活动的笼罩和操纵。要做个明智的抉择真的很难,尤其是你根本不知道想在不同的行业出人头地,到底需要什么条件。而且,你真的清楚自己的长处和短处吗?优秀的律师要具备什么条件?我能面对压力吗?我有团队合作精神吗?

一个学生之所以去学法律,有可能是因为对自己的能力不够了解,甚至可能是因为对律师工作有错误的想象(律师可不会每天上演慷慨激昂的辩论,一再高喊:“我反对,法官大人!”)。与此同时,她的朋友决定实现童年的梦想,虽然身体条件不佳,也缺乏自律,但还是进了专业芭蕾舞学校。几年后,这两个人都非常后悔。但在未来,或许我们就能靠谷歌来为我们做出这些决定。谷歌会告诉我,我上法学院或芭蕾舞学校就是浪费时间,但如果当个心理学家或水电工,将会非常出色(而且非常快乐)。

一旦人工智能比我们自己更清楚该选择哪个职业,甚至怎样处理人际关系,我们对人性和生命的概念将不得不改变。人类习惯把生命看成一场由一连串的抉择构成的大戏。在自由民主主义和自由市场资本主义眼中,每个个体都是自主的行动者,不断对世界做出各种选择。众多文艺作品(无论是莎士比亚的戏剧、简·奥斯丁的小说,还是滥俗的好莱坞喜剧),通常讲的都是某个英雄做了什么特别重要的决定。哈姆雷特问:生存还是毁灭?麦克白问:是听从妻子的话刺杀邓肯国王,还是听从自己的良心放过他?《傲慢与偏见》中的伊丽莎白则问:是嫁给柯林斯先生,还是达西先生?基督教和伊斯兰教同样重视这场决策大戏,认为究竟是得到永恒的救赎还是永世的诅咒,取决于能否做出正确的选择。

但随着人类越来越依赖人工智能来做决定,这种对生命的观点会发生怎样的改变?现在我们只是信赖由网飞来推荐电影,由谷歌地图来决定该往左还是该往右。然而,一旦我们开始交由人工智能来决定要读什么专业、在哪里工作、和谁结婚,人类的生命就不再是一场决策大戏了。民主选举、自由市场,这些机制将会失去意义,而且大多数宗教和艺术品也是如此。想象一下,安娜·卡列尼娜居然拿出智能手机,问问脸谱网算法,她是该继续和卡列宁长相厮守,还是和时髦的伏伦斯基伯爵私奔?又或者你最爱的任何一出莎士比亚戏剧,里面的角色居然一遇到重要决定就先请教谷歌算法?哈姆雷特和麦克白的生活大概确实能过得更舒适,但那究竟算是什么生活?我们有什么理论模式,能把这种生活说出个道理?

随着权威从人类转向算法,世界可能不再是一个自主的、人们努力做出正确选择的剧场。相反,我们可能会认为整个宇宙就是一个数据流,每个有机体不过是一套生化算法。至于人类在这个宇宙中的任务,则是打造一套无所不包的数据处理系统,然后与系统融为一体。其实,我们现在就已经像一个又一个小小的芯片,装在一个大到没有人真正理解的数据处理系统之中。以我本人为例,我每天都要通过电子邮件、推文和各种文章吸收无数的数据,处理这些数据之后,又要通过更多的电子邮件、推文和文章,传回新的资料。我真的不知道这世界上一切的背后有什么宏观的架构,我所产出的数据将如何与其他几十亿人或计算机产生的数据连接。很遗憾,我没有时间找出答案,光是回信就已经让我焦头烂额。

汽车也懂哲学

有人可能会提出异议,认为重要的决策通常涉及道德因素,而算法不懂道德,所以我们永远不会把重要的决定交给算法去处理。然而,就算是在道德方面,也没有理由认为算法的表现会比一般人差。今天,智能手机和自动驾驶汽车等设备已经接手一些原本专属于人类的决定,也开始应对一些早已困扰人类几千年的道德问题。

举例来说,假设有两个小孩追球,忽然冲到一辆自动驾驶汽车的前方。开着这台车的算法立刻完成运算,得出结论:要避免撞到两个小孩的唯一方法是转进逆向车道,但这就可能撞上迎面而来的卡车,而根据运算结果,这样一来有70的可能会让在后座睡得正酣的车主一命归天。算法该怎么做决定?

像这样的“电车难题”(trolley proble),哲学家其实已经讨论几千年了(之所以叫“电车难题”,是因为现代哲学讨论时的基本范例是在铁轨上跑的电车,而不是自动驾驶汽车)。但讨论了几千年,却对人类实际行为根本没产生什么影响;遇到紧急状况,什么哲学全都被抛在脑后,一切都由情绪和直觉来处理。

1970年12月,有一场社科史上相当令人不悦的实验,那是在普林斯顿神学院,实验对象是一群受训要成为长老教会牧师的学生。当时,实验人员叫所有学生立刻赶往远处的一个演讲厅,就“好撒玛利亚人”(good saaritan)这个寓言发表演说。这个寓言讲的是有个犹太人要从耶路撒冷前往耶利哥,但遭到强盗抢劫和殴打,被丢在路边等死。过了一会儿,有一个祭司和一个利未人经过并看到了他,但两人都未停下脚步。后来有一个撒玛利亚人(犹太教相当鄙视这个教派)路过,立刻停下来照顾他,救了他的命。这个寓言告诉我们,人是好是坏,应该由实际行为来判断,而不是由所属宗教来判断。

这些年轻的神学院学生一心想赶往演讲厅,路上想的都是怎样才能解释好撒玛利亚人的道德寓意。然而,实验人员在路上安排了一个人,穿得破破烂烂地坐在门口,低着头,闭着眼睛。每个没起半点儿疑心的学生经过时,这个“受害者”都会咳嗽并发出痛苦的呻吟声。但绝大多数学生完全没有停下脚步来关心一下他,更别说提供任何帮助了。要赶去演讲厅所造成的情绪压力,已经压过了他们想帮助受难陌生人的道德责任。

还有其他许许多多情况,都是人类的情绪战胜了哲学理论。因此,如果要讲全世界的伦理和哲学史,会是个理想很美好但现实很残酷的沮丧故事。毕竟,有多少基督徒真能把脸转过去,有多少佛教徒真能超脱利己的执念,又有多少犹太人真能爱邻如己?我们所表现出的,不过就是自然选择把智人塑造成的样子。一如所有的哺乳动物,智人也是靠着情绪来快速做出各种关乎生死的决定。从几百万个祖先那里,我们继承了他们的愤怒、恐惧和欲望,而这些祖先每一个都通过了最严格的自然选择质量管控测试。

本章未完,点击下一页继续阅读。

书页 目录
返回顶部