首页 / FT中文网 / 正文

别让科技毁了地球

FT中文网 2018-12-28 14:54:12

鉴于英国退欧政治的疯狂以及美国总统唐纳德•特朗普(Donald Trump)的愚昧而狂妄,我们很容易相信我们肯定已到达混乱顶点。但在眼下这个假日季节,我们为了振作起来,不妨想象一下情况本来可能以哪些方式变得更加糟糕。

过去几年,一些研究机构在英美大学内部成立,其宗旨很明确:研究人类的生存风险。灾难性气候变化、核战、流行病、流氓超智能以及外星人入侵,只是这些末日论学者们探讨的其中几个可怕前景。英国最知名的科学家之一马丁•里斯(Martin Rees)撰写的雄辩但让人忧心忡忡的《关于未来》(On The Future)罗列了其中很多威胁,他曾帮助设立剑桥大学(University of Cambridge)生存风险研究中心(Centre for the Study of Existential Risk)。里斯的看法是,对人类来说,风险从未像现在这么高:我们具备了高超的技术能力,有可能一不小心就毁灭了地球;必须追求更负责任的创新。

然而,我们没有对这些潜在的危险表现出任何紧迫感。如果我们知道,2100年某颗小行星有10%的几率撞到地球,那么我们将动用我们所有的资源来拯救我们的后代。但对于全球变暖或基因工程的威胁,因为这些风险似乎比较朦胧,我们仍漠不关心,这令人担忧。

牛津大学(University of Oxford)人类未来研究所(Future of Humanity Institute)主任、著有畅销书《超智能》(Superintelligence)的尼克•博斯特罗姆(Nick Bostrom)的最新研究报告提出,我们可能怎样减轻脆弱的地球所面临的这些风险。他的论文开头提出了一个绝妙的比喻。博斯特罗姆教授表示,思考人类创造性的一种方法是把这个过程比作把球从一个大坛子里取出。值得庆幸的是,多数被我们取出的球是白色的,或者说是有益的,它们代表着新的创意、发现和科技创新。

有几个(例如核武器)是灰色而且可能致命的。毫无疑问,超级大国在冷战时期以超过10万亿美元的造价制造的7万颗核弹头,一旦动用,本来可能会葬送我们的文明。

但核武器的“唯一可取之处”是它们的开发难度极高,成本极其高昂,更别提部署了。它们显而易见的恐怖可能还会帮助吓阻(而非引发)全球冲突。

但如果人类不走运,从坛子里取出一个黑球:一种在默认情况下可能摧毁发明它的文明的技术,后果会怎样?有几种候选情形:大量杀人无人机、失控的人工智能或者下一代生物武器。廉价、强大且破坏力巨大的技术变得更加可获得,是我们这个时代最严重的威胁之一。

博斯特罗姆教授辩称,我们不能指望消除这些发明。只要不是发生灾难,技术退步是不会发生的。因此,从逻辑上说,我们只能努力加强国际体制,限制技术滥用的风险并实施更多预防性治安,先发制人地打击怀有恶意的人。简言之,我们需要更明智的全球治理以及他所说的“高科技全景监狱(Panopticon)”。

在民族主义重整旗鼓的时代,我们很难转向更强大的全球治理,特别是在威胁仍然如此抽象之际。但正如最近在波兰卡托维兹达成的气候变化协议所显示的那样,在全球意愿足够强烈的情况下,取得缓慢的进展是有可能的。

更具争议的是,博斯特罗姆教授辩称,通过引入对全球人口的持续监控,加强预知治安可能“在技术上是可行而且负担得起”的。这将耗费全球国内生产总值(GDP)的大约1%。

中国大规模应用的人脸识别技术和社会信用评分体系也许让人窥见未来景象。但就像博斯特罗姆的报告所承认的那样,侵入式监控体系在本质上对于我们的自由是危险的。开发“交钥匙集权主义制度”的能力是有风险的,即便没有人去转动这把钥匙。但他辩称,如果预防性治安果真能够稳定文明,使其免受最可怕的威胁,那么承担这些风险可能是值得的。

有关大规模杀伤性武器的类似逻辑,曾推动以美国为首的联军在2003年悲剧性入侵伊拉克。对假定的威胁采取先发制人的举措,可能本身就是一件高风险的事情。但是,围绕如何保护我们的脆弱世界、使其免遭科技混乱,博斯特罗姆教授掀起这场辩论肯定是正确的。未来值得我们去保护。

译者/梁艳裳

时讯快报

5.5亿用户的选择

立即打开