书城经济信号与噪声
1908500000050

第50章 温室效应:未来10年,全球气温会上升还是下降?(3)

设想一股飓风正盘踞在墨西哥湾上空。我们可以针对过去出现过的飓风建立一个数据库,观察其风速、经纬度、海洋温度等数据,找出与这次飓风最为相近的地方。其他飓风是怎样运动的?什么样的飓风会袭击新奥尔良这样人口聚集的地区?什么样的飓风会最终散去?不用依靠所有气象知识,只需一个完善的数据库,我们就可以做出预测。

这样的统计技术可以提供粗糙但有用的预测数据。实际上倒退30年,当时气象预报预测飓风轨迹的最主要的方法就是纯统计模型。

然而,此类技术会受到收益递减规律的支配。在美国,飓风并不少见,风暴平均每年都会袭击美国一次。当你将大量的候选变量应用到一个罕见的现象中,就会有过度拟合的危险,会把过去数据中的噪声误当作信号。

当然,如果你对该系统的结构有所了解,那就还有另外一个方案可供选择。第二种气候预测模型从本质上来讲,就是模拟某个领域中某些部分的物理力学特性。与纯统计模型相比,建立这种模型需要更大的工作量,并且要对该现象发生的根本原因有深刻的了解。但是,这种模型更加准确。这样的模型现在正用于预测飓风路径,而且相当成功。正如前文中提到的那样,20世纪80年代以来,飓风路径预测的准确性已提高了3倍左右,人们提前48个小时就能了解到袭击新奥尔良的卡特里娜飓风的确切登陆位置(虽然不是所有人都相信这一预测)。统计学驱动的系统现在不过是作为基准,用来对这些更加准确的预测进行衡量。

模型越复杂,预测越糟糕

阿姆斯特朗和格林对气候预测提出的批评,与他们所作的研究有关。这两位学者对经济学这类几乎不存在可用的物理模型、人们对其因果关系也知之甚少的学科进行过实证研究。野心过于膨胀的预测方法在这些领域频频失败,所以阿姆斯特朗和格林推断,这些方法用于气候预测也会失败。

任何预测模型的目标都是尽可能地“抓住信号、扫除噪声”。保持两者的平衡有时并非易事,需要有理论依据和保质保量的数据做保证。在经济预测中,数据贫乏,理论研究薄弱,所以阿姆斯特朗才会认为 “(经济)模型越复杂,预测越糟糕”。

在气候预测中,情况更加模糊不清:温室效应理论的影响很大,可以支撑更为复杂的预测模型。然而,气温数据非常嘈杂,总是与预测模型相向而行。哪种考虑才是对的呢?我们可以依据经验处理这个问题,对气候科学中曾经使用过的各种预测方法的成功和失败的状况进行评估。像往常一样,最重要的是看这些预测在现实生活中的效果。

我敦促大家,不要将预测过程缩减为一系列的“车贴标签”式的标语口号。简单性原理(“在其他条件相同的情况下,简单的解释比复杂的解释更好。”)这类启发法看似诱人,却难以为我们所用。与用于预测疾病爆发的SIR模式一样,有些预测模型中的假设既简单又简洁,这样的情况我们已经遇到过很多,但是这样的模型却过于天真,无法提供成熟的预测。而在地震预测中,那些复杂得离谱的预测方案在软件程序包里功能齐全,在实际应用中却漏洞百出,真可谓华而不实。

“模型越复杂,预测越糟糕”,这句话就是在告诫人们,“不要在食谱中加入过多的盐”。你在做事之前是不是把它搞得很复杂,或者说在其中加了很多“盐”呢?如果你想越来越擅长作预测,就要“相信自己的厨艺,相信自己的味蕾”。

气候预测中的3类不确定性

认识到预测中的局限性只是成功的一半,在这一点上,气候预测者已经做得相当好了。气候学家敏锐地意识到不确定性的存在:在政府间气候变化专门委员会于1990年公布的3份报告中,“不确定”和“不确定性”这两个术语出现了159次。政府间气候变化专门委员会建立了一整套命名法,用于表达对某一研究发现的赞成或确定程度。比如,在报告中,当“可能”这个词单独出现时,意味着某一预测实现的概率为66%,而当“几乎确定”这个词出现时,意味着对某一个预测怀有99%或更强的信心。

然而,警惕不确定性是一回事,适当准确地估计到不确定性又是另一回事。像政治民调这类问题,我们可以依靠强大的历史证据数据库:美国总统大选前一个月,如果一名候选人在民调中领先10个点,那么他最终赢得美国总统大选的概率是多少?我们可以查阅过去几十场美国总统大选的情况,进而依据经验得出一个答案。

但是,气候预测者建立的那些模型不能依靠此类技术。人类只有一个地球,我们要不时地对其气候演变进行预测,这种预测需要跨越未来几十年的时间。尽管气候学家也许已经考虑到预测中会存在不确定性,却仍然不能确定预测中究竟有多少不确定性。对于任何学科的预测者而言,这样的问题都是极具挑战性的。

尽管如此,我们还是有可能将气候预测中的不确定性分为3个组成部分。加文·施密特是汉森的同事,与汉森同在宇航局工作,他是一个说话带刺儿的伦敦人,也是实地天气网站的博文合著者,施密特的办公室位于纽约晨边高地,我是在他办公室附近的酒吧与他碰面的。

施密特拿出一张餐巾纸,在上面画出一张如图12–3所示的图表,说明了气候学家面临的三大突出问题。在气候预测过程中,这3种不同类型的不确定性不同程度地存在着。

第一种类型,施密特称之为“初始条件的不确定性”,这是与温室信号抗争的短期因素,影响着我们对气候的体验。温室效应是一种长期现象,会被日复一日、年复一年的各种事件所掩盖,从而变得模糊不清。

初始条件的不确定性的最为明显的例子就是天气,如果用于气候预测,那它代表的只是噪声,而不是信号。气候变化委员会最近预测,下个世纪的气温可能会升高2摄氏度,相当于每10年升高0.2摄氏度,或每年升高0.02摄氏度。可是,在温带地区,当昼夜温差达到15摄氏度、季节温差达到30摄氏度时,这样的信号是很难察觉的。

我是在2011年拜访施密特的。事实上,就在我们会面的前几天,纽约和美国东北部其他几个地区就出现了反常的10月暴雪。中央公园的积雪达到33.2毫米,创下了10月降雪的纪录,而在康涅狄格州、新泽西州和马萨诸塞州情况更加严重,几百万居民的家中同时断电。

中央公园正好有一个相当完整的气温纪录,可以追溯到1869年。在图12–4中,我绘制了跨越1912~2011年整整100年的月平均气温,从图中可以观察到四季气温的剧烈波动(变化虽然剧烈,但也能够预见),从高温到低温再回到高温,有些年份较高,有些年份较低。从这些例子中可以看出,与天气相比,气候信号几乎无法察觉,但这一信号确实是存在的:中央公园在100年的时间里平均气温降低了约15.6摄氏度。

而在为期1~10年的时间里,气温也会出现周期性波动。其中之一被称为“ENSO循环”(厄尔尼诺–南方涛动现象)。每次循环会历经3年左右的时间,是由热带太平洋地区的水温变化引起的。在发生厄尔尼诺现象的年份,若该循环充分发挥威力,就会给北半球大部分地区带来更加温暖的天气,也会降低墨西哥湾飓风的活动频率。在发生拉尼娜现象的年份,情况正好相反,这时的太平洋水温较低。除此之外,人们对ENSO循环的了解相对较少。

初始条件的不确定性的第二个案例是太阳的活动周期,平均约为11年,在这一个周期里,太阳会发出略强或略弱的辐射。(这一点通常可以通过太阳黑子这个更高一级的太阳活动来衡量。)但太阳的活动周期不怎么规律,比如,太阳的第二十四个活动周期中,人们预期太阳黑子在2012年或2013年的活动量最大(因此会出现更高的气温),但实际上这一现象却推迟了。太阳的休眠期有时可以持续几十年,17世纪末18世纪初的蒙德极小期持续了近70年,这段时期内几乎没有太阳黑子活动,因此欧洲和北美地区的温度大幅走低。

最后一个案例是向大气喷发硫黄的火山的周期性休眠。火山喷发释放的气体具有反温室效应的作用,可以使地球降温。1991年皮纳图博火山爆发,此后两年里,全球温度降低了约0.2摄氏度,与温室效应在10年里带来的温度升高幅度相当。

时间跨度越大,就越容易忽略这些中期效应。在1~10年的时间跨度内,中期效应都能够主导温室效应的信号,但超过这一时长,它们就会日渐式微。

第二种不确定性会随着时间的推移而增加,施密特称之为参数的不确定性。这一类型的不确定性涉及大气中二氧化碳或其他温室气体的浓度。在较小的时间跨度内,大气成分还是可预测的。工业活动持续不断,二氧化碳迅速进入大气层并长期滞留。(据估计,二氧化碳的化学反应半衰期约为30年。)即使主要工业国家同意立即制定出实质性的减排措施,想要使大气中的二氧化碳的增长速度放缓也需要数年的时间,更不要说实现负增长了。施密特对我说:“你我永远都无法等到二氧化碳浓度降低的那一天,就连你的下一代也等不到。”

由于气候模型依赖于对大气中二氧化碳浓度的特定假设,这不仅使未来50年或100年的预测变得非常复杂,也会对近期的预测产生轻微的影响,影响程度主要取决于影响二氧化碳排放的政治和经济决策。

第三种不确定性是结构的不确定性。这种不确定性是气候学家及其批评者最为担忧的不确定性类型,因为该类型最难定量,与我们对气候系统动力学的了解程度及我们能否很好地用数学方法表现这种模型紧密相关。结构不确定性的增强速度较为缓慢,而在气候这样的动态系统模型中,错误也会自我强化。

施密特认为,综合3种不确定性因素考虑,在气候预测出现之前的20~25年里,这3种类型的不确定性很可能都处于最低点。此时,我们就可以比较合理地确定大气层中二氧化碳的浓度了,但是考虑到ENSO循环、火山周期性休眠和太阳活动周期对气候的影响已经日趋平稳,我们要做的还有很多。

气候变化委员会在1990年公布了第一份报告,当时正值20年里的最佳时机。20世纪80年代,詹姆斯·汉森所作的一些早期预测也是如此。换句话说,是时候评判预测的准确性了。它们究竟表现如何呢?

评判气候预测准确性的时刻到了

衡量一个预测的准确性,首先需要一个测量工具,而气候学家的测量工具很多。全世界主要有4个评估全球气温的组织,它们使用的测量工具从陆地上的温度计到海洋中的测量站,这4个组织分别是美国宇航局、美国海洋和大气局,还有英国和日本的气象部门。

最新加入这场“预测竞赛”的是卫星观测。最常用的卫星记录来自亨茨维尔的阿拉巴马大学和一家名为“遥感系统”的私有公司。卫星记录并不直接被采纳为气温数据,而是通过对微波辐射的测量进行气温预测。卫星测量出的低层大气的气温代表一个合理的表层气温。

根据记录时间长短的不同,气温记录有所不同,最早的记录可以追溯到1850年英国气象局的观测报告,最近的记录则是1979年的卫星记录。这些记录有不同的测量基准,比如,美国宇航局的记录是相对于1951~1980年这30年间的平均气温得出的,而海洋和大气局的记录是相对于整个20世纪的平均气温得出的。这两个记录也很容易得到校正,因为各个系统的目标是测量气温上升或下降了多少,而不是测量气温的实际数值。

令人欣慰的是,各种记录之间的差异并不大。图12–5中的气温记录显示,1998年和2010年是气温最高的两个年份,同时还可以看出,自20世纪50年代以来,大气中二氧化碳的浓度快速升高,温度呈明显上升趋势。

1981年,汉森与其他6位科学家在学术声望极高的《科学》杂志上发表了一篇论文,预测气温的早期尝试自此开始。这些预测并不是以完全成熟的仿真模型为基础,而是依据二氧化碳及其他大气气体的影响做出的较为简单的统计预测,效果非常好。但实际上,他们略微低估了2011年的全球变暖程度。

汉森之所以小有名气,是因为他在1988年所作的国会证词以及同年发表在《地球物理学研究杂志》上的一篇论文。这些预测确实是依靠一个大气的三维物理模型做出的。

汉森在美国国会上说,华盛顿未来将会经历更多的“炎热夏季”。在其论文中,他为“炎热夏季”下了定义:所谓“炎热夏季”,是指华盛顿夏季的平均气温将达到1950~1980年这30年间夏季气温排名前十的水平。到20世纪90年代,华盛顿夏季的高温时间将达到55%~70%,约为33%这一基准比例的两倍。

汉森的预测最后都应验了。20世纪90年代,华盛顿经历的10个夏天里有6个的气温都达到了“炎热”的程度(表12–1),基本符合汉森的预测。21世纪的第一个10年里,这一趋势仍在继续,到2012年气温更是创下了新高。

表12–1?炎热夏季

基准比例:33%

汉森的预测(1988年):20世纪90年代华盛顿夏季的高温时间将达到55%~70%

城市 临界值(华氏度)

1华氏度=–17.2摄氏度 1990~1999年 2000~2011年 1990~2011年

华盛顿 86.2 60% 58% 59%

奥马哈 86.2 10% 42% 27%

纽约 81.4 80% 75% 77%

孟菲斯 89.3 50% 67% 59%

平均值 50% 61% 56%

汉森在其论文中还为其他3个城市做了预测:奥马哈、孟菲斯和纽约。得到的结果更加多样,体现了气候的区域差异。根据汉森对“炎热夏季”的定义,20世纪90年代,奥马哈只有一年的夏季达到“炎热”的程度,低于33%的历史平均比例。而根据拉瓜迪亚机场的观测,纽约的10个夏季里有8个达到了“炎热”的程度。

对4个城市的预测总体来说相当不错,但只能算是汉森的低端预测。汉森的全球气温预测更难评判,因为这一预测涉及的场景太多,各自依赖的假设也不同,实属高端预测。即使是最保守的方案,也多多少少地高估了2011年经历的气候变暖的过程。