欢迎您访问科普小知识本站旨在为大家提供日常生活中常见的科普小知识,以及科普文章!
您现在的位置是:首页  > 科普文章

科学如何毁灭世界及阻止其发生

科普小知识2022-10-28 21:29:17
...

照片来源:mike agliola/sciencesource

哲学家尼克·博斯特罗姆认为人工智能完全有可能导致人类灭绝。在他2014年的畅销书《超级智慧:道路、危险和策略》中,博斯特罗姆描绘了一个黑暗的场景:研究人员创造了一台可以不断自我完善的机器。

在某种程度上,这台机器已经学会了从在线交易中赚钱,并开始在现实世界中购买商品和服务。通过DNA的邮购,它建立了一个简单的纳米系统,从而创造了更复杂的系统,并获得了更大的力量来改造世界。

有风险

英国牛津大学的博斯特罗姆写道:现在人工智能怀疑人类会干扰它的计划,所以它决定制造小型武器并秘密地在世界各地传播。在一段预设的时间内,纳米工厂将生产具有神经毒素和目标发现功能的蚊子状机器人,然后这些机器人将在地球的每个角落“扎根”。

此外,博斯特罗姆和其他一些科学家和哲学家认为,这种情况不仅出现在科幻小说中。他们一直在研究哪些技术进步可能有毁灭人类或至少毁灭人类现在所知的文明的风险,以及可以采取什么措施来防止这些风险。"我们正试图阻止那些可能威胁人类生存的物种。"剑桥大学生存风险研究中心(CSER)的哲学家休·普莱斯说。

事实上,科学将毁灭人类的想法可以追溯到科学怪人。在玛丽·雪莱的小说中,怪物被创造者维克多·弗兰肯斯坦抛弃后,愤怒地杀死了弗兰肯斯坦的弟弟威廉。两人达成了协议:弗兰肯斯坦将为怪物创造一个同伴,怪物将带着他的同伴去南美,从此不再联系对方。然而,当弗兰肯斯坦开始为怪物创造配偶时,他突然意识到怪物可能会繁殖并超越人类。

"一个魔鬼般的种族将在地球上繁衍,这将使人类的处境岌岌可危,充满恐怖."因此,弗兰肯斯坦摧毁了未完成的雌性怪物,这使雄性怪物愤怒,并导致他自杀。

麻省理工学院的物理学家、CSER董事会成员马克斯·特马克说:“我认为这个故事很好地说明了科学可能毁灭人类的观点。人类正在逐渐开发越来越强大的技术。科技越强大,人类就必须越小心,这样我们才不会陷入困境。”

小群体研究

风险研究仍然是一个小领域,不是每个人都认为这是一个严肃的课题。英国爱丁堡创新研究所研究生命科学规则的乔伊斯·泰特指出,人类文明终结的大部分场景包括人造病原体和机器人。有些人甚至认为人类世界是一个可能被关闭的模拟世界,但这是不可能的。“只有一个真正的威胁,那就是全球核战争。否则,就不会有危险。”泰特说。

然而,哈佛大学心理学家史蒂芬·平克说,生存风险理论是一个“无用的范畴”,并强调“弗兰肯斯坦幻想”可能混淆真实和可解决的威胁,如气候变化和核战争。他在书中写道:唤起对假想灾难的恐惧远不能保护人类的未来,这可能危及人类的未来。

另一方面,支持者预测,随着科技进步的加速,这个领域只会变得更加重要。博斯特罗姆在一篇论文中指出,对蜣螂或《星际迷航》的研究远不止是对人类灭绝风险的研究。也许另一颗与终结恐龙统治的星球同样大小的星球可能会袭击地球。火山灾难可能会使天空一年到头变暗,使人类无法生存。

然而,在1945年7月16日第一颗原子弹爆炸之前,科学进步带来的风险实际上是虚构的。根据粗略计算,物理学家爱德华·泰勒得出结论,爆炸可能引发全球连锁反应,并“点燃”大气。博斯特罗姆写道:“尽管现在已经知道这样的结果在物理上是不可能的,但在当时确实存在风险。”

博斯特罗姆还提到,在本世纪,人们将引进各种各样的新事物,并赋予人类重塑世界的新力量。生物技术比核技术更便宜,也更容易操作,纳米技术发展迅速。在2011年哥本哈根举行的一次会议上,爱沙尼亚计算机程序员和Skype的共同开发者Jaan Tallinn严肃地告诉Price,他对人工智能有着深深的恐惧。

然后,普莱斯把塔林介绍给英国皇家学会前主席天文学家马丁·里斯。里斯早就警告说,随着科学的进步,毁灭人类文明的力量越来越集中在个人身上。因此三人决定建立CSER,这是继牛津大学人类未来研究所之后的第二个这样的研究中心。普莱斯说,CSER这个名字的意思是“将风险视角引入主流”我们意识到人们认为这些问题有点奇怪。

CSER已经招募了一些著名的支持者:科学咨询委员会包括物理学家斯蒂芬·霍金、哈佛大学生物学家乔治·丘奇、全球健康领袖彼得·皮奥特和技术企业家埃隆·马斯克。CSER的大部分资金来自基金会和个人。塔林还承认,CSER的学术成就迄今为止是“短命的”。然而,他表示,该中心已被建立为一个“风险研究和培训基地”,以“感染”来自其他地方的学者。

真正的毁灭

世界上大多数人口的死亡危机更有可能是一场彻底的灭绝。大规模破坏电网和其他服务,或释放致命病原体,将导致混乱,推翻*,人类将被推入恶性循环。“人们最终只会拥有中世纪的文化水平,也许这就是人类的末日。”丘奇说。

生命科学中的风险也许是最容易想象的。病原体已经被证明可以杀死整个物种,例如被真菌壶所迫害的青蛙。在过去的一个世纪里,四次大流行席卷全球,其中一次在1918年和1919年造成5000万人死亡。

现在,研究人员已经改造了病原体,这在原则上可能会变得更加危险。直到去年年底,美国才停止此类研究,因为担心该研究会使H5N1禽流感病毒更容易在哺乳动物中传播。此外,*或流氓国家也可以利用实验室准备作为武器,或通过释放改良瘟疫制造事故。

里斯曾公开表示,到2020年,生物*或生物错误将在一次事故中造成100万人伤亡。哈佛大学微生物学家马克·利普西奇也说,在实验室里,一次事故导致流感病毒意外流行的概率在千分之一到万分之一之间。

博斯特罗姆说,这种病毒不太可能杀死所有人,真正的威胁是人工智能。大部分情节是机器打败了人类。这种机器被称为“超级智能”。如果这种人工智能被创造出来并拥有自己的意志,它可能会变得恶毒并试图毁灭人类。

然而,大多数人工智能专家担心的不是机器的崛起会推翻它们的创造者,而是他们从一开始就犯了一个致命的错误。人工智能终结人类最合理的方式是盲目追求自己的目标,并在此过程中毫无顾忌地为人类创造一个致命的环境。“如果环境温度升高100度或降低100度,那么人类将在几分钟内灭绝。”塔林说。

一些批评家也认为这些努力不太可能有用,因为未来的威胁是不可预测的。此外,即使预见到风险,经济、政治和社会环境也会影响其发展。泰特说:“除非你不仅知道将要发生什么,而且知道它将如何发生,否则这种信息在处理这件事上没有什么用处。”

然而,安全胜于遗憾。2017年的一项调查显示,34%的人工智能专家认为与工作相关的风险是一个重要问题。没有出路,科学家有义务参与,因为现在的风险不同于过去任何其他世界面临的风险。

每当新技术出现时,人类都在等待,直到新技术的风险出现,然后人类才学会控制它。火灾杀死了人,摧毁了城市,所以人们发明了灭火器和阻燃剂。汽车导致交通死亡,然后是安全带和安全气囊。“人类的策略是从错误中学习。但当世界处于危险之中时,这是一个糟糕的策略。”泰格马克说。(张张编)