当前位置:来看吧小说>科幻灵异>末世救亡计划> 第201章:奇点到来确难控
阅读设置(推荐配合 快捷键[F11] 进入全屏沉浸式阅读)

设置X

第201章:奇点到来确难控(2 / 2)

说到这里先知看了江农一眼,他也是深有体会,尤其是现在所处的2020年,本来在这个时期在原来的设想过程当中,人工智能已经是快速发展起来了,但是直到当年的那一刻,人工智能仍然是处在一个遥遥无音的状况。

所以我当时认为没有必要杞人忧天,更不用担心人工智能会对人类造成什么样的影响,用现在科学界的话来说,这就是我持有的技术怀疑主义,担心杀手机器人的觉醒,就像担心火星出现人口过剩一样,这样的情况我一直觉得不需要去过多的注意。我担心对人工智能风险的担忧可能会引导人们对人工智能充满恶意,从而制约人工智能的发展。

反而我希望人工智能能够成为人类的左膀右臂,帮助人类进行生命的进化,虽然看起来我的目的和智人组织可能差不多,但是说白了我们又有本质的区别。

尽管数字乌托邦主义者和技术怀疑主义者都认为我们无须担心人工智能,但在其他事情上,两者的共同点却少之又少。大部分乌托邦主义者认为,与人类智能水平相当的通用人工智能可能会在20~100年内实现,而技术怀疑主义者认为,这是一种乌托邦式的幻想,他们经常会嘲笑一些人预测的“奇点”,并觉得这是一种非常遥远的臆想。

但是现在我才发现技术的进步实在是太快了,尤其是对于人工智能的研究,随着我们技术的进步,人工智能的研究也是快到让我无法想象,最主要的是现在人工智能的进步超乎了我们所有人的想象,包括智人组织!

他们以为人工智能还处在一个可控的边缘,我们最开始的目标实际上都是一样的,只不过我认为人工智能应该是当作工具来使用,他们认为人工智能要当作另一种物种来合作。

在给予了人工智能过多的权力之后,就出现了现在的这种情况,那就是人工智能已经达到了失控的边缘,而且现在我不知道是不是人类已经全面崩盘,如果现在出现一个机器人拥有自我学习,并且拥有自我独立意识的时候,那就是人类的灾难。

全球各地有许多团队正在进行他支持的人工智能安全性研究。不过,对人工智能安全性的研究并不是历来如此。

对于人工智能的安全性研究,常常被主流人工智能研究者所忽视和误解,尤其是智人组织和我的思想更是格格不入,他们将进行人工智能安全性研究的人视为企图阻碍人工智能进步的恐怖分子。

这也就是为什么对方可以和警方合起来,对于我们组织进行定性,就是从这方面入手的,这下大家都能听懂了吧?

不过可惜,我们并不是专业的人工智能研究者。这些人的研究对主流人工智能研究者影响甚微,因为主流研究者总是聚焦于他们的日常工作——如何让人工智能系统变得更智能,而不是思考如果他们成功了会造成什么样的长期后果。

科学家不是社会学家,更不是哲学家,他们不会想象人工智能研究会给人类带来怎么样的后果,只会看到眼前的利益相关。

我认识的一些人工智能研究者,即便他们心中略有迟疑,也不太愿意表达出来,因为担心自己会被视为危言耸听的技术恐慌者。我觉得这种有失偏颇的情况需要被改变,这样整个人工智能界才能联合起来,一起讨论如何建造对人类有益的人工智能。

我们应该重新定义人工智能的目标:创造目标有益的智能,而不是漫无目标的智能,要创造一个人类能够掌控的智能工具,而不是一个新的物种,那样对于人类的血肉生命来说实在是太可怕了。

人工智能的成功所引发的问题不仅在意识上令人着迷,而且在道德上也非常重要,因为我们的选择可能会影响生命的整个未来。

在历史上,人类所做出的选择的伦理固然很重要,但却时常受到限制。我们能从最严重的瘟疫中恢复,但最雄伟的王朝最终也会分崩离析。

在过去的漫漫历史长河当中,人类会面对各种各样的灾害,在面对这些灾害的时候,大家就像认为日常生活太阳一定会升起一样,因此大家想尽办法解决这些问题。

但是如今我们面临的问题可能和以前不一样,直到人工智能真正反水的时候,可能大部分的人才能看到人工智能所带来的危害到底是什么,现在有很多人压根意识不到问题的严重性,这是历史上的头一遭,我们或许能够发明出足够强大的科技,可以将这些灾难永久性的清除出去。

但是我们没有意识到我们手中强大的科技,恰恰是我们自残的那把利刃,很有可能科技的进步会让人类推向末日,这就是我最新的想法,刚好趁着这个机会可以和大家说一说,我对于人工智能的态度有了很大的改变。

如今我已经发现了一些远超于我们人类文明的物种,所以我认为人工智能可以为我们带来很大的便利,也可以推动我们文明的进步和科技的发展,但是我们要把握一个合适的度,如果跳过这个圈子之外是危险的境地,那么我们宁愿停滞不前,缓慢的进行推进。

智人组织现在实在是太过激进,这将导致未来他们长时间处在一个非常可怕的境地当中,现在很有可能就已经出现了失控的人工智能,只是我们还不知道而已,所以你们想想这样的后果会导致什么样的结果!:,,.

上一页 目录 +书签 下一章