系列| 起义

尼克·博斯特罗姆超智能以及人工智能的未来

超级智能人工智能有可能给人类带来生存风险。我们准备好了吗?

试图假设人工智能的未来迫使我们审视自己的智力。当我们思考不同的智力水平时,我们通常会想象一种处于光谱低端的昆虫,然后朝着像老鼠、猴子、普通乔这样的哺乳动物,以及我们称之为“天才”的个体,比如阿尔伯特·爱因斯坦和玛丽·居里。

但是,即使是最聪明的人的大脑之外,也存在着人工超智能,它将有可能以难以置信的速度无限智能地增长。

人类比熊和黑猩猩弱,但我们更聪明,所以他们住在我们的动物园里。当人工智能拥有无限的智能潜力时会发生什么?我们会住在它的动物园吗?

人工智能未来的可能性不仅比你想象的更奇怪,而且比你想象的更奇怪。但是,哲学家和人工智能伦理专家尼克·博斯特罗姆(Nick Bostrom)正试图探究深不可测的事物,以便人类做好准备。

人工智能的无限未来

今天,我们有了能够在家里导航和清洁地毯的机器人,就像老鼠学习在迷宫中蜿蜒前进一样。我们有Alexa和Siri,它们可以通过访问固定知识的数据库来回答简单的问题。

尽管他们能记住我们常见的驾驶路线和我们经常在网上订购的物品,但他们并不能真正像人类那样学习。我们的智力仍然比他们的高。

但不会太久。事实上,人工智能已经在开发中,可以识别人脸、进行对话、辨别人类情绪,甚至产生一些自己的想法。其中最著名的是汉森机器人公司的仿人机器人,索菲娅.

由多个领域的专家组成的集体负责索菲亚的先进能力。她是第一个被授予公民身份的机器人访谈在国家电视台,甚至是一个公众演说家。

很快,机器学习将允许像索菲亚这样的人工智能发展到可以被认为是“人工通用智能”的程度人工智能水平能够完成人类所能完成的任何任务,并且具有与人类相同的智力水平。

人工智能的未来并不止于此。一旦人工智能能够以与人类相似的方式学习和解决问题,它将很快超越人类我们的智力水平. 人工智能对其“大脑”的大小没有限制,其信息可以以光速传播。

它有能力同时了解和考虑所有事情,就像我们以前从未见过的多任务一样。有了正确的硬件,人工智能将获得超级智能,远远超过我们的思维能力、解决问题的能力和理解能力。

事实上,超级智能人工智能很可能是人类最不需要发明的东西,因为机器总是有最好的想法。

超智能与人工智能奇点

在物理学中,“奇点”一词指的是密度和引力无限的黑洞中心的一点。在黑洞的奇点或附近,我们所理解和经历的物理定律就不复存在了。这种环境的本质是人类只能希望理解的。

人工智能中的奇点类似于物理学中的术语。作者兼计算机科学教授弗诺·文奇当人工智能达到超人智能时,技术奇点就会出现。

文奇提出了这样一个观点:超级智能将极大地改变思维、发明和想法的本质,从而导致新技术的快速、失控的发展。因此,奇点将导致一个后人类世界,人类甚至无法开始理解。

尼克·博斯特罗姆(Nick Bostrom)在《超级智能》(superintelligence)杂志上说,我们最终会达到这样一个地步:“从事人工智能研究的大脑将成为人工智能本身。”问题是,当人工智能接管后,我们是否还生活在人类的世界里。

“所有这些东西,无论是喷气式飞机、艺术还是政治制度,都是通过人脑的产道进入这个世界的。博斯特罗姆说:“如果你能改变这个通道,创造出人工大脑,那么你就能改变改变世界的东西。”。

想象人工智能的潜在危险

大多数专家都认为,我们可以看到人工智能在我们国家的发展一生,并且我们对潜在的积极结果充满希望,例如治愈癌症和消除贫困等疾病。

另一方面,人工智能的未来也有可能在多个方面对人类构成严重威胁。许多害怕人工智能的人对其不可预测的后果持谨慎态度。

2015年,博斯特罗姆讨论了一个场景,在这个场景中,人工智能机器的任务是让人们微笑。我们可以想象电脑给我们讲笑话,努力理解让人微笑的事情。

然而,一台超级智能机器很容易就能找到一种更简单,但更险恶的方法让人们微笑,它使用的电极可以迫使我们的面部肌肉收缩成永久的微笑。

关于人类对人工智能的指令,博斯特罗姆强调必须非常具体,他用了一句格言“小心你想要什么”。他将这种不经意地指挥超级智能的行为与贪婪的国王迈达斯的故事相比较,后者无知地希望他所接触的一切都能变成金子。他的愿望实现了,悲剧降临在国王身上,因为他的食物甚至他的爱女都变成了金子。

与人工智能有关的主要威胁是人类欲望的意外后果和对最终失去实际控制人工智能能力的恐惧。博斯特罗姆认为,人工智能将达到人类完全无法理解的智能水平。

这种人工智能可以预测并阻止人类试图破坏或“拔掉”它。如果这类情报被赋予军事毁灭工具、医药、发电厂甚至农业生产的角色,它将对人类拥有巨大的权力。

人工智能伦理体系可以防止不可想象的事情发生

当创造出比人类更聪明的技术时,我们有巨大的责任确保它对人类也是安全的。这是一项具有挑战性的任务,因为后奇点世界尚未被发现。因此,博斯特罗姆已转向他的哲学知识,以寻求答案,并帮助发展伦理学关于人工智能。

博斯特罗姆认为,创造人工智能来理解人类的价值观对于确保我们的安全至关重要。但是,由于人类情感和文化差异的复杂性,输入单独的代码行来教一个超级智能机器人人类关心什么几乎是不可能的任务。

这个问题的一个潜在解决方案是,通过一个优先学习人类价值观的计划来编程人工智能。随着人工智能被教导重视人和他们最珍视的东西,人类将能够享受这项技术带来的好处。然而,直到它存在,我们才真正知道它将以何种方式改变我们所知道的世界。

更多关于最新机器人技术,订阅自由思考。

订阅自由思考伟大的故事