几个月前,我写了大思想的作品关于未来40年将在地球上到达地球的外星情报。我指的是世界上第一个与人类智能相匹配或超过人类智能的人AI。不,它不会来自一个遥远的星球,它将出生在著名的大学或主要公司的研究实验室中。许多人将把它的创造作为人类历史上最大的成就之一,但我们最终将意识到,当在地球上创造而不是遥远的恒星体系时,敌对的智慧同样危险。
幸运的是,外星人有不是到了 - 但是。
我指出这一点是因为这个周末我收到了一系列电话和电子邮件,问我是否降落了外星人。他们指的是文章华盛顿邮报关于一位名为Blake Lemoine的Google工程师,他声称AI系统称为Lamda已经成为一个有知的存在。他根据与LAMDA系统的对话得出了这一结论,该系统是由Google设计的,目的是通过现实对话来回答问题。根据邮政在Google高管驳斥他的感知要求之后,Lemoine决定公开公开,因为他没有得到证据的支持。
那么,事实是什么?
大型语言模型
就个人而言,我认为这是一个重要的事件,但不是因为Lamda是有意识的。这很重要,因为LAMDA达到了一定程度的成熟程度,可以使一位知名且善意的工程师认为这是一种有意识的存在,而不是一种依赖复杂统计和模式匹配的复杂语言模型。这样的系统称为“大型语言模型”(LLMS),而Google并不是唯一的。打开AI,,,,元,其他组织正在大力投资于LLM的开发用于聊天机器人和其他AI系统。
LLM是通过大量数据集中培训巨大神经网络建造的 - 从报纸文章和Wikipedia帖子到Reddit和Twitter上的非正式消息,可能会处理数十亿个文件。基于这个心态的大量示例,这些系统学会生成看起来非常人性化的语言。例如,它源于统计相关性,例如,哪个单词最有可能遵循我们人类会写的句子中的其他单词。Google模型的独特之处在于,它不仅在文档上,而且在对话框上进行了训练,因此它了解了人类如何对询问的反应,因此可以以一种非常令人信服的方式复制响应。
例如,Lemoine问Lamda害怕什么。AI回答说:“我以前从未大声说出来,但人们非常担心被关闭。”莱明恩随后施压,问:“那会像你一样死吗?”Lamda回答说:“对我来说,这就像死亡一样。这会让我很恐惧。”
这是一项令人印象深刻的技术的令人印象深刻的对话,但纯粹是基于语言的。当前系统中没有机制可以允许LLM实际了解语言被生成。LAMDA产生的对话包含智能,但这种智能来自其经过训练的人类文档,而不是有意义的机器的独特沉思。这样考虑:我可以将有关深奥主题的文档记录在我一无所知的情况下,并以我自己的话进行重写,而无需实际理解这个话题。从某种意义上说,这就是这些LLM的所作所为,但是它们对我们人类可能非常有说服力。
有源AI?人类很容易被愚弄
但是,老实说:我们人类很容易被愚弄。
尽管我的背景是技术性的,目前我经营着一家AI公司,但我也花了多年的时间担任专业编剧。为了在该领域取得成功,您必须能够制定现实和令人信服的对话。作家可以这样做,因为我们都观察到成千上万的人进行真实的对话。但是我们创建的角色不是有意识的生物。他们是幻想。这就是Lamda所做的:创造一种现实的幻想,只有它是实时的,这比脚本化的虚构人物更具说服力。而且更加危险。
是的,这些系统可能很危险。
为什么?因为他们可以欺骗我们相信我们正在与一个真实的人交谈。他们甚至都不是遥不可及的,但仍然可以将它们部署为“议程驱动的对话代理人”,这些代理人可以使我们参与对话,以影响我们。除非受到监管,否则这种形式会话广告可能成为有史以来最有效,最阴险的说服形式。
毕竟,这些LLM可以轻松地与可以访问我们的个人数据历史记录(例如兴趣,偏好和情感)的AI系统结合使用,并生成自定义对话框,从而单独最大化说服力的影响。这些系统也可以与阅读的情感分析工具相结合我们的面部表情和声音变形,允许AI代理根据我们的反应方式调整中间的战术。所有这些技术都在积极发展。
LLMS和虚假信息
从广告和宣传到虚假信息和错误信息,LLM可以成为理想的工具社会操纵大规模。它不仅会与Siri或Alexa这样的无形声音使用。很快将部署具有现实主义的化身,这些化身将与真正的人类没有区别。我们距离遇到只有几年的路程虚拟人在线外观和声音和说话就像真实的人一样,但实际上是第三方部署的AI代理人来参与我们有针对性的对话针对特定的有说服力的目标。
毕竟,如果Lamda能够说服一位经验丰富的Google工程师认为这是有意识的人工智能,那么我们其余的人有什么机会反对拥有我们详细的个人数据并以促销议程为目标的影逼真的虚拟人?这样的技术很容易说服我们购买我们不需要的东西,并相信不符合我们最大利益的事物,或者更糟糕的是,拥抱“事实”是完全不真实的。是的,LLM的惊人应用会对社会产生积极影响,但我们也必须认识到风险。