麻省理工学院科技评论杂志的一篇文章引起了人们对人工智能(AI)与人类的亲密关系可能会被滥用的担忧。
文章作者丽莎·伊尔斯利分享了她的观点,她是Cognea的前首席执行官,该公司曾利用机器结构和深度学习的混合构建了虚拟代理人。
伊尔斯利在Cognea的任期内观察到,人类越来越依赖于人工智能,这种依赖不仅限于执行任务方面。人工智能还为人类提供了柏拉图式的情感支持。伊尔斯利写道:“无论虚拟代理人被设计成个人理财顾问、伴侣或健身教练,都会出现这种情况。人们会自愿说出他们的秘密、梦想,甚至包括他们爱情生活的细节。”
但这未必是坏事。人工智能可能比我们目前关注的更有能力——它可以随时待命,并相应地为我们做出量身定制的修改。伊尔斯利在文章中写道,最根本的问题是,设计研发这些人工智能的公司目标并不是用户的身心健康,而是“增加其流量、消费和用户对他们的技术的依赖”。
她写道,人工智能公司已经开发出高效的程序来实现这一目标。“Cognea作出的每一项改变都是我们想要的”——那么,如果公司的目标牵涉道德问题,那会发生什么?伊尔斯利还观察到,人类与人工智能的关系会导致恶性循环。如果人类接触到过分屈从的人工智能,人类就会倾向于滥用它们,而这种关系会导致他们“更有可能对人类做出同样的行为”。
人类与AI关系的未来
人工智能正迅速融入我们的日常生活:我们通过Siri与iPhone互动,人工智能通过调整广告来改变我们的网络体验,而聊天机器人在我们与公司的互动中扮演了相当重要的角色。
我们与人工智能的日益密切的关系,是被“人格化”技术(将人的特点赋予事物)所推动的。Siri被赋予了一个名字,让她听起来更像一个真实的人,而机器人也正在适应你的讲话模式,以鼓励你信任他们,并与他们建立联系,从而更多地使用他们。
由于不了解人工智能的具体编程能力,我们对这一问题的理解还不够。我们目前对人工智能的运作过程知之甚少,但仍在继续创造更大、更快、更复杂版本的人工智能。这不仅是我们的问题,也是相关公司的问题,因为他们无法准确预测他们所创造的人工智能的行为。
我们与人工智能的互动显然会影响到我们未来的生活,但危险在于人工智能可以被精心策划从而以特定的方式影响我们的社会——或者更加可能的是,人工智能对人类意图的诠释将会导致人类进入一个我们并不真正想要的未来。
|