已经有很多文章发表并讨论过这个问题:我们真的可以创造"真实的"模拟世界,并作为某种虚拟生物在其中生活。其实,很多哲学家都在思考这个问题,资本也在其中四处游弋寻找机会。哲学家尼克·博斯特罗姆(Nick Bostrom)和创新企业家埃隆·马斯克(Elon Musk)等知名人士都笃定——属于虚拟世界的未来即将来临。 这个真实世界的科学技术正在快速进步,尤其是人工智能得到了异常快速的发展。似乎快要具备技术了,事实上,到目前为止,人们越来越有理由相信,创造这样一个真实的虚拟世界是全然可能的。 随之而来的,就是围绕着这样一个世界,产生了相关的伦理学命题。埃塞克斯大学计算机游戏设计教授理查德.巴特尔(Richard A. Bartle)发表了一篇相关文章来讨论这一话题,在文章中,巴特尔博士分享了关于有知觉的合成生命的人造世界的想法。 未来我们可能会用智能虚拟生命创造出我们自己的虚拟世界 对人工智能(AI)伦理的大多数研究都关注其在武器、运输或分析方面的使用所产生的相关问题。尽管人工智能的自动坦克所带来的危险不容低估,但这一问题还有另一个非常重要的方面——我们对所创建的AI生命的责任是什么? 为了让这个问题更形象易理解,我们就以魔兽世界为例吧。魔兽世界是一款大型多人在线的角色扮演游戏,但组成这个世界除了需要玩家参与之外,还需要大量的非玩家角色(即NPC)。现在,这些NPC角色可能并不聪明(比真人差远了),但50年以后呢?你可以想象一下,一个跟真人几乎一样聪明的NPC,出现在游戏的虚拟世界中。 什么?担心50年时间还不够吗?那500年呢,甚至,500万年呢?总之,在目前的技术发展趋势下,总有实现这一目标的一天吧。最终,我相信会有一个虚拟世界,里面的虚拟角色(NPC)和真人一样聪明——没准更聪明——并且拥有完全的自主意志。 那么,这些被创造出来有着自我意识的"虚拟生命"应该被如何对待,我们就像上帝一样在创造,我们对这些"人"的责任又是什么?毕竟,我们将成为他们所居住的现实的字面神,控制他们世界的物理。我们可以对他们做任何我们想做的事。自由意志的伦理困境 每当涉及"应该怎么做"的问题时,道德就会介入并接管——即使是在电子游戏中。首要的问题是,未来的游戏角色是否值得被视为道德实体,还是仅仅是数据库中的一部分。如果是后者,我们大可不必费心地来麻烦我们的良心。 然而,如果我们真的把虚拟的角色塑造成了可以自由思考的人,那么就必须像对待人一样去对待他们——不管他们在外部观察者看来是什么样子。 如果这样的话,我们能关掉虚拟世界吗?这样做,可能会导致数十亿"智能生物"消失。如果在结束虚拟世界前存档了呢——从理论上讲,下一次启动会完全按照原样打开虚拟世界,但这是否意味着我们实际上并没有谋杀这些虚拟生命呢? 我们能合法地在虚拟世界中让这些NPC角色受苦吗?在现实世界,道德的准则是,让自由思考的人受苦是不道德的——除非他们同意,或者是为了让他们(或其他人)免于更糟糕的事情。我们不能要求虚拟角色表达是否同意出生在这样一个可能会"痛苦"的世界——当我们创造一个新的游戏虚拟世界时,他们还不存在。关于虚拟生命的问题 如果未来的虚拟角色是有智慧的,那么他们在伦理的重要性等级体系中处于什么位置?一般来说,如果需要在拯救一个拥有智慧的人(比如一个蹒跚学步的孩子)和一个只有知觉的生命(比如一只狗)之间做出单选题的话,人们一般都会选择前者而不是后者。但是,如果在拯救一只狗和一个虚拟的智慧生物之间做出类似的选择,我们该选哪个呢? 请记住,如果你的角色认为自己是有道德的人,但你不这么认为,他们会认为你是个混蛋。正如《最终幻想十四》中的角色阿尔菲诺·莱维勒(Alphinaud Leveilleur)巧妙地说的那样(剧透:刚刚发现他的世界是由不认为他是活生生的人的行为创造的):"我们定义我们的价值,而不是我们创造的环境!"。 我们会让NPC角色死去吗?这个需要进一步思考。如果他们真的永生,我们是让他们永续存在,还是仅仅阻止他们死亡?如果他们真的死了,我们是把他们转移到游戏天堂(或地狱)还是干脆把他们抹掉? 我们能把想法植入他们的头脑吗?我们能改变他们的世界吗?我们是把我们的道德强加给他们,还是让他们发展自己的道德(我们可能不同意)? 归根结底,最大的问题是:我们应该创造这些具有智慧的虚拟生命吗? 由于人类是现实世界的生命中的一员,因此我们还没有建立一个道德框架来规定如果是创造这个世界的上帝,应该如何如何,目前还没有一个伦理学体系可以帮助我们。 因此,在我们创造具有智慧的虚拟生命居住的世界之前,需要解决这个问题。 就像我们自己是现实中的NPC,也需要被善待一样。引用 The Conversation Will artificial intelligence become conscious?