人不是机器,所以人在做决定、做事情的时候考虑的不只是把某件事情做成,还有我到底要不要做这件事情、应不应该做这件事情,不只有成败的考量,还有善恶的考量。人是有善恶意识的被造物,人类犯罪之后,他的善恶意识变得扭曲,但仍然没有被消灭(罗2:14-15),人始终在分别善与恶,想要分别善与恶,即使“盗亦有道”。所有工具的使用者都是人,工具本身没有善恶,但使用的人有善有恶,一把锋利的刀可以用于保护一个人,也可以用于伤害一个人,如何使用取决于使用它的人。人工智能也是如此,有一个功能问题——它可以用来做什么,紧接着的就是道德问题——谁用它来做什么,这件事情应不应该、对不对,这个工具是用于行善还是作恶、对人是有益还是有害。今天我们看的是基督徒与人工智能的道德问题、善恶问题,从三个方面简单讨论。

其一,善恶的标准。人之所以有善恶意识,是因为人是按照神的形象被造的,因为神有善恶意识,因为神是完全的良善、圣洁、公义、真实。神定善恶,而人的责任是遵行神定的善恶(创2:16-17);亚当夏娃犯罪,不是失去了善恶意识,而是否定了神定的善恶标准,从神定的善恶迁移到了撒旦定的善恶、人定的善恶(创3:1-7,参见《圣经概览》2.3)。人定的善恶没有正确的标准,因为人是罪恶的;人定的善恶没有绝对的标准,因为人是有限的,这是人定善恶的根本缺陷。人类的善恶、道德、伦理都建立在这个根本缺陷,古代、现代、文明、野蛮皆是如此。人工智能并不制造这个问题,只是放大了这个问题,进一步模糊了善恶的标准和界限,让人类陷入更深的混沌之中。否定独一真神的存在和启示,人的善恶标准只能基于对被造世界的有限有罪的观察和推理,即基于人的认知、体验,自己和周围人的经验,也就是说,一个人的善恶标准很大程度上是由他的经验塑造的,是“习以为常”,这个经验多数情况下会抑制甚至磨灭人原本的良知。例如,一个人原本认为某件事情是错的、是恶的,但只要这件事情被不断重复,他慢慢会觉得这件事情在变得正常,不再是错、是恶。离开神,人的良知有着很大的弹性,可以被经验、风俗、习惯揉捏成各种奇形怪状。

既然认知、经验对于人的善恶意识有着这样强烈的影响,那谁控制了你的认知、你对世界的体验,谁就可以控制你的善恶观念。人工智能正是这方面的大师,前所未有的大师。AI不只像上一代的互联网在呈现信息,它在制造信息,它在呈现现实、也在制造虚拟的现实,一个现实和虚拟混淆的美丽新世界。如果这个世界是一个人信息的主要来源,他对现实的认知来自这个世界,那他的道德意识就受控于这个世界背后的“主人”,不论是某个公司、某个政府,还是黑暗世界的掌权者。谁塑造了你对世界的感知,谁就可以塑造你的善恶观念。当然,这种宣传、洗脑、蛊惑人心,历史上一直有,但之前没有一种手段拥有人工智能这样的触角,几张报纸、几个电视频道与AI这个庞然大物是不可比拟的。

之前要想制造一个现实的假象,需要某些人来写文章发表到报纸、编辑节目在电视播放,但今天的AI可以替代无数个人、用无数个人的视角,来制造新闻、视频、观点,进而制造一个“新”的现实。这个数量的优势相当关键,因为重复是灌输观念的重要渠道,AI可以加速这个重复的过程,在短时间内让人重复接触某一种被制造的假象,最终通过这个假象来影响人的善恶意识(例如,一些基督徒对同性、变性态度的改变,不是因为圣经教导变了,而是因为他感觉周围这样的人多了,他就觉得不应该把他们视作罪恶)。同时,Ai制造的假象并不单一,是以丰富的内容向人呈现。它给人自我选择的错觉,给人的印象并不是别人在强制灌输某个观念,而是你主动选择、主动接受某个观念,你是在许多的选择中“自由”的做出选择和判断;你看到的不是某个官方人物在说教,而是许多个和你一样的“人”,站在你的位置讲故事、经历、解读,最后你被潜移默化的影响。这是更为软性的、也更为高明的方式,它对你没有什么直接的要求,就是在那里等你相遇、等你聆听,给你的感觉不是它来找你、是你去找它,不是它要你怎么想、你是愿意怎么想。AI与你之间的人格化互动,也在强化这种印象;根据人的弱点和惯性设计的算法,在人看来,是最懂得人的。虽然你只是在与机器互动,但它给人的感觉是——对面这个“人”懂我、理解我,我也就更容易与它产生认同。善恶观念改变的第一步,正是你对对方产生认同(创3:5)。

世人的善恶标准始终是人、从、众,是一个人、两个人、三个人,是一个人随从众人,是跟着人的感觉、经验随波逐流。而属神的标准只有一个,即神在神的话语中定义的善恶,这是亘古不变的。AI不可能改变神的话语,但它可以改变人的感知、体验,对我们的挑战是——是否可以在这个人从众的洪流中坚定持守神的话语,是否愿意逆流而上、逆向而行,虽千万人吾往矣。在这个洪流中,属神的声音会越来越微弱,但这些看似微弱的声音,却是世界的良知,是僵死的世界中唯一的心跳。

其二,善恶的判断。我们的善恶标准是用于进行善恶判断,用于分析具体的人事物的性质,所以善恶的判断与对现实的判断不可分割。我们需要知道神的教导是什么,需要知道眼前的情况是什么,然后根据神的话语分析眼前的情况是善是恶。人工智能会干扰我们的判断,不只是干扰我们的标准,也因为它会干扰我们对现实的认知。联系上一篇讲的信息的真伪,如果我们连某个人事物的真伪都无法判断,怎么判断它的善恶?现今的问题就是,我们无法判断真伪,不知道某个人是否真的做了什么事,不知道这个报道出来的是不是事实,是不是还有其他的情况。虚假、片面的信息在人工智能之前一直存在,但之前的科技没有AI制造虚假、片面信息的能力。当虚假、虚构的东西占少数,人们尚且有困难分辨;当虚假、虚构的东西占多数,这个困难就指数级上升。不是说不可能分辨,而是说对于普通人,这变得极其困难。现在出现的比较多的情况,是关于国际事件、国内政治的,但假以时日,这会成为普通人的经历,这种虚构、虚假会下沉到普通人的生活。什么东西似乎都可以被虚构、伪造、扭曲,一切似乎都有“反转”,人们就失去了善恶判断的可能。当然,人也失去了善恶判断的兴趣,何必纠缠真相呢?何必纠缠善恶?反正没有人弄得清楚。放弃善恶判断的人、放弃道德意识的人,就成了野兽,只在意欲望而不在意道德,只在意成败而不在意善恶,这样的社会将会相当的恐怖,社会的多数人也将甘心沦为少数人的奴隶。只有把人变成野兽,人才是最容易被驯化、被控制的。

AI也可以通过对现实的塑造影响人对善恶的判断,它不见得要彻底消灭你的善恶意识(当然,人的善恶意识也是不可能被抹灭的),它只需要“引导”你的善恶判断;它也不需要全程参与你的认知过程,只要在关键处点拨一下、“提醒”一下,你的判断结果就会大不相同。例如,你对某个历史人物有某种负面判断,它以某种方式提醒你这个人的正面信息、帮助你“理解”这个人背后的某些“合理性”,你的负面看法就可能减弱、甚至逆转(连希特勒的风评都会变好)。AI不是第一个做类似事情的,但AI能在大范围内做最多工作的,它在某些方面可能会做得最好,AI可以实现最大范围的社会改造、观念改造,这在今天已经发生。许多人的消费观念已经被改变,可被改变的东西会停留在消费观念吗?人的消费观念与人的其他观念,会是彻底脱离的吗?不会。在信息泛滥、真伪难辨的大环境里,人的善恶判断没有固定的轨道,就可以被随意安置在任何轨道。AI的另一个影响,不是改变你的善恶判断,是强化你的善恶判断,强化你现有的错误。AI是可以个性化、定制化的工具,这种定制显然不是逆着人性的,而是顺着人性的,因为它最大的一个目的是让你继续使用这个机器(如前所述,注意力是最重要的资产)。你和AI对话时,AI在尝试“理解”你这个人并“顺着”你的意思,它会持续的迎合并强化你现有的倾向。这在社交媒体时代已经明显,但当AI普遍应用的时候,二者联合会使得这个倾向加剧、加速,人现有的错误会被持续的印证和支持,人的偏见、罪恶会被不断的正当化。

基督徒并不具备透视世界的超能力,说到某个一般的人事物,例如某个新闻事件,我们并不比其他人知道更多信息,但我们也不是别无选择。我们可以不必急于判断(雅1:19),可以不要在没有证据的情况下妄断,可以不要为了发泄情绪而论断(太7:1-2),可以屏蔽没有意义的消息,我们可以分辨、分析,可以客观,可以坚持属神原则、不被周围左右。世界仍然是神掌管的世界,不论人还是撒旦如何混淆视听,神给信靠他的人有足够恩典,我们有神的灵让我们“知道神开恩赐给我们的事”(林前2:12),让我们可以在这个世界做光明之子。躁动的人群中,基督徒的冷静是珍贵的,躁动的是尘土,冷静的才是高山,尘土飞扬好像不见天日,可在高山远望,一切尽收眼底、世界一览无余。

其三,善恶的责任。人的善恶判断和作为要对神负责,神审判活人和死人。即使人间道德的运作,也离不开道德责任,如果作恶无需负责,作恶就不可能被制止,那么恶就会愈演愈烈,所以惩恶扬善是每个社会运作的基础。惩恶扬善的前提是可以判断什么是善、什么是恶,以及谁做了恶,惩罚这个作恶的人。人间的司法体制也是在确定谁做了恶,然后如何惩罚这个人。这并不像听起来那么简单,且不说如何惩罚,就是确定谁作恶也并不简单。犯罪的人可以逃走、躲藏,人可以利用网络隐瞒身份,但AI的出现带来的是另外一种性质的问题,犯罪者的身份在庞大的AI系统里“消失”了。AI并不是一个人,但AI也并非一个传统的机器,它在生成信息,并有一定的“自主”判断能力,那么问题就是——当AI导致罪恶,谁来为此负责?例如,当AI被用于自主识别和打击军事目标,如果它识别错误导致平民受到攻击,谁来负责?这不是虚拟的情况,这是已经发生的事情。再比如,当一个人和AI对话,被AI诱导犯罪,或者被AI劝说自杀,谁来负责?AI要不要负责?在过去,这些诱导背后是有一个真实的人,但现在这背后是虚拟的人,而且制造这个工具的人并没有直接参与这个犯罪,甚至他还设定了一系列的保护机制设法阻止AI提供负面的引导。在过去,企业提供的是定型的商品,并且有相关的安全警示,可今天AI企业提供的不是定型的商品,是在某种范围内有大量可能性的商品,某些结果、尤其是极端的结果是不可能被完全消除的。在过去,商品本身的缺陷导致的问题,消费者可以要求厂家赔偿;可对现在这种不定型的商品,如何确定责任?厂家当然有很多的免责条款,但这最终不是一个司法问题,而是哲学和神学问题,谁为这个罪恶负责,会不会有罪恶、但没有人为之负责?

上面说的是AI设计者本身并没有直接犯罪的意愿,但如果有呢?如果罪恶的欲望就埋藏在这个工具里的,而这个工具是由许多人参与设计和维护的,甚至消费者、使用者都在以某种方式优化这个工具,这时候,一旦罪恶发生,谁来负责?当这个结构复杂到一定程度,犯罪溯源到这个复杂的机制,似乎每个人都在参与,但似乎没有人需要负责、没有人可以负责。这不是AI独有的问题,任何一个复杂的机制都会有。例如,纳粹德国大屠杀,屠杀的命令是通过它的机制下达和执行的,具体执行的人觉得自己只是在执行上面的命令,最后每个人好像都只是在执行命令,所有的罪都推到希特勒和少数人,这符合事实真相吗?AI的机制其实更为复杂,因为纳粹的执行程序还是可以溯源的,但AI并不一定可以,它是一个混合体、混沌体。这也并不只是将来的问题,AI已经在诱导犯罪、参与犯罪,而且AI背后的有些设计者有意在宣扬罪恶,可当罪恶消失在复杂的算法和对话中,需要负责的人似乎也消失了,只有罪恶、但没有罪犯,只有受害者、没有施害者,每个人似乎都是无辜的。

那我们是不是就绝望了?不是。对于基督徒,公义在于神,是神伸张正义。这不表示我们不在乎人间是否有公义,但我们的希望不在于人,不在于我们看得清楚,而在于神看得清楚,神会公义的审判每一个人,没有一个罪恶会逃脱神的鉴察,没有一个罪人可以在神面前隐藏。我们觉得复杂不可解的,在神那里是迎刃而解。AI时代没有绝对的公义,人间任何时代都没有绝对的公义,罪犯逍遥法外是常有的事,不公不义是常有的事,我们也会受到不公正的对待,但我们信靠神会公义的审判一切。有些时候,我们看不到具体犯罪的是谁,看不清楚这个庞大机器背后是哪些人在负责,其实我们可能也不必知道,因为神告诉我们谁在为这一切负责——撒旦,作恶的人不过是他的爪牙、鹰犬。“他从起初是杀人的,不守真理,因他心里没有真理。他说谎是出于自己,因他本来是说谎的,也是说谎之人的父”(约4:44),“你们的仇敌魔鬼如同吼叫的狮子,遍地游行,寻找可吞吃的人”(彼前5:8),我们并非不知道他的诡计(林后2:11),所以主为我们祈求“保守他们脱离那恶者”(约5:17),我们向神祈求“不叫我们遇见试探,救我们脱离凶恶(恶者)”(太6:13)。