近些年,层出不穷的人工智能体问世,引发了诸多理论反思和实践探索。伦理学界对该领域的反应,集中体现在建构人工智能伦理的努力上。许多学者开始呼唤“人工智能伦理”的出场,并尝试建构系统化的人工智能伦理学。我们应该看到,当人工智能体具有类似于人的身形并能够使用善、恶、正当、公正等伦理概念时,它们确实不是模仿人类说话的“鹦鹉”,而是与人类智能接近的存在者。有些人工智能体驾驭道德话语的能力令人惊讶,其伦理概念的清晰性、其道德推理的逻辑性、其表达伦理意义的准确性,让很多人望尘莫及、自叹不如,让我们不得不思考它们是否已经具有道德思维、道德意识、道德认知。我们不禁要问,难道人类已经完全迈入一个人工智能伦理时代?对该问题的思索和解答,从根本上涉及我们人类对“人工智能伦理”这一概念之核心要义的界定。我们可以从三个方面加以认识、理解和把握。
人工智能伦理:还是专属于人类的伦理
一切伦理形态,都是人为建构的产物。“伦理”是人类在地球上出现之后才逐渐形成的一个概念。没有人类的自然界不需要伦理的价值指导。一条小溪如此这般地流淌,一根小草如此这般地生长,一只狮子如此这般地捕食羚羊,一切都是自然而然的事情,一切都是遵循自然法则的结果,一切都不会受到伦理道德的谴责。伦理是人类在自然界出场之后,出于建构和谐人际关系和维护稳定社会秩序的目的而形成的善恶观念,主要表现为人类在社会共同体中约定俗成的各种行为准则。作为善恶观念和行为准则存在的伦理,如果通过具体的人得到实现,它就变成了“道德”。所谓“道德”,只不过是伦理得以现实化的产物。人类关于伦理和道德的这种认知根深蒂固。它告诉我们,伦理和道德都是专属于人类的东西,堪称人类的专利品,它们本质上是“人类伦理”和“人类道德”。
如果说有一种伦理可以被称为“人工智能伦理”,那么,我们首先得追问,它是那种专属于人类的传统意义上的“伦理”吗?从语言学的角度来看,“人工智能”可以被当作一个名词来看待,“人工智能伦理”应该是一种不同于传统的“人类伦理”的伦理新形态。问题在于,现有的人工智能体已经发展到能够为自己确定善恶观念和行为准则的水平吗?答案显然是否定的。我们迄今为止所了解的事实是,所有人工智能体都还处于被人类“制造”的阶段。人类不仅制造它们的物质性身体,而且制造它们的精神性心灵。我们是在模仿人类的生命体来制造人工智能体,也就是说,我们是在用生命对齐的方式制造人工智能体。这种“制造”,实质上是“复制”我们自己的生命。这就必然会导致另外一个问题——既然人工智能体是我们人类生命的“复制品”,“人工智能伦理”就不能被看作是人工智能体的善恶观念和行为准则,而仍然应该被当作人类自身的善恶观念和行为准则。我们认为,只要人工智能体还没有发展到能够自主创造善恶观念和行为准则的水平,“人工智能伦理”就仍然是传统意义上的伦理形态。它是一个新的伦理概念,但它所说的“伦理”仍然是“人类伦理”。具体地说,人工智能伦理不是约束人工智能体的善恶观念体系和行为准则体系,仍然是约束我们人类的善恶观念体系和行为准则体系。
人工智能伦理:不能颠倒“人—物”关系的伦理
伦理本质上是关于伦理关系的道理。例如,中国封建社会的伦理以强调“三纲五常”为主要内容,而社会主义中国的伦理,则是以公民与公民之间的伦理关系,以及公民与国家、公民与执政党之间的伦理关系等作为主要内容。
既然人工智能伦理仍然属于“人类伦理”的范围,那么,我们在建构它的过程中应该思考的首要问题,是人类与人工智能体的伦理关系问题,其关键在于:我们人类应该把人工智能体当作“人”来看待,还是应该将它们当作“物”来看待?
传统的“人类伦理”严格区分“人”与“物”,认为人就是人、物就是物,两者不能混为一谈。康德曾经指出,人和物都是有价值的,但人的价值是用“尊严”来衡量的,而物的价值是用“价格”来衡量的;“尊严”不能买卖,所以人的价值无与伦比,而“价格”是可以商谈的,所以物的价值是低下的,因此,人类是高贵的存在者,物是卑微的存在者,认识这一事实是人类建构伦理的逻辑起点。
人工智能伦理既反对简单地将人类与人工智能体相提并论,更反对简单地将人工智能体提升到人类的地位。能否守住这条底线,是人工智能伦理的关键。如果突破它,赋予人工智能体与人类同等的地位,这就不仅意味着要承认人工智能体的道德主体性、道德身份和道德生活能力,而且意味着人类社会必将一分为二,一边是人类的世界,另一边是人工智能的世界,两者之间必定会为了争夺生存权而发生冲突。
人类与人工智能体之间的冲突会导致“人机大战”。如果研发人工智能体的科技人员缺乏应有的善恶观念,他们就不会顾及伦理约束,而是会竭尽所能地提升人工智能体的智能,并且会以他们制造的人工智能体能够在智能上超过人类而洋洋得意。具有善恶观念的伦理学家会坚持伦理约束的思想理念,主张将人工智能体的智能控制在合理限度内。能不能创造人工智能体的智能是科技人员的事情,能不能控制人工智能体的智能是伦理学家的事情,但两者不能“井水不犯河水”。人工智能技术的发展具有无限的空间,但这绝不意味着人类就应该将这样的空间无限制地开发出来。人类已经能够造出可以毁灭地球无数遍的核武器,难道我们就应该这样去做吗?作为人类,我们一直在坚守着一定的伦理底线。人类可以用很多种方法毁灭自身,但我们一直在阻止这种事情的发生。一切伦理的起点是人类对自身的尊重和爱。这种尊重是自重性的,这种爱是自爱性的,但也是伦理性的,因而具有崇高性,值得我们从道德上予以肯定。在人工智能时代,人类可以制造非常高端的人工智能体,但不能触碰一个伦理底线,那就是不能制造在智能和道德上超过人类的人工智能体,否则,它们就会作为人类的消灭者而出现。
人工智能伦理:不能模糊人的主体道德责任的伦理
伦理问题归根到底是道德责任的承担问题。德国哲学家康德指出,一个道德行为之所以被称为道德行为,是因为它具有道德价值,而它的道德价值又是由人是否承担道德责任的事实决定的。人类是如何承担道德责任的?是通过遵守普遍有效的道德法则来承担道德责任。例如,如果一个中国人自觉遵循了“己所不欲,勿施于人”这一被中国社会广泛认可的道德原则,那么他就是承担了相应的道德责任。
目前很多人在热议无人驾驶汽车的道德责任问题。这种讨论非常激烈,但实际意义并不大。只要无人驾驶汽车还不是完全自主的人工智能体,它们就不是与人一样的伦理主体,就不可能像人一样为违背交通规则、撞伤撞死人等交通行为承担道德责任。如果一辆无人驾驶汽车撞死人了,难道我们应该让汽车承担全部道德责任,而让车主逍遥法外?这似乎是凭借常识就能判断的事情。
人工智能伦理不应该否定人类的伦理主体地位和道德身份,更不应该模糊人类的主体道德责任。肯定人类的伦理主体地位和道德身份,不仅是为了维护人类本身的伦理尊严和高贵性,而且是为了推动人类积极承担人之为人的各种道德责任,更是为了明确人工智能伦理的核心要义。人工智能伦理归根到底是约束人类的伦理,而不是约束人工智能体的伦理。
人类有能力制造智能与人类等同甚至超过人类的人工智能体,也应该有能力控制它们。这种能力主要是一种道德能力。让我们人类始终作为伦理主体、道德生活主体、道德责任主体而存在,将人工智能体始终控制在“物”的层面或水平,使之无法僭越人类的伦理底线——这既是人类的伦理思想传统,也是人工智能伦理应该恪守的根本性伦理思想。在人工智能伦理价值体系中,只能是人类统治人工智能体,而不是反过来,由人工智能体来统治人类。那些鼓吹人工智能体统治人类的人,要么是没有伦理智慧的人工智能技术人员,要么是操控人工智能技术发展的商人。人工智能技术不应被技术至上主义者所操控,不应沦为贪婪资本的奴婢,应该体现以人为本、造福人类的伦理价值取向。如果说人工智能伦理的出场是必要的,那么它就是应该为也能够为人工智能技术发展设置伦理价值边界的社会规范。
(作者向玉乔,系湖南师范大学中华伦理文明研究中心主任、教授)
文章来源:新湖南·理论·文史哲 2025-10-09
供稿:办公室
一审:王伊帆
二审:文贤庆
三审:向玉乔