研究 | 闫坤如:人工智能价值对齐的价值表征及伦理路径(二)

来源: 中国工艺美术学会   时间:2025-04-09  浏览量:22

三、人工智能的伦理疑难及其哲学路径分析
人工智能对齐既是规范性问题也是技术性问题,规范性问题主要表现在人工智能需要对齐哪些人类价值,需要把哪些道德规范嵌入人工智能系统,技术性问题是人工智能价值对齐需要哪些技术设计标准。人工智能系统越复杂,其面临的道德问题也越复杂,技术难度也就越高。如何通过技术手段让人工智能系统体现人类意图,与人类的价值观和目标相一致呢?这是需要深入探讨的问题。
1. 人工智能技术研发和使用是一个规范性问题
人工智能技术发展的规范性是人工智能价值对齐的前提和基础。人工智能对齐是一个规范性问题,人类决定研发和使用什么样的人工智能技术,人工智能技术的适用范围和应用场景,以及需要什么样的人工智能由人类来决策。人类预先在人工智能技术研发之初对技术风险进行前瞻性评估,评估技术潜在风险和社会影响以及对人类主体性地位的挑战,决定人工智能的研发可能性和使用范围。虽然人工智能技术具有自主性,具有自我推理和自我决策能力,但人类是人工智能技术的“造物主”,人类可以选择研发和使用人工智能系统的类型和属性,可以决定具体的人工智能技术研发边界,控制其使用规模,消除其负面影响和潜在风险。人工智能系统的道德地位由人类来选择和决定。人类的作用还表现在不能把人工智能体看作完全依赖于自身自主性的独立主体,具体的人工智能技术出现是人类基于自身利益进行选择的结果。因此,人工智能技术的研发和使用是一个规范的问题,而不是描述性问题。
2. 人工智能对齐的规范性分析
规范性分析涉及很多方面,首先是人类价值多元性问题。人类价值外延丰富,包括生命、健康、安全、自由、正义、平等、仁慈原则等。人类价值具有复杂性和社会性。其次,道德主体价值目标多样性和价值诉求多样性。不同道德主体具有不同的价值目标,不同利益相关者之间的价值诉求是不同的。例如,人工智能系统研发者注重算力,人工智能系统运用者注重效益,人工智能系统用户注重系统的可信赖性,政府部门注重人工智能系统使用的公平性和社会影响等。再次,道德的动态性与人工智能程序的变动性,当价值本身保持不变时,对价值的理解或解释可能发生变化。例如“安全”价值,在自动驾驶汽车设计中,可以指驾驶员和乘客的安全(乘员安全),也可以指路人的安全。最后,人工智能价值对齐实施过程中可能产生价值冲突或者陷入伦理困境,例如,自动驾驶汽车危急时刻的决策到底是以车内人优先还是以行人优先?我们不能因为价值多元性和变动性而否认全球价值共识的可能性,虽然各利益相关者价值诉求各有不同,但所有人都注重人工智能系统的安全性和可解释性。
人工智能对齐是人工智能系统设计和发展的目标,也是人工智能技术发展的过程,就像在海上一直航行的特修斯之船一样边走边修,在人工智能技术发展过程中纠偏正向,通过在设计中包含人类意图,在算法运行中符合和体现人类价值观,最终实现与人类根本利益一致的目标。为了实现这样的目标,需要在设计中嵌入人类价值,需要在算法运行过程中协调不同利益相关者的利益。2017年,千名人工智能相关领域的专家联合签署了《阿西洛马人工智能23条原则》,旨在指导全球AI技术的发展,其中重要的一条原则是伦理和价值原则,即AI系统的设计者和建设者有责任和机会塑造这些道德含义,确保其目标和行为与人类的价值观相一致。AI系统应遵守人类的价值观,包括尊严、权利、自由和文化多样性。2023年11月1日,在首届全球人工智能安全峰会中,中、美等28国通过《布莱切利AI宣言》(Bletchley Declaration),旨在表达对未来强大人工智能模型对人类生存造成威胁的担忧,以及对当前人工智能增强有害或偏见信息的担忧,希望通过法规等方式降低相关风险,同意通过国际合作,建立人工智能的监管体系。亚马逊、微软、谷歌、IBM、Facebook和苹果联合建立了人工智能行业联盟,共同研究和制定人工智能技术的最佳实践方案。
3. 人工智能对齐的技术性问题分析
人工智能对齐需要将人工智能对齐的技术可操作性难题和人工智能对齐的价值目标转化为技术标准进行分析。首先,人工智能对齐不同技术路线存在可操作性难题。人工智能技术有符号主义人工智能、联结主义人工智能和行为主义人工智能等不同的技术路线。符号主义人工智能通过数理逻辑、启发式算法等技术让机器具有推理能力,让机器具有计算智能;联结主义人工智能利用仿生学模拟人类大脑生物结构和神经网络,让机器具有感知智能;行为主义人工智能通过像人一样思考和行动让机器具有了认知智能。技术路线的复杂性为人工智能对齐带来技术可操作性难题。其次,技术的不透明性和算法黑箱带来人工智能对齐的技术可操作性难题。人工智能系统具有复杂性和不透明性,算法黑箱是人工智能系统的固有问题,人工智能系统具有自主性和自我推理、自我决策能力,不受外界干扰,并非完全按照人类设计的算法来行动,因此,算法黑箱使得让人工智能技术发展符合人类的价值目标遇到难题。最后,人工智能技术应用场景的多元性为技术可操作性带来困难。不同场景有不同的技术要求和设计标准。例如,人工智能虚拟助手需要能理解并回答用户的问题,执行一些简单的任务,如设置提醒、播放音乐或提供天气预报等。个性化推荐场景需要运用推荐算法进行商品推荐。自动驾驶场景需要识别路标、预测行为和进行决策等。人工智能技术应用场景的复杂性为人工智能对齐带来技术难题。
人工智能对齐的伦理规范和具体的技术设计标准之间存在难以跨越的逻辑鸿沟,道德是人类的属性,而设计需要具体的技术标准和技术规范,伦理规范如何转换成设计标准是一个逻辑难题。如果不能搭建伦理规范与技术设计标准之间的桥梁,则无法跨越这个逻辑鸿沟,人工智能对齐的目标也就无法真正实现。为了实现人工智能对齐的目标,需要解决两个问题。首先,技术具有道德调节作用是人工智能对齐的技术前提,如果技术不能调节道德,不能把道德嵌入物中,则不能实现人工智能价值对齐的目标。荷兰特温特大学的彼得-保罗·维贝克(Peter-Paul Verbeek)认为技术具有道德调节作用,人类可以把价值嵌入技术人工物中。其次,需要把价值目标转化为具体的设计标准。价值对齐不是挂在嘴边的口号,为了能成功落地,必须把不同场景的价值目标转化为具体的设计标准,实现价值目标的具体场景落地,比如人工智能系统的“安全性”价值目标可以转换为“技术鲁棒性”“安全可中断性”等技术设计标准;人工智能系统的“可解释性”价值目标可以转换为“故障透明性”“数据可追溯性”等设计标准;人工智能系统的“公正性”价值目标可以转换为“避免算法歧视”“避免算法滥用”等设计标准;人工智能系统的“可控性”价值目标可以转换为“系统可追踪”“系统可追溯”设计标准等。只有这样,才能实现真正的人工智能技术的价值对齐,才能安全地使用人工智能技术,才能把人工智能技术限制在可控范畴内。
结  语
人工智能技术在社会中的地位是一个规范性问题,技术本身没有道德性,使用技术的人的道德水平决定了技术发展的方向和可能性,是人类决定具体人工智能技术的研发和使用边界,人为人工智能技术立法。人类研发和使用人工智能系统是为了减轻负担,增强人类福祉,应该在研发和使用过程中体现人类意志和价值观,但因人工智能系统的复杂性、自主性和算法的不透明性,人工智能价值对齐并非一蹴而就,人工智能价值对齐既是一个目标也是一个过程。为了实现人工智能价值对齐的目标,必须先对人类价值观进行考量和分析,再在具体的人工智能技术发展过中实现价值对齐的目标。人类研发和使用人工智能系统必须尊重人类的选择,符合人类的意愿和价值观,维护人类尊严,确保人类的主体性地位,以实现人类的自由和解放为最终价值目标。

闫坤如,华南师范大学哲学与社会发展学院教授、博士生导师。

责任编辑:张书鹏

文章来源:伦理学研究 

上述文字和图片来源于网络,作者对该文字或图片权属若有争议,请联系我会。