AI伦理边界:西工大李团队探索人工智能伦理计算“机器心脏专栏”
日期:2023-10-17 15:01:59 / 人气:578
机器之心编辑部
大模型驱动人工智能进入我们的生活。从智能棋手到智能手术机器人,人工智能的应用场景逐渐涉及人类健康、隐私等安全领域。如何让人工智能遵守伦理秩序,从而更好地为人类服务?这个问题已经摆在我们面前。
近年来,学术界和工业界都开始关注和讨论人工智能的伦理治理,在伦理规范的研究方面也取得了初步进展。然而,由于AI伦理的抽象性,如何定量衡量智能系统的伦理性仍然是一个未知的问题。
西北工业大学李教授在《中国科学:信息科学》的文章《人工智能的伦理计算》中探讨了伦理的可能测量方法,并试图建立AI伦理的量化计算框架,指出伦理计算将是推动技术伦理实践的关键交叉领域,也是构建伦理规范的重要基础工具,希望引起对人工智能伦理的更多思考。伦理计算能否成为突破人工智能伦理治理困境的关键?
高宜兰,雷,李,人工智能伦理计算,中国科学:信息科学,2023,DOI: 10.0000/SSI-2023-0076。
https://www.sciengine.com/SSI/doi/10.0000/SSI-2023-0076
人工智能伦理治理的致命弱点
多模态认知计算、生成式大模型等技术的突破,加速了智能系统在医疗、教育等领域的应用。智能系统越来越多地参与人类生活和决策,技术社会化的深化引发了一系列技术伦理讨论。
伦理问题已经讨论了很长时间。在阿西莫夫的科幻小说中,提出了著名的机器人三定律来限制人工智能的行为。然而,随着技术社会化的深入,我们的伦理忧虑显然不再是科幻小说或电影中的虚构场景。手术机器人值得信赖吗?辅助决策系统的决策是否公平?生成模型的结果是否侵犯了著作权?这些技术伦理问题与当下的你我息息相关,迫切需要更具体、可操作的人工智能技术伦理治理方案。
图1:1:AI应用场景中的决策要素对比
作为人工智能发展中的一个重要话题,人工智能的伦理治理引起了社会各界的广泛关注。2021年12月,联合国教科文组织发布了《人工智能伦理问题建议书》,以规范人工智能技术的发展。与此同时,各国也积极参与人工智能治理的讨论。研究表明,世界各国已经就技术透明、公平、公正、无伤害和隐私达成初步共识。
图2:人工智能的主要伦理原则
2023年10月8日,科技部、教育部、工信部等十部门联合发布《科技伦理审查办法(试行)》,重点对智能领域相关技术实际应用中产生的技术进行伦理审查,这是我国践行科技伦理治理的关键一步,为人工智能的健康发展提供了方向。
然而,我们需要清醒地认识到,人工智能的伦理治理在取得进展的同时,还面临着诸多问题。如何保证智能系统以良好、公平的方式做出决策?如何衡量一个系统的伦理绩效或者如何评价其决策结果?如何建立统一明确的伦理标准?各种问题的深层原因在于伦理本身的抽象。注重伦理的定性分析,缺乏定量计算,使得相关规范难以付诸实践,这也成为阿科留斯人工智能伦理治理的脚跟。
人工智能伦理计算——突破伦理量化计算的瓶颈
人工智能伦理计算是人工智能和伦理学的交叉领域。伦理原则通过定量描述、测量或模拟技术被数学符号化或算法化,智能算法的伦理性能在此基础上受到约束。通过伦理计算,寻求机器伦理决策的量化或模拟思维,例如,如何衡量一个决策的公平性和善意性,或者机器是否可能学习人类道德决策的方式。
根据智能系统中伦理认知程度和伦理决策自主性的差异,伦理计算分为高阶伦理认知和低阶伦理认知两种计算范式。
图3:人工智能伦理计算范例
2.1高阶认知伦理计算:标准化人工智能意图
高阶认知伦理计算旨在构建一个伦理推理模块,使计算机能够学习模仿人类的道德决策机制,规范高度自主的智能系统的道德决策意图。
电车问题是一个经典的伦理两难命题,也是长期困扰自动驾驶系统发展的问题。对于这种困境,我们不会有一劳永逸的选择。不同的道德决策情境和不同的哲学观点(结果主义伦理学、义务伦理学、美德伦理学)可能导致差异化的决策。此时,在系统中引入高阶伦理计算,可以模仿和学习人类基于哲学假设或人类决策经验的决策机制,计算出可行的机器决策,进而实现规范AI系统的意图。
图4:电车问题示意图
由于试图理解和模拟人类伦理决策的机制,高阶认知伦理计算思想将面临动机复杂和决策场景多样的困难,机器决策需求的可解释性也将为这类思想带来困难。尽管如此,它仍然有助于理解人类伦理决策的机制,或者实现对更高自主性机器的有效控制。
2.2低阶认知伦理计算:约束人工智能行为
低阶认知伦理计算侧重于伦理度量方法的建立,没有深入理解伦理机制,通过抽象伦理概念的度量和约束优化,实现对AI行为的直接约束。此时的伦理计算并不关注系统伦理决策背后的道德动机,目标是构建一个能够有效约束AI行为的度量指标。
其中,公平机器学习的研究就是一个典型的应用,关键问题是如何定义系统公平。通常表现在算法决策中减少对一些敏感或受保护属性的偏见。通过设置公平性指标,可以量化系统在公平性指标上的表现,进一步优化伦理决策。
图5:公平研究的一个例子
低阶认知伦理计算通过伦理测量提供抽象伦理概念的计算描述,以提高伦理绩效。然而,这种方法也面临着许多问题。指标的量化需要体现伦理这一动态的、发展的因素的特点,只考虑结果的指标的衡量也得到简化,因此明确量化指标的评价和应用范围也很重要。然而,通过量化定义来度量和改善伦理需求为伦理治理提供了重要的帮助,这也是当前发展伦理计算的重要意义。
总的来说,以上两种范式都是根据智能系统的伦理认知程度和决策自主性来选择合适的方法,以保证系统行为符合伦理要求。无论是高度自主的系统(如自动驾驶汽车、手术机器人),还是低自主的系统(如辅助决策、辅助设计),伦理计算都旨在通过量化计算来规范其意图或直接约束其行为。
人工智能伦理计算的哲学基础
哲学伦理学,尤其是规范伦理学(研究道德决策的原则和机制,即为什么做出一些道德决策)对伦理计算有着重要的影响。目前,人工智能伦理学研究主要有三种哲学观点,即结果主义、义务论和美德伦理学。这些不同的学派反映了人类伦理决策的不同倾向。通过不同的原则,甚至考虑经验、情绪等因素,伦理计算可以推断复杂情境下的道德决策。
道德决策的基本要素是道德主体,以及道德行为、决策背景和决策后果。以单个代理人的道德决策为例,代理人需要在决策背景等信息的基础上判断决策后果,做出道德决策。
结果主义伦理学也经常被称为功利主义。基于这种哲学的体系倾向于权衡每一个选择的后果,选择道德利益最大的那个。因此,功利主义可以在现有决策背景下优化决策的道德效益函数,而决策效益需要通过一系列决策序列及其决策背景来获得。
考察相应的决策后果,判断最优决策序列。但事实上,并不是所有的信息在决策中都是准确的。这时候就涉及到概率意义上的优化决策结果,也涉及到贝叶斯因果推理。
义务伦理强调决策者在一定条件下尊重义务和权利,此时行动者倾向于按照既定的社会规范行事。采用这种决策哲学的系统可能涉及计算量化中逻辑规范或某些规则约束的表达。
德性伦理要求决策者按照一定的道德价值观行事和思考,同时具有德性的行动者会表现出一种被他人认可的内在动机。人品高于行为,人品好才会有好的行为。这种规范的伦理理论不同于优化结果的功利主义或遵守规则的义务伦理,会更倾向于从实践中学习,在计算中需要从一些经验集中收集数据。
中学阶段的学习会更多地利用描述性伦理学的实证结果(研究人类的伦理决策,但不评价它),同时也自然与当前的各种数据挖掘和学习算法密切相关。
从以上讨论可以发现,伦理计算是人工智能和哲学伦理学之间高度交叉的研究课题,其计算策略和应用范围需要更多的交叉讨论。
人工智能伦理计算的意义、挑战和前景
随着智能向人类社会各个领域的渗透,伦理治理成为人工智能健康可持续发展的必要问题。伦理计算理论和技术的研究可以推动抽象伦理的量化分析问题,这可能成为约束人工智能遵循人类伦理的一把锁,也是打通AI应用的一把钥匙。
人工智能是大势所趋,相关的立法和规范也会逐渐出现。谁来制定这些规则?是对领域比较熟悉的研究人员,还是对具体技术了解不够的群体?这个问题很难回答,但至少,人工智能伦理的数值衡量可以为规则指定提供一个参考指标体系。
伦理计算的核心是通过量化计算将抽象的伦理具体化,强调将公平、透明、隐私保护、可信等伦理原则融入到计算技术的实践中。这不仅有助于人工智能的可控发展,也将鼓励研究人员在构建算法系统时更深入地理解技术伦理,更积极地考虑伦理问题。同时,它还将为制定道德治理原则、法律和法规提供至关重要的技术参考指标。
然而,伦理计算也面临许多挑战。在自主搜救、无人巡检等开放的安防场景中。,智能系统需要动态感知和适应环境变化的能力,以降低潜在的伦理风险。同时,伦理决策通常涉及情感和认知因素,因此需要借助多模态认知计算和因果推理等技术来处理伦理推理的复杂性,也需要更多地了解人类的伦理决策方法。这些挑战需要跨学科的合作,以确保伦理计算技术能够有效地处理不断发展的伦理问题。
总之,人工智能伦理计算将是推动伦理治理发展的重要工具。通过推动伦理治理理论和实践的迭代发展,伦理计算将更安全地释放人工智能的潜力,有望在协助法律法规的制定、确保人工智能以符合伦理道德原则的方式发展,最终造福人类社会方面发挥作用。
来文提交人介绍说:
李,西北工业大学学术委员会副主任,光电与智能研究院(iOPEN)教授,主要研究方向为领域安全、图像处理与成像。
参考阅读:
李,多模态认知计算,中国科学:信息科学,53 (1),1-32,2023,DOI: 10.1360/SSI-2022-0226。"
作者:杏耀注册登录测速平台
新闻资讯 News
- 日本老太亲身示范:白发不染不穿...11-12
- 心动的信号7:彭高、翁清雅分手的...11-12
- 黎姿和49岁残疾弟弟露面:瘫痪17...11-12
- 叶珂道歉低调退网上热议,网友疑...11-12