田 怡

(青岛大学纺织服装学院,山东 青岛 266071)

人工智能在现代社会各个领域的应用是顺应时代发展需要,但因为信息技术发展的限制,人工智能在不同领域的应用也面临着各种难题。而“修昔底德陷阱”作为一个研究命题,长期以来学术界对其讨论和研究也从未间断过[1]。目前,人工智能技术在法律治理中的应用,因其与人类价值观及伦理性尚未形成完善的体制构架,导致人工智能的法律治理陷入了“修昔底德困局”中。因此,针对人工智技术对当前的法律体系造成的伦理冲击,如何采取应对措施,解决人工智能的法律治理“修昔底德困局”的难题,是本文探讨和研究的重点。

一、关于“人工智能”的定义

直到今天,人们对于人工智能的定义并没有形成共识,最早人工智能被认为是像机器人一样学习、思考和认知事物,是一种通过计算机来模拟人类的智能技术。但随着人工智能的不断发展,到目前为止,人工智能有两种常见的定义。一种认为人工智能是利用计算机来实现智能化操作;另一种认为人工智能是一门通过研究和获取知识,再运用知识的科学。

随着时代的发展,人工智能技术的不断创新,现在欧洲对人工智能的通用定义是可以利用传感器或互联互通技术分析数据、获取经验、调整自身行为的无生命意义的信息工具。虽然,人工智能在目前还未形成统一的定义,但明确人工智能的本质特征,对于解决人工智能导致的伦理与法律问题有重要意义。

二、人工智能法律治理面临的“修昔底德困局”

(一)人工智能算法的匿名化及可解释性

人工智能技术要为人类社会服务,前提条件必然是遵循人类社会的伦理道德和法律准则。但在实际的应用中,人工智能技术是由研发人员设计的,人工智能系统的法律治理问题,还要归为人工智能技术研发的伦理及法律问题。为避免人工智能技术研发人员将其个人的主观好恶、偏见等代入人工智能系统研发的过程中,还需要在人工智能系统中植入相关的伦理道德规范和价值代码化,以便人工智能系统可以在运行过程中,及时做出符合伦理道德及价值规范的行为。

由于人工智能算法歧视和算法自身的构建,以及基于算法的数据样本等密切关联,如果底层数据积累越多,人工智能算法的计算结果准确度就越高,对某类人群的人工智能算法描述也更加精准。另外,人工智能算法的复杂性在不断增加,人类社会开始普及计算机学习,也会加剧人工智能系统算法的黑箱问题日益严重[2]。

(二)人工智能算法的公平正义保障问题

如今,人工智能已经被广泛用于企业管理、信用评估和治安巡逻等多种决策性工作中,如何确保人工智能算法在决策性工作中的公平正义性,成了人工智能法律治理中极为重要的问题。目前,人工智能的正义性问题主要分为两个方面:①如何保障人工智能算法决策的公正性,杜绝出现人工智能算法决策歧视的问题;②在某种决策工作中若牵涉到个人,如何采取申诉,并问责人工智能及其算法,实现公开透明救助个人的效果。

在大数据时代,人工智能高速发展的社会背景下,人工智能自动化决策技术被用于教育、医疗、信贷、治安等诸多社会领域内,使得人工智能算法的歧视问题变得不容忽视,人工智能决策的不公正性问题也频繁出现在各个领域内。另外,人工智能系统中存在各种潜在的偏见,都会对涉及人工智能决策的个体产生负面影响,为其带来不公正对待。而在传统的法律体系中,我们可以借助程序正义,保证法律的公平正义。因为数字正义的规则范围更广,在极大程度上挑战了人工智能时代各个领域内的法律法规[3]。

(三)人工智能对个人隐私及其尊严的保障问题

人工智能系统需要收集大量的数据信息,并对其进行自动化和智能化的分析,这在很大程度上对个人隐私及数据保密造成了冲击。因为人工智能系统运行的基础是有大量数据作为支撑,通过分析大数据可以得知个人信息和消费、收入等隐私内容。再由这些数据分析的结论,而采取“算法杀熟”的方式,会导致社会上出现各种不公平现象。

而且,人工智能系统可以利用对个人数据进行智能化分析、决策的优势,形成个人画像,从而对个人投资和收益造成影响。比如在人工智能系统的自动化操作下进行投资,人工智能系统可根据客户的财务状况给予其投资建议。如果投资失败,客户的权益保障问题,银行等相关的金融机构,如何与个人数据管理实现协调也成了人工智能法律治理问题中的难题。另外,司法审判过程中案件还原程度的真实情况被极大程度简化,也会导致个人的人格、尊严及人权在人工智能技术的发展中逐渐丧失。

三、人工智能法律治理“修昔底德困局”的破解对策

(一)构建“以人为本”的人工智能伦理价值观

人工智能法律治理的主要目的是实现人工智能算法的公平、公正和透明化。而人工智能系统的透明化,也是确保人工智能算法公平、公正的前提条件。具体的实施方式为构建完善的人工智能解释机制,让计算机编程人员提供相关信息,对人工智能系统的构造和原理进行解释,保证社会大众对人工智能系统的运算机理有更清晰的认识。

人工智能算法虽然可以辅助司法系统,并采取决策,但因为算法目标不明,数据不完整及存在算法误差等问题,也会导致司法系统人工智能决策出现各种伦理与法律问题。因此,在人工智能技术进行司法决策前,还要及时采取措施进行干预,以便引发不必要的人工智能法律治理问题[4]。目前,全球各地都出台了相关的人工智能法律法规条令,为了顺应社会发展的需要,我国在进行人工智能相应立法时,也可以通过法律法规的形式来制定人工智能伦理和道德规范标准。

(二)保障人工智能算法透明化及匿名化数据处理

人工智能算法的透明性需要法律提供义务保障,算法的公开透明化,有助于人工智能研发及使用人员及时找到引发算法歧视的问题根源,明确遭受人工智能算法影响的群体范围,有利于人工智能系统对算法模型进行及时更新。公开算法逻辑作为保障人工智能算法透明性的举措,可以提供相关的数据类型、信息等分析构架,虽然不能完全避免人工智能决策出现问题,但可以有效降低人工智能系统算法引发的一系列法律治理问题。

在大数据时代下,受到数据处理及流动的多样化和全球化等因素的影响,为确保个人数据得到更好的法律保护,避免个人数据和信息泄露,对其人权、自由和尊严造成不良影响,法律还要确保人工智能数据处理人员,对个人数据实施匿名化处理,以免数据主体再次被识别。

(三)建立完善的人工智能监管体制

针对人工智能法律治理中会出现的一系列问题,构建完善的人工智能行政监管体制也变得愈发重要。而人工智能监管体制的确定,不仅可以为社会各领域的人工智能决策提供有效的法律保障,还能确保人工智能的应用,不会对个体尊严、自由和人权造成侵犯,尤其是在保护个人数据信息方面,可以有效发挥人工智能监管机制的作用[5]。

另外,人工智能开发商、制造商等在人工智能监管部门的监督管理下,也可以对人工智能应用程序的人权和道德进行评估,及时发现其潜在的偏见,并作出相应的改进。同时,人工智能监管体制的完善,也有利于人工智能行业充分发挥自律作用,推动行业及区域性自律组织的建立,实现相互监督、相互约束和自律管理的目的。

四、结束语

人工智能时代的到来,既为社会各行各业的发展带来了机遇,也引发了相关的法律治理问题,使其陷入“修昔底德困局”。要破解人工智能法律治理的“修昔底德困局”,还要及时调整法律法规,构建人工智能行政管理体制,以适应人工智能技术在各领域内的应用及发展,使其真正成为为人类社会服务,便民、利民的新时代信息技术工具。