刘晓春

人工智能技术的快速发展,除了在基础模型和技术层面的日新月异、突飞猛进外,在应用层面的拓展也是令人瞩目。消费电子领域人工智能与硬件的结合,催生出一批举着AI旗帜的新产品、新模式、新生态,特别在电脑、手机、家居、汽车、可穿戴设备等领域,充满想象空间。人工智能技术以不同形态深度整合到消费电子领域,激发产业活力和想象空间的同时,也为产业链各环节各主体的合规和法律责任分配带来挑战。

整体合规框架

消费电子领域人工智能的技术应用,整体上属于人工智能产业规制的领域,同时又与数据、算法等领域的合规存在较为密切的关联。对于人工智能产业发展的规制,目前全球范围内只有欧盟通过了正式的《人工智能法》,美、中等人工智能产业快速发展的国家都还没有出台统一的法律。就欧盟的立法而言,对人工智能按照风险高低进行分类规制,分为不可接受风险、高风险、有限风险和极小或无风险,并针对通用AI模型增加了额外的义务。

这种以风险为导向的监管思路,也有可能在美国和中国有所体现。具体到消费电子领域,由于主要集中在应用层面,涉及到国家或者公共安全方面的风险概率较低,但是由于行业方兴未艾,消费电子又紧密嵌入消费者的日常生活工作,与消费者隐私、个人信息、人身财产安全相关的风险浮现还有待观察,一旦出现较为明显的风险隐患,可能会引起较高的监管关注,因此,在推出新型产品之前做好周全的安全测试和风险预判,是对于行业拓展十分关键的合规举措。

除了针对人工智能的专门监管之外,数据、算法等问题的合规依然是人工智能消费电子领域的关注重点。硬件产品在收集和处理用户数据过程中的合规具有特殊性,特别是在用户知情同意的保障、数据收集范围的限定、数据共享和处理的过程、用户数据用于人工智能训练的设定等环节,存在不同于以往移动APP个人信息合规的特点,再加上诸如智能家居、可穿戴设备等硬件所收集数据很大程度上都具有较高的敏感性,涉及用户家庭空间、个人轨迹等隐私属性较强的信息,如何在不会对用户造成频繁打扰的前提下确保数据合规,是需要进行周全和精细设计的重点领域。

人工智能与消费电子结合过程中也涉及大量算法应用,算法领域的合规也需要全面落实,通过算法备案、评估等机制,对于算法自动化决策、生成合成内容等过程进行风险识别,对相关信息进行有效披露,为用户提供自由选择的选项等,避免相关权益侵害的发生,也是合规的重要节点。

就目前的产业态势看,行业巨头针对人工智能消费电子的布局具有全球性,国内外重要企业都在纷纷入局,建设自己的竞争优势和产业生态。在这个过程中,消费电子产品在各国的上市,有可能存在所收集数据跨境运行带来的安全风险问题,亦即需要匹配数据跨境方面的合规举措,另一方面,在快速形成新一代人工智能生态系统的过程中,也可能出现排除、限制竞争,封闭生态圈,阻止竞争对手获取生产要素的竞争行为,引发垄断、不正当竞争等竞争法关切。

产业链分工和责任分布

人工智能整体产业还在快速发展和分化之中,从基础模型、通用模型到垂直领域的模型,经过产业链上各方主体的参与,最后到达消费者的直接应用层面,存在不同功能的产业参与主体,在产业分工趋于成熟和稳定之前,各方主体之间的分工和对应的责任分配,决定着各方的合规安排甚至产业形态。

在消费电子领域,人工智能技术与硬件结合,作为一个整体提供给消费者,例如整合了人工智能硬件和软件的电脑、手机,通过人工智能技术分析用户健康数据并给出相应建议的可穿戴设备,自动调节家庭环境的智能家居等,因此很大程度上,消费电子产品的生产者可以被认定为是人工智能服务的直接提供者,并承担由此可能引发的相关产品和服务责任。但是另一方面,的确可能存在硬件厂商使用的是其他人工智能基础服务提供者的服务能力,亦即在人工智能技术服务能力上存在“外包”的情况,硬件厂商在选择了特定的人工智能服务提供商之后,对其服务后果、质量等缺乏足够的控制能力。在这种情况下,经营者需要事先做好妥善的责任分配的合同安排,并对消费者事先充分告知真实服务主体、责任承担主体等核心事项,并在出现问题的时候积极配合协助问题解决。

长远来看,对于产业链分工和责任分配,需要在总结行业实践经验的基础上,形成合理的法律规则,对风险和责任进行法定的分配,建立各方的有效预期。这一点上,近期推出的中国《人工智能法(学者建议稿)》也秉承了这一思路,对产业链上人工智能不同经营者提出了分类规制的方案。

生成式人工智能应用的合规要点

近两年人工智能领域的突破性进展是从生成式人工智能而来,消费电子领域的人工智能技术应用固然不限于此,但也可以想见大量的人工智能应用亮点是体现在内容生成领域。人工智能通过理解生成文本、图片、视频的功能,除了用于直接创作之外,也可以在辅助人们决策的各个方面大显神通。生成式人工智能的专项合规,在中国具有关键意义。中国关于生成式人工智能的专门规定,要求在内容安全、数据训练、权益保护等各个领域进行专门合规,接受政府监管,保持相应的透明度要求。

生成式人工智能在生成合成图片、音频、视频的过程中,还需要充分评估可能带来的深度伪造乃至电信诈骗等受到公众高度关注的风险内容,并有效履行标识义务。对于可能造成混淆、误认的情形应当保证用户标识为显性标识,即类似“本内容为AI生成”等明显标识,并根据相关规定的要求针对生成内容添加可追溯的隐性标识。消费电子产品自带的人工智能功能,如能应用于涉及存在伦理争议的领域,例如复活死者的“数字人”,则需要更加关注潜在伦理和道德风险,进行相应的功能和权限设置,防止不可控的风险出现并蔓延。

生成式人工智能面临的着作权侵权挑战,也是合规重点之一。针对生成式人工智能在数据训练阶段使用版权内容,目前法律上对其行为属性尚无定论。但对于生成存在着作权侵权问题的内容,承担责任的可能性较大,在这种情况下,生成式人工智能的提供者有必要采取相应的防范措施,包括为着作权人提供提交侵权通知的渠道,在收到通知之后采取必要的侵权防范措施。在这个领域,着作权法上的规则也还在演进和探讨过程之中,存在不确定性。在这个意义上,法律上的确也有必要尽快形成有利于产业健康有序发展的确定规则,减少不确定性给产业带来的合规困扰。

健康管理领域的合规重点

人工智能在消费电子领域应用的一个亮点是可穿戴设备及其相关的健康管理服务,通过收集和监测人体的相关数据,进行智能化分析,为消费者的日常生活起居、作息、运动、疾病隐患等给出比较专业和精准的建议,这不仅具有重要的商业价值,对于消费者而言也切实提高了生活质量,具有巨大的想象空间。

但是健康管理服务也面临较为明显的数据合规和安全挑战。健康数据通常被认为是十分敏感的个人隐私数据,从收集、处理到共享都需要进行较为严格的数据合规设计,并且,如果将收集而来的用户健康数据,用于人工智能的训练,需要获取用户明确的单独同意。对于健康数据的智能化处理还需要保持一定的透明度,用户有权进行选择和设置,并可以要求了解处理和决策的核心过程,这些都对产品和服务设计提出一定的挑战。

最后,健康管理涉及用户的身心利益,服务和建议如果质量存疑,甚至出错,有可能会导致比较严重的用户损害后果,相关的责任如何来承担,在何种程度上可以豁免,使用服务的风险程度如何,都是需要事先充分评估并如实告知用户的。尤其是对于未成年人、老年人等特殊群体,需要采取更加针对性的保护措施。除了身体健康管理之外,情绪管理、精神陪伴等方面的服务则需要匹配更加周全的伦理审核,在必要的时候提供建议就医等提醒和警示措施。

(作者为中国社会科学院大学互联网法治研究中心主任)

本文为中国社会科学院“数字化决策与国家治理”综合实验室(编号:2024SYZH010)项目的阶段性成果。