田丰 胡正坤

6 月8 日,北京首钢会展中心举行的第十六届中国国际社会公共安全产品博览会上,观众在参观“AI 指挥中心系统”

伴随以ChatGPT为代表的大模型的出现,人类迈入AI2.0时代,并向通用人工智能进军。

在AI1.0时代,100%的程序由人类程序员编写,计算机中20%的指令承担了80%的工作;而在AI2.0时代,80%的程序和内容由AI大模型生成(即生成式AI),20%的程序与业务逻辑由提示工程来优化改进。

人工智能底层技术范式的重大变革,带来了新的伦理风险。

从原则设计到技术验证

随着技术发展,人工智能在计算机视觉、自然语言处理、语音识别等领域逐步落地,在科学研究、制造、医疗、城市治理等场景广泛应用,一个泛在智能的时代正加速到来。

纵观历史,通用技术在推动社会生产力实现跃迁时,往往会对原有的社会生产关系带来革命性影响,比如电力与工厂、互联网与电商、视频互联网与主播等。这一规律同样适用于人工智能。

即便在“弱人工智能”阶段的当下,人们已对自动化决策系统的健壮性和公平性充满关切,对算法推荐、深度合成以及生物特征信息识别技术的广泛使用表达了担忧。

对于技术滥用的问题,比如利用AI 实施电信诈骗,应当严格监管;对于岗位替代等技术负面性问题,可考虑职业培训等“救济措施”;对于技术水平不足的问题,比如AI 生成内容的准确性问题,可采取“柔性监管”方式,在能够满足内容治理和事件响应的基本要求下,允许迭代优化。

在过去十年里,人工智能治理受到企业、政府机构、国际组织、社会团体等多方重视,已进入落地实践。从发展历程看,人工智能治理至今走过了三个阶段:

第一个阶段起于2016年,以原则设计为主。

第二个阶段起于2020年,以政策制定为主。2020年2月,欧盟委员会发布《人工智能白皮书》,在全球率先提出“基于风险的人工智能监管框架”。此后,主要国家纷纷跟进,在不同程度开展了监管人工智能相关技术及应用的探索。

第三个阶段起于2022年,以技术验证为主。新加坡政府率先推出了全球首个人工智能治理开源测试工具箱“AI.Verify”。在市场侧,美国人工智能治理研究机构RAII发布了“负责任人工智能认证计划”,向企业、组织、机构等提供负责任AI认证服务。

四大趋势

经济合作与发展组织(OECD)统计数据显示,全球已有60余个国家提出了700多项人工智能相关政策举措。从各国发布的人工智能法案、政策文件,以及监管举措看,人工智能监管呈现以下四点趋势:

一是基于场景的风险分级分类治理成为共识。基于风险的治理路径(Risk-Based Approach)首现于欧盟《通用数据保护条例》(GDPR),并在欧盟2020年发布的《人工智能白皮书》中得到继承和发扬。目前,风险已经成为各国人工智能政策文件中必不可少的关键词。

二是备案成为高风险应用的主要监管模式。目前,主要国家对高风险人工智能应用的监管均提出了不同程度和形式的“备案”要求。例如,美国《2022 年算法责任法案》提出,在联邦贸易委员会(Federal Trade Commission)设立公共存储库来管理系统。我国网信办等4部门发布的《互联网信息服务算法推荐管理规定》也明确要求,具有舆论属性或者社会动员能力的算法推荐服务提供者应当在提供服务之日起十个工作日内通过互联网信息服务算法备案系统履行备案手续。

正在征求意见的《生成式人工智能服务管理办法(征求意见稿)》,也对生成式人工智能产品或服务在核心价值观、算法歧视、虚假内容、等领域风险提出管控要求。

三是事前风险评估成为人工智能监管的重要手段。2017年,美国纽约《算法问责法》首次提出自动化决策系统的影响评估制度。2019年2月,加拿大发布的《自动化决策指令》,同样要求政府部门在部署任何自动化决策系统,或其系统功能、范围发生变化时均需进行影响评估。我国《关于加强互联网信息服务算法综合治理的指导意见》中也提出了开展算法安全评估的要求。

四是算法治理成为当前各方监管发力的聚焦点。各国应对算法风险的思路通常落脚于提升算法透明度,算法备案制度正在成为各国实现治理目标的关键抓手,而披露算法运行机理、提供算法关闭选项成为各国保障用户知情权和选择权的通用做法。

多重挑战

从产业层面观察,目前我国人工智能治理仍面临多重挑战。这些挑战包括:

伦理治理难以真正融入企业的业务价值闭环。由于伦理治理短期业务收益不明显,业务方可能会因短期看不到收益,对伦理治理工作重视不足或落实缺位。

缺少权威测评标准和认证体系,出海容易遭受差别待遇。目前,部分国家和地区如欧盟、新加坡已推出人工智能治理“沙箱”和测试工具箱,并有将伦理标准作为市场准入要求的发展势头。不久前,美国和欧盟联合发布了路线图,明确提出将在AI治理的定义、标准,以及评估框架方面开展合作。

研究与实际存在差距,难以有效指导行业发展。与欧美相比,目前,我国人工智能伦理研究的重点主要在学术理论层面,对产业发展面临的实际伦理挑战和企业治理需求的研究不够深入,不同领域对于AI伦理治理问题尚未形成共识,尤其是未能与国际伦理制度相关联、相制衡。

人工智能伦理治理是一个学科交叉领域,“良将难求”。目前,人工智能技术背景的专业人才对于转型做伦理治理的兴趣不高,科技哲学等社科背景的专业人才对人工智能技术的理解不够深入,是我国推动人工智能伦理治理落地需要解决的现实问题。

当前,人工智能正处于应用落地的关键发力期,创新创业活跃、市场竞争激烈,关于创新治理模式,可考虑从以下方面着手:

首先,要准确定义问题,避免因对新兴技术误解,造成责任偏移或责任误判。

对于技术滥用的问题,比如利用AI实施电信诈骗,应当严格监管;对于岗位替代等技术负面性问题,可考虑职业培训等“救济措施”;对于技术水平不足的问题,比如AI生成内容的准确性问题,可采取“柔性监管”方式,在能够满足内容治理和事件响应的基本要求下,允许迭代优化。

其次,合理划分责任,避免责权利不统一。

从目前的落地模式考虑,对于AI产品及服务的责任划分,可以按照“技术提供方”“服务提供方”“用户”等在技术研发、部署、使用等不同环节的作用配置责任。

第三,优先使用既有政策工具、呼吁兼容。

人工智能治理的内容涉及数据、算法和应用三个层面,包括数据安全、隐私保护、算法安全、内容治理等具体方面。针对上述内容,我国现行法律政策体系基本能够实现比较有效的覆盖,例如,《数据安全法》《个人信息保护法》《互联网信息服务管理办法》等。因此,开展人工智能治理的制度设计应关注政策体系的协调性和一致性,优先考虑利用已有的政策工具实现监管目标,对于新增要求应充分论证其必要性。

第四,要充分发挥多方治理协同,行成跨技术、跨领域、跨行业、跨区域、跨文化的通用弹性治理能力。

目前,人工智能领域正处于高速创新的发展阶段,在监管制度设计方面宜为适应产业实际的快速变化,保证一定的弹性空间。同时,在政策实施方面,可重点考虑与企业内部治理体系和行业第三方机构在要求阐释、评估测试等方面加强沟通协同,保障对人工智能安全风险的治理效率和效力。

3月20日,天津市人工智能计算中心中控室,技术人员在监控设备运行情况( 孙凡越/摄)