张婷婷

青岛科技大学,山东 青岛 266061

一、ChatGPT 的兴起

人工智能的飞速发展,给人们的生活带来了极大的便利,在这一领域最重要的进步之一是聊天机器人ChatGPT(Chat Generative Pre-trained Transformer,简称“ChatGPT”)的兴起,它是由美国OpenAI 公司开发的一个大型语言模型,不仅能对用户输入的问题进行快速精准回答,还能生成编程代码、电子邮件、论文、小说等各类文本,其上线不到一周的时间便突破了100 万用户的大关,成为继战胜世界围棋冠军的AlphaGo 后又一个具有划时代意义的AI 产品。

二、ChatGPT 应用带来的风险

(一)知识产权问题

1.生成内容的着作权问题

人工智能本身并没有创造能力,而是通过大量资料的学习拼凑内容。用户通过ChatGPT 平台生成的文章或者图片的版权到底属于谁,目前这个归属定位是模糊的。笔者在阅读了OpenAI 公司官网的“使用条款”后发现,该条款明确说明只要用户在遵守法律规定、使用条款限制,并且对输入内容具备所有权的情况下,OpenAI 就会将其在输出内容中的所有权利、所有权和利益转让给用户。可见,OpenAI 公司是将ChatGPT 平台所形成的内容的所有权让渡给了用户。2022 年12 月21 日,英硅智能创始人兼CEO Alex Zhavoronkov博士撰写的探讨雷帕霉素抗衰老应用的论文,发表于《Oncoscience》(肿瘤科学)期刊上,值得注意的是,ChatGPT 以共同作者的身份出现在了这篇论文上,这无疑是对ChatGPT 享有着作权的肯定。有关ChatGPT 是否享有着作权的问题也成为大家争议的焦点。

在我国,关于着作权的所有规定中,并没有将AI 机器人列入其中,但使用ChatGPT 最终形成的文本确实是由其生成的,并没有用户自我创造的过程,因此,如何界定着作权的问题亟待通过法律途径解决。

2.生成内容侵犯他人知识产权的问题

ChatGPT 的回答来源于海量的信息库,其生成的文本或者图片很有可能是他人发表的经知识产权所保护的作品,如果直接被搜索到该文本或图片的用户拿来使用,这必然会侵犯他人合法的知识产权。根据《中华人民共和国着作权法》(以下简称《着作权法》)第二十四条,在合理使用他人作品而不构成侵权的十三种情形中,如果仅出于研究目的进行研发、训练,则可以适用该合理使用情形,而基于商用目的或者为研发者带来了直接的商业效益,则无法适用该合理使用情形。因此,ChatGPT 对海量信息挖掘处理在我国法律中并不属于“合理使用”的范畴,并且很可能引发知识产权纠纷。但也有很多人主张ChatGPT的数据挖掘属于对资源的合理利用,不涉及侵权问题。日本是最早对数据挖掘作出例外规定的国家。根据《日本着作权法》规定,允许为了计算机信息分析的目的(即从众多作品或者其他大量信息中筛选出构成该信息的语言、声音、影像或者其他要素,并进行比较、分类或者其他统计分析)在必要限度内将作品存储在媒介上或者进行改编。根据该例外情形,企业为了商业目的复制他人作品并用于计算机信息分析可能构成合理使用的情形,而ChatGPT 对文本数据的商业使用恰好符合这一情形。[1]

(二)隐私问题

作为一种语言模型,ChatGPT 需要访问大量数据才能有效运行。这些数据不仅包括用户进行的输入,还包括关于他们的行为、偏好和其他个人细节的信息。而这些数据一旦泄露,不仅是对个人隐私的侵犯,还可能被有心之人非法利用,对社会乃至国家造成巨大损失。近日,有用户分享了在聊天机器人ChatGPT 上看到了不属于自己的聊天记录。ChatGPT 的企业负责人表示,ChatGPT 近日被发现存在漏洞,用户可以看到其他用户与ChatGPT 对话的标题。2023 年3 月25 日,OpenAI 公司发文证实,部分ChatGPT Plus 服务订阅用户可能泄露了部分个人隐私和支付信息。无独有偶,某星公司引入聊天机器人ChatGPT 不到20 天,便发生3 起涉及ChatGPT 误用与滥用案例,包括两起“设备信息泄露”和一起“会议内容泄露”,其中,半导体设备测量资料、产品良率等内容或已被存入ChatGPT 学习资料库中。如果这些个人信息或者商业秘密泄露,可能会对个人或企业的信誉造成不良影响。

事实证明,ChatGPT 的确存在泄密的风险,在合理利用与侵犯隐私之间存在一个度的问题,而如何把握这个度,则需要法律对此进行规制。由于ChatGPT 是一个自然语言处理模型,它本身并不具备泄密的能力。但是,如果ChatGPT 被用于处理敏感信息,而且有人恶意利用ChatGPT 来泄露这些信息,那幺应该有相应的法律规制来惩罚这种行为。此外,还应该有明确的隐私保护政策和技术措施来防止ChatGPT 被滥用或攻击,以保护用户的隐私和数据安全。

(三)虚假信息及网络犯罪问题

ChatGPT 在运行时首先会对用户输入的信息进行预处理,包括对单词进行分词、对词性进行标注等,然后ChatGPT 会利用上下文信息和先前的对话历史,对用户输入的意图进行理解。最终ChatGPT 会从生成的回复中选择最佳的一个,并将其返回给用户。在这个过程中,ChatGPT 会考虑回复的相关性,语法正确性、连贯性等因素。用户最终得到的回复,经过了ChatGPT 自主识别收集信息并处理的过程,虽然与普通搜索引擎相比,用户得到的回复会更加迅速,但回答是否可靠有待考证。

我们在使用普通搜索引擎时,可以看到信息的来源。但是ChatGPT 生成的文本回答则看不到,我们不知道资料来自哪里,也就无法对其真实性进行考证。ChatGPT 的训练需要大量的语料库,而这些资料都是滞后的,特别是在询问与时政相关的问题时,它无法给出有效真实的回答,其所提供的虚假信息很容易诱导他人。并且,用户在使用时可以通过不断输入指令来对ChatGPT 进行“调教”,使其回答符合自己想要的形式,这样就容易导致一些不法分子恶意“训练”人工智能,使其提供诈骗信息、钓鱼网站等内容,损害公民人身财产安全。[2]

三、对ChatGPT 的法律规制

(一)完善着作权立法

1.明确生成内容的着作权归属

目前,对于ChatGPT 生成内容的着作权归属问题,有学者主张生成内容是归用户所有,由用户享有对生成内容的着作权,也有学者认为Chat GPT 通过海量信息检索整合而生成的内容理应归ChatGPT 所有。

根据我国法律规定,文学、艺术和科学作品的作者享有对作品的着作权,而作品是指文学、艺术和科学领域内具有独创性并能以一定形式表现的智力成果,所以,只要ChatGPT 所生成的内容是具有独创性的智力成果,便符合我国《着作权法》对着作权归属的规定。虽然最终从ChatGPT得到的作品是ChatGPT 通过算法生成的内容,但实际上是用户经过自己的思考,通过不断输入自己的想法引导ChatGPT 而得到的,从这个层面来讲,ChatGPT 所生成的内容实际上是用户的智力成果的体现。但是,如果简单把ChatGPT 生成的内容直接归属于用户所有,还会引发一个重要的问题是,当不同的用户在输入类似的问题时,可能得到的是相同的作品,那这种情况下,法律又该怎幺界定着作权的归属?笔者认为ChatGPT生成的内容不应当被视为作品受到着作权法的保护。我国《着作权法》第二条规定,中国公民、法人或者非法人组织的作品,不论是否发表,依照本法享有着作权。该条表明只有公民、法人或者非法人组织才享有着作权,因此,ChatGPT 作为一个AI 机器人,并不享有着作权,并且其生成的内容是基于强大的语料库的训练,是在用户的指令下完成的,它并不具备独立思考的能力,因此其创作内容也不具有独创性,不应当被视为作品保护。在不同用户得到相同的生成文本时,这些用户应当都有对其利用的权利,在此应当认定为ChatGPT 生成的内容是一种信息共享,而不是作品专属。[3]

2.将数据挖掘纳入合理使用范畴

在ChatGPT 应用的过程中,必然会有数据挖掘的过程。所谓的数据挖掘就是对已有的数据库进行搜索,在数据库中会存在他人依法受到知识产权保护的文学、美术、摄影作品等,当ChatGPT在对这些作品收集整理时,毫无疑问会侵犯到他人的合法权利。但是,如果仅仅因为数据挖掘会对知识产权造成一定冲击,就全盘否定数据挖掘存在的合理性是非常不理性的。通过数据挖掘,ChatGPT 可以在短时间内对海量数据库进行检索并快速响应,它的检索速度和能力是人类所不能比肩的,数据挖掘可以为我们在繁琐的工作中节省大量的人力和物力。因此,将数据挖掘纳入到合理使用的范畴是非常有必要的。在制度设计中可以从以下两个方面入手:

第一,设立该制度的目的是鼓励科研创新,在使用目的上不应局限于非商业目的,因为在实际应用中,很难区分是否属于商业目的,并且基于商业研发需求也符合科研创新的目的;第二,表现形式是通过合法途径获取。作品使用人通过向着作权人支付一定的对价从而获得对作品的使用权是着作权保护的基本方式,数据挖掘只有在通过合法途径获得的情况下才可以被认定为合理使用,如果是通过非法途径获得的,则需要对着作权人承担侵权责任。[4]

(二)完善隐私权保护立法

我国法律对隐私权采取的观点是一种“秘密说”,即隐私权针对的是未公开的信息,但是对于ChatGPT 等人工智能在无形之中收集的用户信息并没有明确的规定。随着科技的不断发展,人工智能也日新月异,传统的隐私权的界定范围已经不能满足现代人维护自己合法权利的要求,因此,需要立法对隐私权的保护进行一定的完善。

第一,对隐私权的范围进行扩张,法律应当跟随时代潮流,适时改进一些滞后的规定,在传统的隐私权范围不能解决现代科技所带来的问题时,就需要进行一定的扩张,将ChatGPT 等人工智能在应用时所可能涉及的问题纳入隐私权的范围。

第二,对用户的权利进行明确。用户对自己所输入的信息享有处分权,ChatGPT 在处理收集的信息时,应当得到用户的同意,用户应当享有拒绝公开自己所输入的信息的权利,如果未经同意,ChatGPT 将个人信息公开,则构成对隐私权的侵犯。

第三,对行业加强监管。ChatGPT 等人工智能系统还属于新兴事物,需要较强的专业知识,因此,有必要通过专门的监管机构对其监督,督促监管范围内的企业按照法律规定和行业规范生产经营,在违反相关规范时进行追责。

(三)强化行业责任,加强数据监测

为了防止不法分子趁虚而入,利用ChatGPT进行网络犯罪活动,企业应当根据相关法律对于隐私权保护的规定,制定严格的行业规范,同时,法律也要进一步强化企业的责任。由于ChatGPT是开发者通过算法模型的训练与控制运行的,对于开发者而言,第一,需要从源头上对数据的来源可靠性进行筛查,过滤掉违法犯罪的信息;第二,在向用户提供信息时,应当明确告知信息的来源,以便用户查明真伪;第三,在用户接收到可能存在诈骗、传销等违法犯罪信息时,平台应当拦截并给予用户一定的提示,防止用户在使用过程中上当受骗。

现阶段ChatGPT 虽然已经更新到4.0 版本,但依然还是处于弱人工智能向强人工智能的进化过程,并不具备独立思考的自主意识,这就极易被不法分子进行训练,利用其无自主意识的弊端实施犯罪,为防止此类事件的发生,笔者认为可以通过事前和事后两种方式进行干预。事前是指人工智能行业在算法训练时应加强对于ChatGPT等的系统伦理道德类的训练,使其能够精准判断信息;对国家而言,则要严格行业准入制度,在ChatGPT 等类似系统上线前,应进行严格审查,可以与国家反诈系统相对接,避免犯罪发生。事后则是需要明确相关责任人,对研发公司、开发人员、网络提供商、用户等责任进行明确,确保在发生侵权纠纷时有法可依。

四、结语

人工智能的发展日新月异,特别是ChatGPT的兴起引发大家的广泛关注,但我们在享受Chat-GPT 带给我们便利的同时,也面临着对于知识产权问题、隐私问题、虚假信息以及网络犯罪等方面的安全风险。为防止ChatGPT 相关的网络乱象的发生,应当从法律层面进行一定的规制,包括完善着作权和隐私权保护立法,强化行业责任,加强数据监管等措施。