子弹飞了一会儿后,再看ChatGPT
作者:斐尔德 发布时间:2023-05-05

PART.1

ChatGPT


美国Open AI公司发布人工智能聊天机器人Chat GPT,引发社会各界广泛关注。

同以往的人工智能系统不同,Chat GPT所代表的内容生成式人工智能在通过程序创造新内容方面实现新突破,其为社会带来巨大便利的同时,也存在诸多法律风险,主要包括知识产权归属争议,数据来源合法性与用以训练的数据质量问题,生成不良或违法信息,等等

Chat GPT在技术路线上采用自然语言处理和搜索引擎集成的架构,建构了大型语言和强化学习微调训练模型,连接大量语料库,通过预训练方法处理大模型序列数据,使其拥有语言理解和文本生成的能力,能够完成用户指令的任务。

普通用户可在Chat GPT输入指令,生成用户所需的文字、图片、代码、音乐或视频等内容。Chat GPT是基于自然语言处理的聊天机器人技术,可以根据用户输入的提问,通过自然语言进行回复,使用深度学习技术模拟人类聊天行为,与用户对话。

以对话方式实现人机交互,包括日常对话、语言翻译、信息咨询、策划方案、撰写文章、编写程序、修改代码,甚至能够根据用户要求模仿某位作家的文风进行写作。其不仅可以连续回答问题,而且能承认错误,拒绝不恰当的请求,做到与人类几乎无差别的交流。

一方面,内容生成式人工智能以其对话的类人性、逻辑的连续性、错误的反思性、道德的认知性以及功能的突破性与既往的人工智能拉开差距;另一方面,也带来全新挑战



PART.2

ChatGPT带来的冲击



生成内容知识产权归属争议

在科技创新的飞速发展的当下,立法具有滞后性的特点,关于人工智能生成的文章是否属于现行法律中值得保护的“作品”的争论从未停止

以往的人工智能大多提供信息索引、单句对话服务,不能体现创作者独特的个性,生成“作品”的可能性低。

以Chat GPT为代表的具有信息编排和一定的自主创作能力,使著作权争议以及知识产权侵权纠纷发生的频率攀升。在“腾讯诉上海盈讯公司著作权侵权案”中,腾讯公司主张其开发的Dream writer软件生成文章属于“作品”,享有相关权利,该主张得到深圳市南山区人民法院的支持。

法院判决文书道:“从涉案文章的外在表现形式与生成过程分析,其特定表现形式及其源于创作者个性化的选择与安排,并由Dream writer软件在技术上‘生成’的创作过程均满足著作权法对文字作品的保护条件,本院认定涉案文章属于《著作权法》所保护的文字作品。”但是,这一判决结果受到诸多质疑。

Chat GPT生成的文本等内容是基于大量数据的统计和应用生成的,不具有自己的思想和创新,很难构成著作权法保护的作品。由于尚无法律对此类特殊问题进行明确规定,且中国不是判例法国家,前述案例结论不具有一般法律效力。

因此,人工智能生成文章的性质及知识产权归属有待商榷。 



数据相关的法律风险

1.数据来源合法性问题 

Chat GPT需要预先对既有文本和数据学习训练,但Open AI未公开其学习语料的来源,相关训练数据库是否均获得授权还存在疑问,人工智能创作使用数据等各类信息会面临侵权风险。

Chat GPT在未经许可擅自使用特定信息,其行为的合法性将受到质疑,其分析、加工的数据信息可能涉嫌侵犯公民个人信息罪。Chat GPT无需人工介入、标注和监督的预先学习模式,决定了其在获取数据方面不受人类干预和控制,因此获取非法来源的数据无可避免。

其学习过程本身即有侵犯他人知识产权、数据安全、个人信息的风险,严重者可能构成非法获取计算机信息系统数据罪。 

2. 生成不良、虚假或违法信息问题 

基于Chat GPT获取的信息难以经过实质性筛选和过滤,数据在源头存在内容不合法不合规、内容虚假或完全错误的风险。

尽管Open AI公司在开发时已经极力避免Chat GPT在输出带有偏见、侮辱、色情、血腥为导向的内容,但在其的实际运行中,如果使用者有意通过设置命令和禁止要求,仍可能诱导输出不良、虚假,甚至是违法信息。

Chat GPT在预学习阶段对数据库信息无过滤机制,可能使其在运行阶段生成不良、虚假或违法信息。不恰当信息的输出使用户获取的内容真假难辨,增加用户核对信息真伪的成本。

Chat GPT不会像传统搜索引擎一样提供多个相关结果由使用者自行选择,用户可能无法实现提高工作效率、便捷人机互动的目的,反而易产生反向后果;不良、虚假或违法信息的输出可能违反《中华人民共和国刑法》第二百九十一条:“编造、故意传播虚假恐怖信息罪”、第三百六十四条:“传播淫秽物品罪;组织播放淫秽音像制品罪”等法规,不利于绿色网络环境的建设,还可能对个人及社会产生负面影响,严重者可能成为不法分子的“帮凶”,危害国家安全和社会稳定。

尽管Chat GPT得到部分行业专家的高度赞扬,但其自身技术不完善将生成不良、虚假或违法内容。在网络犯罪方面,Chat GPT可能提供的帮助更为直观且有效。同以往的人工智能不同,作为被赋予更强思维处理能力的人工智能,Chat GPT可根据用户要求编写简单的代码。

随着技术的迭代升级,下一代 Chat GPT 可能让“网络小白”变身“资深黑客”。不法分子可能利用 Chat GPT 快速编写邮件的能力,例如,批量撰写“钓鱼”邮件,使普通人更难识别网络诈骗,实质上催生了新的法律风险。 

3. 数据泄露的法律风险 

Chat GPT数据泄露的法律风险表现在:用户个人信息泄露导致的侵犯隐私权问题;商业秘密泄露导致的不正当竞争和侵权问题;国家秘密泄露导致的危害国家安全问题。

因各国对国家机密文件和信息监管较严,鲜少在公开网络泄露,风险程度相对较低。但随着Chat GPT在世界范围内的普及和广泛使用,个人信息和商业秘密风险程度大大提高

用户向 Chat GPT 提出的命令信息本身也可能成为其训练材料,当用户无意间输入个人信息或商业秘密时,Chat GPT 会瞬间捕捉并收纳入库,并可能在他人的诱导性提问下全盘托出。 



PART.3

法律风险规制的探索



两步法确定著作权的归属

第一:确定此类生成内容是否属于《著作权法》定义的“作品”

《著作权法》第三条规定:作品是指文学、艺术和科学领域内具有独创性并能以一定形式表现的智力成果。因此,独创性,智力成果,文学、艺术和科学领域内,能以一定形式表现是构成作品的四个必要的要件。

Chat GPT的工作定义为:“内容生成式人工智能”,输出机制是通过对现有数据进行筛选整合并得出结论,如果脱离数据库则无法运行。

Chat GPT系统不同于程序性创作,不仅仅是依赖大数据分析和算法支撑进行的机械处理或语言模仿,其所表现出的“深度学习”能力,开始模拟人脑神经网络的构造。

自然人作品的产出并非盘古开天辟地般的原始创造,而是在成长过程中不断阅读和学习前人知识体系,在已有认知水平上作出表达,Chat GPT对数据的解读训练和整合输出与人类学习和内容表达存在相似之处。

现有的人工智能,即使仅是对现有数据资料的编排,对庞大信息库检索,生成符合逻辑要求的内容,其内容也已极度接近《著作权法》关于汇编作品的法律标准。

只要编排的作品的片段、选择整体具有独特性,从形式和表达上与原作品存在差异,应认定符合独创性标准。

第二:如果此内容属于“作品”,确定作品的著作权归属

首先,讨论人工智能本身能否享有著作权:人工智能能否成为作者进而享有著作权,须厘清人工智能的主体资格问题。尽管Chat GPT等强人工智能可以拒绝回答部分不符合道德伦理、法律法规的话题,但人工智能不完全具有自我辨别和控制能力。

同时,中国刑罚种类中主刑包括管制、拘役、有期徒刑、无期徒刑和死刑,人工智能不具备受刑能力。人工智能没有独立财产,没收财产等对人工智能本体也不适用,处罚主体是其背后的自然人、法人或非法人组织。

其次,若人工智能不能像法人一样拟制为著作权人,需讨论由谁享有人工智能作品的著作权。人工智能系统主要涉及三方利益主体:系统本身的设计者、系统的所有人、对人工智能发出指令并接收内容反馈的使用者。人工智能的研发人员通常对该系统享有相当于职务作品的权利。

Chat GP系统的所有人是 Open AI公司,使用者是世界范围内的上亿网络用户,Chat GPT对用户的回答构成作品,则该作品的著作权归Open AI公司还是发出指令的用户?

遵循意思自治原则,著作权的归属应当由所有人和使用者事先、事后协议确定。Open AI公司在《使用协议》中约定向用户转让 Chat GPT 输出内容的一切权利和利益,就包含著作权和相关权益。

但是,当人工智能系统的所有者、运营者与使用者没有约定或约定不明时,由谁享有著作权?

使用者对人工智能的创作过程有较大的干预,使用者享有人工智能在其指令创作出的作品的利益。人工智能系统在使用者的直接提示和指令下创造作品,所有人与生成特定作品之间无直接关联,且所有人与人工智能系统特定内容生成之间不存在委托关系,不构成委托作品。最后,所有权人对人工智能系统本身已享有收益的权能。



数据相关法律风险的应对

1. 数据来源的风险:据获取侵权、数据内容违法、吸收虚假信息 

数据获取侵权指Chat GPT未经授权获取未在公共领域公开的信息,拥有著作权的出版物内容,或通过其他网站获取侵犯他人知识产权的信息。

数据内容违法和吸收虚假信息指Chat GPT在无人工干预的情况下,对现有数据库中违反法律法规的信息、缺乏事实依据的错误信息不加过滤地吸收学习。

2. 生成不良或违法内容风险的应对 

生成不良、违法内容的风险主要包括:生成虚假信息扰乱社会秩序和为不法分子提供犯罪思路。

在人工智能语境下反虚假信息需要多方共治。首先,政府与研发者通力合作,提高人工智能识别信息真实性的能力,在有据可依的基础上做到依据真实。

其次,研发者在网页增设质疑和辟谣机制,经查发现Chat GPT生成错误、虚假内容时,及时反馈系统并进行标记,对以后的用户具有提示和参考作用。最后,呼吁用户提高辨别真假信息的能力,敢于质疑人工智能提供的结论。 

Chat GPT虽具有一定的信息识别能力,但没有意识,会在不法分子的诱导提问下,为其提供犯罪思路。Chat GPT在刑事犯罪中只能充当犯罪工具的角色,利用其进行诈骗、敲诈勒索等犯罪活动。

子弹飞了一会儿后,再看ChatGPT(图1)

现如今的风险应对重心应放在人工智能系统被不法分子利用。人工智能系统应加强技术研发,优化系统的运行机制,加强对系统的道德伦理认知训练。

道德伦理认知训练不是一刀切地把将违背伦理和法律的词汇排斥在语料库之外,使人工智能系统理解人类伦理道德。 

3. 数据泄露风险的应对 

人工智能系统快速学习的能力对用户隐私安全和商业秘密保护提出挑战。

在国际层面,各国际组织应推动制定国际信息保护协定。

人工智能对数据的获取无边界,只有促进国际范围内协同立法,方能应对人工智能造成的跨国争端。Chat GPT运行机制依赖数据流通,各国数据开放和互通规则不一,需要制定统一标准的数据开放规则。

从国家层面看,应加强事前、事中、事后全链条监管。

事前建立有层次的市场准入清单制度:对类人工智能系统实施投入前作合规评估。2021年欧盟将人工智能系统划分风险等级,要求高风险人工智能系统的供应商在投入市场前按相关规定提交评估。

若系统投放目的或性质有根本改变则须重新评估,这对我国人工智能系统风控工作具有启示性。国外系统投入中国市场需另外取得增值电信业务许可证。

建立适当的监管制度:对人工智能的使用进行事中和事后监管。事中监管表现为完善个人信息保护投诉、举报工作机制,通过用户举报和政府主动审查相结合的方式,保证已投入市场的人工智能未偏离法治轨道。

建立严格的责任制度:人工智能系统的研发人员、所有者、运营者和用户在其对人工智能支配力所及范围内各自承担责任,法应明确责任承担机制。

构建具体的责任分配机制应符合支配原则,风险属于谁的管辖范围,谁便需要对风险及由此产生的结果来负责。

Chat GPT拉开了强人工智能时代的序幕,其凭借自身的类人性和高智能性为人类的生产生活带来便捷。

同时,潜在地冲击现有规则。人类应正视科技进步背后的潜在风险,施以有效的规制之策,使创新为人所用。



参考文献


[1]舒洪水,彭鹏.ChatGPT场景下虚假信息的法律风险与对策[J/OL].新疆师范大学学报(哲学社会科学版):1-6[2023-05-04].DOI:10.14100/j.cnki.65-1039/g4.20230425.001.
[2]文巧,蔡鼎,郑雨航. “创作”有著作权吗?律师详解ChatGPT焦点问题[N].每日经济新闻,2023-02-14(005).DOI:10.28571/n.cnki.nmrjj.2023.000543.


上一条 下一条
x
资讯信息
您的姓名是?
您的手机号码是?
您的电子邮箱是?
您的微信号是?
咨询问题
您可以详述您的问题以便于我们专业顾问为您提供更全面的资讯