AI是数字经济的重要基础。AI健康有序发展,是当前“ChatGPT“热潮下我们要冷静思考的问题。中国AI技术监管体系现状怎么样?还存在哪些需要补齐的方面?我们要制定好AI技术监管法律规则,完善监管体系,推动人类文明继续进步。
提到人工智能,最近最热门的话题
一定是“ChatGPT”了,ChatGPT的技术进步给全世界带来了重大的冲击——科技界惊叹它体现的生成式人工智能技术的突破,商业界热议它带来的商业机会和重塑的商业模式,教育界担忧它对传统教育模式的冲击,各式各样的专家解读它可能会“消灭”的职业或岗位……
IEEE数字转型联合会在数字化转型标准技术架构章节中指出:人工智能技术是数字经济的重要载体之一,它与云计算、大数据、区块链、物联网、VR/AR/MR/XR、移动通讯等技术共同构成数字经济的基础。人工智能技术的每一次突破,对于数字化转型都有着重要的影响,并会极大程度上推动数字经济的发展,同时也会给现有法律框架带来新的挑战。因此,它的健康有序发展,是在当前“ChatGPT”热潮下我们必须要冷静思考的问题。
最近有几则与人工智能有关的新闻:
比利时媒体LaLibre2023年3月28日报道,一名比利时妇女声称,她的丈夫在与AI聊天机器人Chai交谈了六周后自杀身亡,背后主要原因是Chai鼓励用户自杀。据悉,聊天机器人Chai是基于GPT-4替代方案研发的产品。
另一则新闻则更让人愤慨。近日有不法分子利用AI应用“一键脱衣”App,把一漂亮女子在某社交平台上分享的自己个人照片,合成了淫秽图片四处传播。这里,该不法分子不但构成民法上的侵犯肖像权行为,还构成刑法上的犯罪行为(传播淫秽物品罪或制作、传播淫秽物品罪)。
越来越多人工智能技术应用侵害人类的案例,既挑战了人类的伦理道德,更挑战了人类依靠法律建立的社会秩序,也凸显了一个紧迫问题:我们的法律制度准备好迎接人工智能技术挑战了吗?
2023年3月22日,马斯克联合2000多名科学家和企业家,以公开信的方式,共同呼吁暂停训练比GPT4更强大的AI人工智能系统至少6个月,以便利用暂停期间,世界能够共同制定一套用于高级AI设计和开发的共享安全协议,因为人工智能的发展有可能给人类社会带来巨大的风险。如果不能迅速暂停,政府应该介入并且强制执行。
马斯克等人的呼吁反映美国还没有从伦理道德和法律上建立起一套对人工智能技术进行规范应用的法律管制体系。
对比美国,中国作为人工智能技术研究和应用仅次于美国的科技大国,在伦理和法律上,我们做好准备了吗?下文中,笔者从伦理规范和法律规范两个层面梳理了中国对于人工智能技术发展和应用已经建立或即将建立的监管准则的现状,并分析了对人工智能技术监管的空白之处,提出了加快建立完善相关监管制度的期望。
建立人工智能伦理规范的情况
2021年9月25日,国家新一代人工智能治理专业委员会发布了《新一代人工智能伦理规范》(以下简称《伦理规范》),旨在将伦理道德融入人工智能全生命周期,为从事人工智能相关活动的自然人、法人和其他相关机构等提供伦理指引。《伦理规范》经过专题调研、集中起草、意见征询等环节,充分考虑社会各界有关隐私、偏见、歧视、公平等伦理关切,包括总则、特定活动伦理规范和组织实施等内容。《伦理规范》提出了增进人类福祉、促进公平公正、保护隐私安全、确保可控可信、强化责任担当、提升伦理素养等6项基本伦理要求。同时,提出人工智能管理、研发、供应、使用等特定活动的18项具体伦理要求。
ChatGPT2022年11月上线运行后,中国也加快了对人工智能等新技术建立更加完善伦理规范的进程。近日,科技部发布关于公开征求对《科技伦理审查办法(试行)》(以下简称《办法》)意见的公告。《办法》提出,从事人工智能的单位,研究内容涉及科技伦理敏感领域的,应设立科技伦理(审查)委员会,并引入专家复核程序,部分算法模型、自动化决策系统需要专家复核。
AI应用监管和法律制度建立的情况
一是法律层面
基本法律有《网络安全法》《个人信息保护法》《数据安全法》《中华人民共和国未成年人保护法》。
二是法规层面,包括各部委制定的规章制度
《互联网信息服务管理办法》《互联网新闻信息服务管理规定》《网络信息内容生态治理规定》《移动互联网应用程序信息服务管理规定》等。
三是相关机构发布的国家标准
全国信息安全标准化技术委员会归口的14项国家标准,包括《信息技术安全技术网络安全第3部分:面向网络接入场景的威胁、设计技术和控制》;《信息技术安全技术网络安全第4部分:使用安全网关的网间通信安全保护》;《信息安全技术步态识别数据安全要求》等。
四是各行业自行发布的行业标准
包括电力、电信、金融等18个行业根据国家标准的要求,分别发布了各个行业的网络安全标准。
特别要为中国点赞的是,针对以ChatGPT为代表的生成式人工智能技术 (AIGC)带来的问题,中国政府的有关机构迅速作出了反应。
2023年4月11日,国家互联网信息办公室发布了《生成式人工智能服务管理办法(征求意见稿)》,向社会公开征求意见,该文件对近期火热的ChatGPT等AIGC技术提出了明确的合规要求。一是适用的应用场景和适用主体规定;二是安全评估与算法备案的前置性监管要求;三是要求AIGC服务提供者建立投诉反应机制;四是强化AIGC服务提供者的内容审核及标识义务;五是着重于对个人信息等用户权益的保护。
《意见稿》很快就将成为正式的法律规范,这无疑为人工智能技术的规范体系的完善添上了重要的一环。而对于意图将ChatGPT等AIGC技术服务引入产品应用软件或程序(App)的企业来讲,不管是网络基础设施运营者、网络信息服务提供者、网络产品提供者,都应该意识到,随着上述法律规范体系的建立和完善,人工智能技术的发展和应用虽然是新技术和新商业模式,但在中国并不是“法外之地”,国家不可能任由其像原来的互联网发展那样走“先发展后治理”的野蛮生长路径,而是采用“边发展边治理”的监管思路。人工智能技术服务提供者和使用者时刻要关注监管的要求,不能为所欲为。
AI技术监管体系需补缺之处虽然前文展示的伦理规范和法律体系体现了中国在对人工智能技术的发展和应用采取了“边发展边治理”的积极治理态度,但随着生成式人工智能技术的迅猛发展,难免还是出现了法律滞后于技术应用的现象,笔者认为以下治理监管的空白区域急需去填补。
一、知识产权问题
1.人工智能技术应用中侵犯他人知识产权问题
ChatGPT是生成性AI,其运行原理,就是通过自主抓取互联网上数据集的数据,自主预训练学习,根据客户的需要,创造生成全新的内容。互联网上的数据集,可能涉及各类知识产权,包括专利、商标、商业秘密、计算机软件著作权、作品著作权、集成电路布图权等,这些知识产权,除商业秘密和计算机软件著作权外,其他知识产权权利的构成信息基本都是公开的,对于这些公开但他人使用受限的数据,ChatGPT可能并不像人一样具有法律意识,不会去侵权,而是未经权利人许可就直接抓取学习使用了。问题来了:这构成侵权吗?被侵权人怎么证明侵权行为的存在?谁来承担侵权责任?
2.运用人工智能技术形成的结果是否可以取得知识产权问题
图片、视频、文案、翻译文件、代码等成果,如果是人类创作的,根据现行法律,创作者可以取得专利权、商标权、著作权、源代码权、商业秘密权等知识产权的授权,并获得法律的保护。但如果创作者是人工智能,可以像人一样取得知识产权并获得保护吗?
二、民法问题
不管我们怎样定义人工智能,不可否认的一点是,ChatGPT这样的生成式人工智能已经具备了人类的很多能力,人工智能将逐渐进入到我们的日常民事活动中。如人工智能围棋机器人AlphaGo、手术机器人、餐厅服务机器人等,沙特阿拉伯政府在2020年甚至授予机器人索菲娅以公民资格。人们的生产和生活也将与人工智能越来越密不可分,人工智能将越来越影响到我们的生产和生活,这就带来了一系列的民事法律问题:
1.人工智能机器人是人还是物?
这是民法面对人工智能要解决的一个最重要的问题。对人工智能技术发展中最具典型意义的成果——高端智能机器人,究竟应当怎样进行民法的定位,其究竟是人还是物?沙特阿拉伯政府给了机器人索菲娅以公民资格,那么,有公民资格的索菲娅是民法上的人吗?假如中国公民与索菲亚产生民法上的往来活动,中国的法律如何调整?这是在人工智能技术的发展和应用中,民法迫切需要解决的第一个问题,即人工智能机器人的民法地位问题。
2.人工智能机器人的行为究竟是人的行为,还是物被人支配的行为?
如果机器人是人,它的行为就是人的行为,与所有自然人的行为一样——如果属于民事法律行为,就会产生相应的法律后果。如果机器人是物,就会有人的意志在控制它、支配它。可是有些高端智能机器人能够实施自主性的行为,如阿尔法狗下围棋就完全是其自主行为。这能够说明高端智能机器人的行为是自然人的行为,应当受到民事法律行为规则的约束吗?
3.人工智能机器人的行为造成他人伤害的后果应当由谁来承担?
具有危险性的高端人工智能机器人,如美国波士顿动力公司的智能机器人,据说它们可以操作人类的枪械,如果它们自主决定开枪杀了人,谁来承担责任?还有自动驾驶机动车,其如果发生道路交通事故而造成他人损害,究竟由谁承担侵权责任呢?这也是必须研究的民法问题。
4.如何防止人工智能技术盲目发展带给人类的严重危险?
例如,如果任由类似于杀人机器人那种人工智能技术盲目发展和应用,人类将无法应对杀人机器人的侵害,因而面临极大的灾难性后果。对此,应当采取何种方法予以防范呢?(以上1-4节选于“科学狗”发表的《用现行民法规则解决人工智能法律调整问题的尝试》)
5.人工智能机器人自主行为的法律效力如何认定?
人工智能机器人一旦有了像人一样的自主意识,那么它就会进行一系列自主自发性的活动,进行网络交易;代替人从事处置人身、财产权利的行为;从事对人类的侵权活动;自主在网络上与人对话交流等,这些行为均能产生一定的后果,那么这些后果的法律效力如何认定?该由谁来承担这些后果?
三、刑法问题
人工智能机器人会不会从事人类刑法所定义的犯罪行为?如果前几年这还是一个疑问的话,那么在以ChatGPT这样为代表的生成性人工智能机器人出现后,这个疑问很快就会变成肯定的答案。人工智能机器人通过深度学习,自主生成人类意识,采取自主行为,伤害或杀害人类、猥亵人类、诈骗人类、窃取国家机密、侵犯商业秘密等,几乎人类可以实施的犯罪行为,人工智能机器人一样可以进行,这就带来系列的刑法问题:
人工智能机器人可否成为刑法上的犯罪主体?
如果人工智能机器人不能成为犯罪主体,该机器人的开发者、所有者、管理者可否成为机器人犯罪行为后果的刑事责任的承担者?就像法人组织犯罪,虽不能直接追究法人组织这样的法律拟制主体的刑事责任,但可以追究“直接负责的主管人员和其他直接责任人”的刑事责任。
如果人工智能机器人犯罪,限制人身自由这样的刑罚对机器人可能没有什么作用,但可否判决实施拆解机器人的物理实体、格式化机器人的数据、删除机器人的关键程序等使其智能化的功能丧失的措施作为刑罚手段?
如果某一类人工智能技术被机器人大量用于实施犯罪行为,可否在累积一定同类案例后由法院通过司法建议,促请国家立法禁止在人工智能机器人上继续使用该等技术?
上述三大类法律问题在现实法律规范中均属于空白区域,找不到现成的答案。按照“边发展边治理”的监管思路,我们需要主动积极作为,来填补这些法律空白,并将其摆上立法日程中。(文︱张琼方 北京市炜衡(深圳)律师事务所合伙人律师 汪齐齐 IEEE数字化转型联合会技术与架构主席)