未来已来!生成式人工智能时代,如何平衡创新与监管?

人工智能
后台-插件-广告管理-内容页头部广告(手机)

当前,国内生成式人工智能行业风起云涌。百度、360、阿里、京东、网易、腾讯、华为、科大讯飞等多家国内互联网巨头、科技企业均宣布在生成式人工智能产业已做深入布局。生成式人工智能在推动社会发展、改善民生、提高生产力和创造力方面起着重要的作用,但同时也出现了传播虚假信息、侵害个人信息权益等问题。

为促进生成式人工智能健康发展,8月15日,国家互联网信息办公室等七部门联合发布的《生成式人工智能服务管理暂行办法》(以下简称《办法》)正式施行,这也是我国首个针对生成式人工智能产业的规范性政策。日前,多家大模型首批通过《办法》备案向公众开放,引发社会关注。

法治网研究院日前邀请了360集团创始人周鸿祎、西南政法大学人工智能法学院副院长冯子轩教授、中国政法大学数据法治研究院张凌寒教授、百度法律研究中心主任兼业务监察部总经理陈晨、康达律师事务所高级合伙人苟博程等,围绕相关热点话题进行了一次深度对话。

01

法治网研究院:作为新一轮科技革命和产业变革的重要驱动力量,生成式人工智能技术发展日新月异。然而,其为经济社会发展带来新机遇的同时,也随之带来一些新问题。有观点认为,在当前发展阶段,应对生成式人工智能可能引发的安全风险,正变得越来越重要。您认为生成式人工智能在发展中需要引起警惕的安全风险主要有哪些?

周鸿祎:我们一直关注人工智能的安全问题。目前大模型主要存在网络安全、数据安全、算法安全以及生成内容安全等风险。特别是在生成内容安全方面,目前已经有人利用AIGC生成各种以假乱真的内容用于诈骗,且治理起来比搜索引擎要复杂很多。同时,由于内容生成机制不可控,大模型还容易产生“幻觉”,造成的知识模糊和胡编乱造的问题。此外,由于生成式人工智能在智力水平上或将接近甚至部分超越人类,其大规模应用,在社会价值观、伦理和秩序层面的未知风险不容忽视。

在发展生成式人工智能上,我们主张只有躬身入局,自己做大模型,才能更好地研究大模型安全。在发展中,我们的观点是不要一开始就把系统控制权交给大模型,而是要确保人在决策回路上,并且不能出现不可撤销的后果。

张凌寒:生成式人工智能在各阶段会产生不同的安全风险,并且各阶段所需警惕的安全风险各有侧重。在模型训练阶段,需警惕数据安全风险。该阶段,训练数据违规收集或面临版权、隐私和个人信息侵权风险,训练数据处理不当则可能面临数据泄露风险。

在模型研发与运行阶段,需重点防范算法歧视、算法黑箱等算法安全风险。一方面,将有偏见的训练数据用于模型训练,算法模型便无可避免的会带有歧视与偏见;另一方面,基于大规模训练数据所产生的“涌现”现象,算法黑箱问题将进一步加剧。

在内容生成阶段,需重点关注虚假有害信息的生成与传播风险。随着生成式人工智能的广泛应用,网络空间的虚假有害信息激增,给网络信息内容安全治理带来了极大挑战。

冯子轩:生成式人工智能存在一定的潜在风险,主要有以下两个方面:其一,伦理风险。算法本身的“理性思维”难免与社会伦理发生冲突,生成式人工智能自不例外。无论是对比式人工智能还是生成式人工智能,均依赖于人类算法设计和学习数据输入,然而算法设计和学习数据筛选本身都包含设计者的价值判断,在数据源受到污染时输出结果也会产生偏差。此外,如果应用程序使用者刻意诱导人工智能输出诸如虚假等失范信息,有可能会导致人工智能违背预设准则而输出不良导向的内容。

其二,数据与隐私安全风险。系统训练生成式人工智能的过程中需要输入大量数据,这些数据面临来源合规和使用合规两方面的风险。数据收集阶段,收集个人信息应当取得信息主体的同意,收集开放渠道的信息必须在“合理使用”范围内,否则有可能违反相关法律法规的规定。在数据使用阶段,用户在使用生成式人工智能时,可能会向模型输入包括个人信息、商业秘密等内容,若输入内容被用于人工智能迭代训练,在其他用户命令人工智能提供信息时,它可能会将前用户输入的信息全盘托出。

苟博程:生成式人工智能面临的法律合规风险主要来自于数据合规、隐私保护、安全合规、商业秘密保护、知识产权侵权、刑事风险等方面。如果疏于合规监管,生成式人工智能可能会生成违法或侵权的内容,可能涉及诈骗、欺诈、侮辱、诽谤、色情、暴力等不合法或违规的元素;生成式人工智能可能会基于已有的受版权保护的内容进行学习,这可能导致知识产权侵权。使用生成式人工智能的企业应当进行合规性审查,以确保其应用符合相关法规和标准,避免不必要的法律风险。

生成式人工智能是一种新的生产力革命,它结合了深度学习、大数据、云计算等领域的进步,应该对这种强大的技术进行掌控,确保它的发展和应用在法律、道德和社会责任的框架内进行。

陈晨:实际上,我们说的生成式人工智能,主要指的就是生成式大语言模型,目前只是应用在以语言为基础的知识类的应用产品上,这类应用是辅助人类工作或生活,而不是替代人类做决策。类似法律、医疗这样的专业问答,生成式人工智能只会给一些辅助答案,让AI对答案的真实性、准确性负责这是不现实的,也不会推动人工智能的发展。因此,它对于部分行业的内容真实性、准确性的确会有一定的安全风险。同时,生成式人工智能还有一些伦理道德、数据隐私等风险,现在也在通过技术手段做一些防控。所以,我认为人们需要警惕相关问题,但目前不需要过度担心。

02

法治网研究院:国家网信办等七部门联合发布的《办法》已于8月15日正式施行,这也是我国首个针对生成式人工智能产业的规范性政策。我们注意到,《办法》坚持发展和安全并重、促进创新和依法治理相结合的原则。您认为,为了促进生成式人工智能产业的健康发展,应该如何更好地处理鼓励创新与完善监管之间的平衡?

周鸿祎:《办法》强调了“坚持发展和安全并重原则”,强化了企业和内容提供者的主体责任。我对此非常认同。

目前我国的一个重要战略是产业数字化,大模型的发展也应该为产业数字化赋能,作为工业革命级的生产力工具,帮助传统产业特别是制造业实现数字化转型到智能化升级。我认为,大模型未来真正的发展机会就是企业级市场,包括组织机构、政府和城市。从目前的《办法》来看,国家对企业级场景的应用研发和落地整体持大力支持的态度。

值得注意的是,大模型是数字化的顶峰,但同样也是把“双刃剑”,带来生产力提升的同时,也存在安全风险,如数据和算法安全问题,“幻觉”带来的内容安全隐患。所以,加强生成式人工智能大模型技术的安全向善可信可控,是创新发展的前提,这也是360坚持攻克的方向。

陈晨:新的《办法》与征求意见稿的差别还是比较大的,总的来说,在充分听取了行业意见后,最终版的立法体现了监管鼓励创新、包容创新、发展安全并重的原则。生成式人工智能产业的发展,不仅仅是底层的模型框架,还应该包含大量使用底层大模型的各类应用产品,相比较欧美国家丰富的各类基于AI的产品,目前我国的应用产品还并不多。近期,百度同时获批向公众开放服务备案和深度合成服务算法备案,这是我们向合规发展方面做出的积极努力。

随着AI应用的兴起,广大的互联网用户将会逐步接触到新产品,同时也会暴露更多的风险,这时就需要不断完善监管规则。因此我认为,针对生成式AI产品的应用层产品,应该提前做好监管布局。

冯子轩:为更好地处理鼓励创新与完善监管之间的平衡,面对生成式人工智能的发展,需要坚持发展和安全并重,促进创新和依法治理相结合。

具体来讲,我们可以根据《办法》的要求,通过以下方式推动两者平衡:其一,在分类分级总体思路下,及时出台适用不同行业、不同领域的规则和指引,提升规则的针对性和可操作性;其二,明确、合理分配不同场景下的法律责任,避免对部分服务提供者苛以过高的合规义务;其三,加入社会监管力量,充分发挥社会组织的行业自律作用,提升监管广度和深度。

张凌寒:安全和发展是网络立法的永恒命题。在全球激烈竞争格局下,不发展是最大的不安全。《办法》第三条亦提出,对生成人工智能服务实行包容审慎和分类分级监管。

我国生成式人工智能监管,应坚持在鼓励生成式人工智能技术创新发展的思路下,将生成式人工智能作为基础设施,划分为技术、产品与服务三个层次,以“基础模型—产品模型—服务应用”为形式,关注不同层次的不同生产要素,大力鼓励基础模型层的技术发展,审慎包容监管产品模型层,对服务应用层沿用并调整以实施敏捷治理,以此来实现鼓励创新与完善监管之间的平衡。

苟博程:面对生成式人工智能这一颠覆性的科技成果,应当秉持鼓励发展、预防风险的立场。首先,《办法》的出台经历了社会征求意见、组织研讨与修改审议出台等一系列流程,《办法》在“发展”和“安全”的平衡中更多地倾向了发展的一侧,这就意味着相关监管规则应当对新兴技术采取宽容和谦抑的态度,而非强制监管。

其次,生成式人工智能输出的结果包括文字、视频、音频等,应基于生成式人工智能建立起周延的法律体系,建立健全统一的监管规则与标准。

03

法治网研究院:当前,生成式人工智能技术的应用场景包括教育、娱乐、医疗、金融、建筑、汽车、智慧城市等多个领域,多个平台企业和服务提供者也都积极投身其中。对于相关平台企业和服务提供者如何更好地开展合规工作,您有什么建议?

张凌寒:《办法》第三条将不直接向公众提供服务的垂直领域排除在规制范围之外,但这并不意味着垂直领域的相关平台企业无需进行合规建设,其在模型研发过程中仍需遵循有关数据安全、个人信息保护、算法治理、信息内容安全等方面的法律规定,不得触及法律的底线与红线。

对于生成式人工智能服务提供者,应严格遵守《办法》的合规要求,根据不同应用场景下的模型训练、研发、运行与内容生成的各个阶段所涉的法律风险,构建数据合规、算法合规、内容合规为一体的生成式人工智能合规体系。

冯子轩:生成式人工智能在多个领域得以广泛应用,离不开合规工作的有力保障。生成式人工智能服务提供者和各平台企业在提供相应服务的同时,需要注重相关活动的合规性。

具体可以从以下方面进行把握:其一,避免生成虚假有害信息等法律、行政法规禁止的内容;其二,采取有效措施防止产生民族、信仰、国别、地域、性别、年龄、职业、健康等歧视;其三,防止利用算法、数据、平台等优势,实施垄断和不正当竞争行为;其四,不侵害他人肖像权、名誉权、荣誉权、隐私权和个人信息权益;其五,提升生成式人工智能服务的透明度,提高生成内容的准确性和可靠性。

陈晨:应用场景对生成式人工智能非常重要,也是未来的市场蓝海。在合规工作上,应该区分应用场景采用不同的合规要求。

目前,AI辅助人工类的应用场景,例如AI辅助律师撰写合同、AI辅助教师编写教案、AI辅助生成广告创意,这类场景的风险并不大。而相对应的金融、医疗等场景,应该更多注意个人信息保护、内容安全、数据安全等风险,向公众做好警示语,注意技术的责任边界。此外,需要注意的是,一些服务提供者在底层技术上使用了国外生成式AI产品,并向公众提供了服务,这是有非常大的违规风险的,应该始终保持警惕。

苟博程:我有三个建议:首先,内容合规方面,生成式人工智能在运作时会在网站抓取信息,相关企业和服务提供者在使用大模型等技术时应当尽可能使用公开信息、非个人信息或经过授权同意的个人信息;其次,平台运营合规方面,相关企业应当获取相应的资质证照、进行算法备案和开展安全评估;最后,平台管理合规方面,相关企业应当履行违法整改义务,当发生人工智能侵权时应当及时采取警示、删除、暂停使用等方式履行公共义务。

04

法治网研究院:鉴于当前生成式人工智能技术已经在全球范围内受到高度关注,《办法》明确提出,鼓励生成式人工智能算法、框架、芯片及配套软件平台等基础技术的自主创新,参与生成式人工智能相关国际规则制定。您认为,我国尤其需要参与制定的相关国际规则应该是什么?

周鸿祎:我认为,在制定相关国际规则时,需要考虑到以下几个方面:一是保护知识产权,二是保护用户隐私,三是确保算法公正性,四是确保算法透明度和可解释性。

在具体实施上,建议尽快确立生成内容标识的强制性技术规范,利用数字水印等技术手段保证生成内容可检测、可追溯,堵上用于制作非法不良内容、虚假内容的技术漏洞。同时,组织开展人工智能安全问题的系统化深入研究,着重加强社会长远影响的研究,为人工智能安全治理提供坚实的理论支持,防范化解重大风险和长远影响。

冯子轩:当前,世界各主要国家对生成式人工智能的应用与发展给予高度重视,我国作为负责任的大国,要积极推动和参与制定生成式人工智能相关国际规定,为世界生成式人工智能应用与发展贡献中国智慧。

其一,参与全球范围内生成式人工智能相关国际规则制定。生成式人工智能的应用与发展不仅是某个国家的国内问题,更是备受国际社会关注的全球性问题,故我国作为国际社会的一员,要主动参与制定全球范围内生成式人工智能相关国际规则。

其二,参与区域性生成式人工智能相关国际规定。国际社会由若干区域组成,除联合国等国际组织外,我国还是上合组织等区域性组织的重要成员国。对此,我国要积极参与制定有关区域生成式人工智能相关规则,促进生成式人工智能应用与发展管理条约等双边或多边条约制定,以区域性规则推动国际规则的顺利出台和有效实施。

张凌寒:我国人工智能技术一直走在世界前列,目前国内多家大模型已通过备案,即将面向公众提供服务。随着生成式人工智能产业的迅速崛起,应注重运用生成式人工智能技术优势,积极参与制定生成式人工智能相关国际标准,逐步实现生成式人工智能技术标准的国际化。与此同时,还应积极对接、协调世界各国生成式人工智能相关国际规则,为我国生成式人工智能相关企业提供跨境服务,参与国际竞争营造有利的制度环境。

陈晨:目前,世界各国并没有形成统一的国际规则。近日美国商务部部长雷蒙多访华期间,也提到了加强与中国在人工智能方面的合作。我认为,人工智能产业的发展,离不开开放、包容、合作,技术标准、道德和伦理规范、知识产权保护等都是制定国际规则的重要领域。

苟博程:我们应积极参与制定生成式人工智能关于知识产权方面的国际规则。生成式人工智能在输入和输出数据时,均涉及到国内外大量信息的使用,在公共平台采集或者采集未经授权的内容时,存在天然的著作权侵权风险。在数据流动愈加频繁和著作权保护愈加严格的背景下,我们应积极参与著作权制定和保护的统一国际规则,在国际规则制定层面掌握话语权,促进著作权人利益和公共利益的平衡,共建国际层面的信息获取与知识共享,构建驱动创新的合理使用制度。

嘉宾简介

未来已来!生成式人工智能时代,如何平衡创新与监管?

周鸿祎

360集团创始人,全国政协委员,九三学社中央委员、北京市工商联副主席、北京市新的社会阶层人士联谊会副会长,带领360集团确定“两翼齐飞”大模型战略,发布企业级AI大模型解决方案,通过构建“安全、向善、可信、可控”的大模型,助力企业、城市、政府的产业数字化向智能化转型升级。同时,带领360发布国内首个可交付的安全行业大模型——“360安全大模型”,实现数字安全和人工智能双向赋能,提升网络安全服务效果。

未来已来!生成式人工智能时代,如何平衡创新与监管?

冯子轩

西南政法大学人工智能法学院副院长,西南政法大学数字法治政府研究院执行院长。兼任中国法学会网络与信息法学研究会理事、中国法学会立法学研究会理事、中国法学会行政法学研究会政府规制专委会委员等。从事行政法学、数字法学、政府监管(规制)等领域研究,出版专著、译著《人工智能法律指南》等3部,主编规划教材《人工智能与法律》等。

未来已来!生成式人工智能时代,如何平衡创新与监管?

张凌寒

中国政法大学数据法治研究院教授、博士生导师,康奈尔大学访问学者。中国法学会互联网与信息法学会理事,中国婚姻法学会理事。担任国家工信部信息通信科学技术委员会专家委员、中央网信办网络安全治理基地研究员,中国信息安全法律委员会专家委员,长期从事算法规制、数据治理、个人信息保护、数据跨境、人工智能治理等问题的研究。

未来已来!生成式人工智能时代,如何平衡创新与监管?

陈晨

百度法律研究中心主任兼业务监察部总经理、中国法学会网络与信息法学研究会常务理事、中国广告协会法律委员会副主任,致力于AI相关产业、互联网平台、互联网广告的法律研究工作。

未来已来!生成式人工智能时代,如何平衡创新与监管?

苟博程

北京市康达律师事务所高级合伙人,《法治日报》律师专家库成员,专注人工智能数据合规等领域研究。国家发改委《宏观经济管理》、中国现代经济研究院、中国石油天然气集团公司等企事业单位常年法律顾问。

未来已来!生成式人工智能时代,如何平衡创新与监管?

- END -

选题策划|法治网研究院

文|沈若水

声明|封面图片来自包图网

监制|余瀛波

编辑|李思彤

【版权声明】转载请注明来源法治网微信公众号。

后台-插件-广告管理-内容页尾部广告(手机)
标签:

评论留言

我要留言

◎欢迎参与讨论,请在这里发表您的看法、交流您的观点。