有专家表示,在新一代以ChatGPT为代表的生成合成类应用中,用户对话的过程就是被收集信息的过程,尤其是用户在与机器对话的过程中更可能袒露隐私。个人信息的收集、使用和传输都面临着安全挑战。在制度层面,需要结合AIGC底层技术所需数据的特性和作用,建立健全数据分类分级保护制度,并建立与数据类型和安全级别相配套的数据保护标准与共享机制。
意大利封禁:
缘起ChatGPT的数据泄露
南开大学法学院副院长、教授、中国新一代人工智能发展战略研究院特约研究员陈兵曾在今年2月公开撰文称,虽然ChatGPT表示,存储训练和运行模型所需的数据会严格遵守隐私和安全政策,但在未来可能出现的网络攻击和数据爬取等现象下,仍存在不可忽视的数据安全隐患。特别是对涉及国家核心数据、地方和行业重要数据以及个人隐私数据的抓取、处理以及合成使用等过程中的安全保护与流动共享的平衡处置,这不仅涉及数据安全,还涉及国家安全、行业安全及个人安全等。
多国表态:
厘清ChatGPT的数据风险
中国支付清算协会发声:
倡议支付行业从业人员
谨慎使用ChatGPT
《倡议》表示,近期,ChatGPT等工具引起各方广泛关注,已有部分企业员工使用ChatGPT等工具开展工作。但是,此类智能化工具已暴露出跨境数据泄露等风险。为有效应对风险、保护客户隐私、维护数据安全,提升支付清算行业的数据安全管理水平,根据《中华人民共和国网络安全法》《中华人民共和国数据安全法》等法律规定,中国支付清算协会向行业发出以下三点倡议。
一是提高思想认识,依法依规使用。支付行业从业人员要遵守所在地区的网络使用规定,正确认识ChatGPT等工具的机遇和风险,全面评估使用ChatGPT等工具处理工作内容的风险,依法合规使用ChatGPT等工具。
二是不上传关键敏感信息。支付行业从业人员在使用ChatGPT等工具时,要严格遵守国家及行业相关法律法规要求,不上传国家及金融行业涉密文件及数据、本公司非公开的材料及数据、客户资料、支付清算基础设施或系统的核心代码等。
三是会员单位加强内部管理和引导。会员单位要进一步健全信息安全内控管理制度,开展有针对性的数据风险防控工作,加强宣传和引导,提升员工的风险防范和数据保护意识,切实维护国家金融及支付清算行业安全。
争议焦点:
底层技术与数据保护
对于ChatGPT类生成式AI的争议焦点,离不开其底层技术与数据保护之间的讨论。
魏冬冬认为,ChatGPT这样的大语言模型,其底层技术与GDPR遵循的数据保护思路有矛盾的地方,这一矛盾主要集中在训练数据的获取和算法模型的透明化上。“在训练数据的获取上,ChatGPT很难满足个人对训练数据的控制权;ChatGPT也很难向用户去释明算法的黑盒是如何使用训练数据和用户输入数据进一步优化模型的。”
她亦表示,ChatGPT可能在用户对个人信息的控制权、正当竞争、数据泄露、商业秘密侵权和未成年人保护这五个方面存在风险。
“ChatGPT的训练数据部分来源于百科类和问答类网站,且没有付出任何成本,但反过来ChatGPT又在一定比例上替代了百科类和问答类,这就可能在竞争的层面侵犯了百科类和问答类网站的权益。”魏冬冬说。
张凌寒表示,可以把(ChatGPT类)大语言模型看做是一个大型的数据处理者,要求其承担GPDR相关的数据保护并无不妥,但是在技术上提出了更高的要求。
治理思路:
完善AIGC领域法律法规
对数据分类分级
ChatGPT的数据风险引发了多国忧虑的同时,或许将拉开治理序幕。
陈兵公开撰文称,必须正视ChatGPT爆火背后潜在的法律风险,及时更新、科学完善AIGC(人工智能生成内容)领域的相关法律法规,建立健全相关行为规范和伦理指南,用系统观念和法治思维及方法来推动AIGC在我国规范健康持续发展。
具体而言,他指出,在制度层面,需要结合AIGC底层技术所需数据的特性和作用,建立健全数据分类分级保护制度,譬如可根据数据主体、数据处理程度、数据权利属性等方面对训练数据集中进行分类管理,根据数据对于数据权利主体的价值,以及数据一旦遭到篡改、破坏等对数据主体的危害程度进行分级。
陈兵撰文表示,在数据分类分级的基础上,建立与数据类型和安全级别相配套的数据保护标准与共享机制,同时,AIGC还涉及数据跨境流通问题,应当在考虑国际通行标准和做法的基础上,制定合理的跨境数据安全执法规则,加强与其他国家和地区规则的衔接,促进数据安全跨境执法合作。
张凌寒认为,深度合成的治理,一是需要保障生成内容安全的基础法益,二是应依据生成型人工智能改进监管框架实施全链条治理,三是需要适应技术的进一步发展,完成深度合成监管工具的升级。
陈兵表示,在技术层面,需要加快推动“隐私计算”技术在AIGC领域的应用,这类技术能够让多个数据拥有者在不暴露数据本身的前提下,通过共享SDK或者开放SDK权限的方式,在进行数据的共享、互通、计算、建模,在确保AIGC能够正常提供服务的同时,保证数据不泄露给其他参与方。
张凌寒进一步指出,不宜将深度合成尤其是生成型人工智能一概纳入高风险治理框架,而应根据生成型人工智能的预训练大模型、海量数据等特征单独设计监管制度;区分技术、产业和应用层面分级分类设计制度,在技术与产业层面加大扶持力度,在应用层面参考现有分级分类标准完善监管制度;应建立敏捷治理体系,并留足前瞻性制度发展空间,以保障技术的长远发展。
评论留言