生成式人工智能引发网络空间治理危机

人工智能
后台-插件-广告管理-内容页头部广告(手机)

  尽管人工智能聊天机器人ChatGPT迅速火遍全球,然而,回归理性不难发现,诸如ChatGPT等生成式人工智能热潮在引发人工智能替代性狂欢的背后却隐藏着诸多危机,为网络空间治理带来了前所未有的挑战,需要我们从信息安全责任机制、学术伦理危机以及意识形态风险等方面展开“冷思考”。

生成式人工智能引发网络空间治理危机

  “虚实之间”的人工智能

  人工智能的迅猛发展离不开庞大的数据信息系统,而通过技术的不断进步寻求信息安全保护机制的同时,又会引发技术本身带来的次生灾害,这也使得人工智能前进的每一步都始终伴随着信息安全威胁问题。尽管网络空间并非全然脱离传统现实的存在,但其分散化、无序化、隐蔽化的特征使得网络治理不得不面对亦虚亦实的困境。ChatGPT最大的颠覆性可能在于其已经完全跳脱出既往人工智能的人机对话层面,成为了一个相当独立、见多识广且反应迅速的“高知精英”。然而,其前所未有的智能性亦伴随着巨大的风险。尽管其声称具备严密的安全保护机制,但在面世后的短短时间内,所具有的正面效应尚未发挥,而由此导致的高科技犯罪事件却已经在全球蔓延。ChatGPT在带给人类巨大惊喜的同时又引发了人们对网络信息安全的担忧,带来了网络空间治理危机。一方面,ChatGPT信手拈来的智能作业具有相当强的专业外观,增大了识别的难度。尽管它本身不会直接出面对网络信息安全进行攻击,但其广泛的知识储备使其完全能够“胜任”违法者的不法操作,进而沦为违法犯罪的助手。这就为后续的规范监管及相关的危险信息识别和监测技术的应用提出了更高的要求。另一方面,ChatGPT生成的信息本身一经公开,其后续传播几乎难以控制。这就意味着,在这一过程中,虚假信息或其他有害信息可能产生的影响范围是难以估量的,对相关的法律后果却难以认定,极有可能出现人人传播但无人负责的现象。这些技术进步引发的风险都为网络空间治理提出了新的要求,需要从责任主体入手,对开发者、平台及用户的责任进行类型化界分和明确。  

  可能引发的学术伦理危机

  基于算法和大数据的精细化排列组合,ChatGPT能够自动生成高质量和可读性较强的作品,但其可能涉及的学术著作权问题以及潜在的意识形态风险实在值得警惕。美国的一项调查显示,超过89%的学生使用这一工具来完成作业。

  一方面,学术原创性是学术研究的生命力所在。尽管当前ChatGPT在应试、日常生活及工作安排等场域表现得十分卓越,但从目前流行的版本来看,其依然只是借助大数据对既有素材重新整合输出,是经过人类反复“训练”的数据和模型。ChatGPT面世后,国外高校纷纷发布禁令,禁止学生使用类似的人工智能工具完成论文写作和学业考试。就国内而言,近日已经有《暨南学报》《天津师范大学学报(基础教育版)》等学术期刊对此发出声明,强调“暂不接受任何大型语言模拟工具单独或联合署名的文章,或建议对使用人工智能写作工具的情况予以说明”。对于ChatGPT等生成式人工智能可能引发的版权问题,欧盟从源头入手,在立法上明确了人工智能语料内容的合法性,即要求服务商必须披露用于系统构建和训练的任何受版权法保护的资料。

  另一方面,要警惕通过嵌入大数据进行的意识形态输出。既往观点认为,人工智能对事物的理解限于符号。也正是基于此,其最大的优势在于可以避免人为的主观偏见,所具有的技术中立特征在一定程度上有利于公平公正这一价值目标的实现。然而,ChatGPT的问世使得这一理想的应然状态被打破。当前ChatGPT仅能在境外使用,尽管其自称“客观、统一和中立”,但从源头及传播路径来看,绝大多数内容都是经过海量境外语料投喂训练而成。通过既有的使用情况发现,ChatGPT具有鲜明的政治立场,其对于一些敏感问题的回答并非单纯逻辑推演的结果,而是已经包含了影响意识形态安全的因素,甚至不惜以诋毁别国的方式维护所在国利益,很显然,这些内容是经过训练者人工标记强化的结果。除了一些较为明显和直接的意识形态表达外,一些回答看似不存在主观立场,实则可能于无形间误导用户,特别是辨别能力相对较弱的青少年群体。不同于普通平台媒介的开放性特征,ChatGPT所开展的交互对话通常在私密状态下进行,即生成内容在未经二次传播的情况下只有用户本人知晓,也正是因此,前述有关意识形态的风险很有可能会以一种潜移默化的方式影响未成年人,用户所进行的输入和反馈亦会成为语料库的素材,这就加剧了管理上的难题。故此要在强调学术原创性的同时,注意甄别判断取舍,守好意识形态红线。同时通过强化内容管理,为平台设置严格的监管职责来尽可能规避上述风险。  

  明确信息安全责任机制

  人工智能的深度发展总是伴随着风险而来,但风险不应当成为阻滞技术发展的理由。对于ChatGPT等深度合成技术而言,过于严苛的规制模式可能会抑制技术的创新,过于宽松的管控又通常以不可逆转的信息泄露作为严重代价。如意大利数据保护机构近日就阻止了OpenAI的应用,命令其暂时停止处理意大利用户的个人信息,同时调查其可能违反欧盟数据隐私规则的行为。随后,法国、爱尔兰、西班牙等国家的相关监管机构也纷纷开始关注ChatGPT所涉的隐私安全问题。当然,上述举动并非为了阻碍人工智能技术的发展,而是为了敦促技术开发商出台相应的应对和补救措施以遵循欧盟严格的隐私规则。因此,如何对人工智能发展的风险进行合理规制进而实现技术进步与信息安全保护的平衡应当是治理的基本原则。ChatGPT发布后,国际互联网巨头也纷纷推出类似产品,如Meta的 BlenderBot、谷歌的AI Chatbot,我国的百度、阿里等也迅速跟进,相继推出“文心一言”等中国版ChatGPT,腾讯、华为等亦开始布局。可以说,在短暂的时间内,这些生成式人工智能已经全面进入我们的生活,带来了互联网技术的又一次巨大革新。如何将风险限制在可控范围内是应对此种变革的关键所在。(社会科学报社融媒体“思想工坊”出品 全文见社会科学报及官方网站)

后台-插件-广告管理-内容页尾部广告(手机)
标签:

评论留言

我要留言

◎欢迎参与讨论,请在这里发表您的看法、交流您的观点。