欧盟委员会近日发布人工智能伦理准则,以提升人们对人工智能产业的信任。
该准则由欧盟人工智能高级别专家组起草,列出了“可信赖人工智能”的7个关键条件——人的能动性和监督能力、安全性、隐私数据管理、透明度、包容性、社会福祉、问责机制,以确保人工智能足够安全可靠。欧盟将“人工智能”定义为“显示智能行为的系统”,它可以分析环境,并行使一定的自主权来执行任务。
根据官方解释,“可信赖的人工智能”有两个必要的组成部分:一是应尊重基本人权、规章制度、核心原则及价值观;二是应在技术上安全可靠,避免因技术不足而造成无意的伤害。
举例来说,如果人工智能在未来诊断出一个人患有某种病症,欧盟的准则可以确保系统不会做出基于患者种族或性别的偏见诊断,也不会无视人类医生的反对意见,患者可以自行选择获得对诊断结果的解释。
对于这份准则,欧委会副主席兼欧盟单一数字市场战略副总裁安德鲁斯·安西普表示:符合伦理标准的人工智能将带来双赢,可以成为欧洲的竞争优势,欧洲可以成为人们信任的、以人为本的人工智能领导者。 (新华网、人民网等网站整合)
更多创业干货,下载青创头条APP
本文源自中国青年报客户端。阅读更多精彩资讯,请下载中国青年报客户端(http://app.cyol.com)
评论留言