人工智能(AI)的快速发展,给人类带来了前所未有的便利和效率。然而,随之而来的风险和挑战也引起了广泛关注。为了确保AI技术的安全性和可控性,人工智能领域的专家们制定了一套AI安全等级系统,以评估和划分不同模型可能带来的风险。
2023年9月,人工智能领域提出了一个AI安全等级(ASL)系统,借鉴了国际上处理生物材料时的成熟规则。ASL-1级别代表没有任何风险的模型,如陪你玩国际象棋的AI。我们目前使用的AI被划分为ASL-2级别,意味着这类模型具有潜在风险,但尚未表现出真正危险的能力。
第三级别(ASL-3)的AI可能在操作上产生类似化学、生物、放射性和核风险的信息。面对这种级别的风险,必须在推出前经过充分的红队攻击测试。最高级别,即第四级(ASL-4),不仅会滥用ASL-3级别的生化信息,还增加了一个风险:人工智能如果加速发展,最终可能逃脱人类控制并对社会造成重大威胁。
制定这套系统的团队由达里奥领导,他毕业于加州理工、斯坦福和普林斯顿,曾任职于百度硅谷实验室、谷歌大脑团队和OpenAI。达里奥表示,他们在三个月里花费了大量时间来制定这套规则和代码。从这一点可以看出,他们核心是一个研究团队,同时兼顾商业化以支持研究。
AI安全等级系统的建立,有助于我们更好地评估和管理人工智能技术的风险。在未来,随着AI技术的不断发展,这一系统将不断完善,以确保人工智能技术在为人类带来便利的同时,也能确保社会的安全和稳定。
评论留言