现在,我们正处于人工智能的夏天。但如果这些问题得不到解决,事情可能会变得冷淡。
作者:K. Thor Jensen
我们无疑正处于“人工智能之夏”的中期,科学家和公众都对计算机学习的可能性感到非常兴奋。ChatGPT和Midjourney等生成式 AI 模型让比以往更多的人可以尝试这种强大的工具。但这种曝光也揭示了人工智能程序在数据编写和训练方面的深层缺陷,这可能会对行业产生重大影响。
以下是我们挑选的当前生成式 AI 模型中的十大缺陷。
1. 人工智能太急于取悦人类
https://medium.com/media/f6b218fa478ba355c5a7ee8e1b8594a7/href
如果我们将 AI 算法视为有生命的生物,那么它们有点像狗——它们真的想让你开心,即使这意味着在前廊留下一只死浣熊。生成式 AI需要对您的查询做出响应,即使它无法为您提供符合事实或合理的响应。
我们已经在ChatGPT 、Bard 和其他公司的示例中看到了这一点:如果 AI 在其知识库中没有足够的实际信息,它会根据其算法用听起来可能是正确的内容来填补空白。
2. 人工智能已经过时
https://medium.com/media/73ce17b0f0fcb0ddd77dd058c6847d62/href
另一个重要问题是这些工具用于训练的数据集。他们有截止日期。生成式 AI 模型被输入大量数据,并使用这些数据来组装它们的响应。但世界在不断变化,训练数据很快就会过时。更新 AI 是一个庞大的过程,每次都必须从头开始,因为数据在源中的互连方式意味着添加和加权额外信息不可能零星地完成。数据没有更新的时间越长,它变得越不准确。
3. AI侵犯版权
https://medium.com/media/2a69964fcead2c0ff212f1d17342c583/href
剽窃是创意艺术中一个非常现实的问题,但生成式 AI 模型的输出确实无法用任何其他方式定义。计算机无法实现我们认为的原始思想——它们只是以各种方式重新组合现有数据。
该输出可能新颖有趣,但不是唯一的。我们已经看到了一些诉讼,其中艺术家非常理性地抱怨说,在他们受版权保护的作品上训练视觉生成模型并使用它来创建符合他们风格的新图像是对他们艺术的未经许可的使用。这是一个巨大的法律黑匣子,它将以不可预测的方式影响人工智能的训练和部署方式。
4. 人工智能从有偏见的数据集中学习
https://medium.com/media/638278fe7365a6fc21df44b0f6161409/href
几十年来,隐性偏见一直是机器学习的一个大问题。软件的训练和测试没有达到应有的多样性。人工智能训练所依据的信息可能会使输出产生偏差。随着越来越多的决策是基于人工智能计算而不是人工审查做出的,偏见为大规模结构歧视提供了可能性。
5. AI 的黑匣子晦涩难懂
https://medium.com/media/ae0a61b5ce00b57ecb99f8fde08964d8/href
在 Max Fisher 的书The Chaos Machine: The Inside Story of How Social Media Rewired Our Minds and Our World中有一个关于谷歌搜索算法的奇闻轶事,其中一位公司内部人士评论说,结果是通过如此多层次的机器学习算法提供的,人类无法再进入代码并准确追踪软件做出选择的原因。这种复杂性和模糊性会给生成式人工智能带来重大问题。无法识别不当响应的来源使得这些系统极难调试和改进除了软件试图服务的指标之外的任何指标。
6. 人工智能很肤浅
https://medium.com/media/06a60c3319e5106684343c232c6736dd/href
机器擅长筛选大量数据并找到共同点。但是让他们深入研究内容和上下文几乎总是失败。一个很好的例子是由 Midjourney 等工具创建的外观漂亮的数字艺术。它的创作在表面上看起来令人惊叹,每一个笔触都完美无缺。但是当 AI 试图复制一个复杂的物理对象时——比如人的手——他们无法理解对象的内在结构,而是猜测并经常给他们的肖像画七指企鹅脚蹼。无法“理解”人手有四个手指和一个拇指是这些智能“思考”方式的巨大差距。
7. 人工智能模仿真人(深度伪造)
https://medium.com/media/0c981640309e51d7895bc64ef37a99dd/href
虽然一些生成式 AI 模型有防止它们冒充真人的保护措施,但许多模型并没有——而且该技术非常容易越狱。TikTok 充满了 AI 语音对话,例如,唐纳德特朗普和乔拜登之间关于吸食大麻和在 Minecraft 中作弊的对话,他们在第一次听时非常可信。计算机生成的公众人物模拟让那个人被取消只是时间问题,而且受害者足够富有,可以对肇事者采取行动。
8. 人工智能会说谎
https://medium.com/media/6b08754224ddfaf21f94e175b928b83a/href
生成式 AI 模型无法告诉您某事是否属实;它只能从输入的内容中提取数据。因此,如果该数据表明天空是绿色的,AI 将向您提供发生在石灰色天空下的故事。当 ChatGPT 为您准备输出时,它不会自行进行事实核查或事后猜测。虽然您可以在会话期间更正它,但这些更正不会反馈给算法。这个软件很容易撒谎和编造事情,因为它没有办法不这样做,这使得依赖它进行研究特别危险。
9. 人工智能不负责任
https://medium.com/media/993305fa8986926ce11141ed411db3f7/href
谁负责生成式人工智能创造的作品?是编写算法的人吗?创建它从中学习的数据源的人?给出响应提示或遵循说明的用户?现在这还不是真正确定的法律,将来可能会造成巨大的问题。如果生成式 AI 模型提供的输出会导致法律上可采取行动的后果,那么谁应该为此负责?对于希望通过该技术获利的公司而言,围绕 AI 问责制制定法律道德规范将是一个巨大的挑战。
10. 人工智能很昂贵
https://medium.com/media/ab5ae49f2064a802794ed670437679a5/href
创建和训练生成式人工智能模型是一项不小的壮举,开展业务的成本是天文数字。分析师估计,训练 GPT-3 等模型的成本可能高达 400 万美元。这些 AI 模型需要大量的硬件支出,通常需要数千个并行运行的 GPU,才能训练它们的数据集。如前所述,每次更新模型时都必须完成该过程。摩尔定律最终会缩小这个问题的规模,但在今天,制造这些东西的财务成本可能超过大多数公司的承受能力。
参考资料:https://www.pcmag.com/news/yes-machines-make-mistakes-the-10-biggest-flaws-in-generative-ai
评论留言