
在日本,被称为“机器人之父”的森昌弘于1970年测试了人对机器人的好感度。机器人的外形和行为越像人,好感度就越高,但超过一定程度就会变成强烈的反感。如果彻底无法区分机器人和人,这种反感就会重新转化为好感。
最近,加拿大连续发生新型电话诈骗案。骗子打电话假冒受害人的亲戚声音,声称自己被关在拘留所里需要汇款,骗取了大量资金。不过,这个“亲戚”的声音其实是通过人工智能(AI)技术制作的深度伪造音频。虽然几十年前就有用人声朗读文字的技术,但发音和语调并不完美。然而,通过将该技术与 AI 相结合,深度伪造音频技术已经达到了惊人的水平,可以轻松地混淆人类对真实和虚假声音的感知。
深度伪造是一种通过使用现有数据进行深度学习训练的技术来合成虚假声音、图像和视频的方法。两年前,制作一个人的 AI 声音需要几个小时的语音文件和几天的时间。而现在,只需要有该人的几句话语音,就可以在几秒钟内生成一个逼真的 AI 声音。此外,通过社交媒体上的短视频或语音信息也可以进行操作。现在,人们甚至可以在不知情的情况下被攻击者利用这种技术进行诈骗。
深度伪造技术还可以制作出非常逼真的图像和视频,例如将明星的脸与别人的裸体合成,或将别人有问题的讲话处理成好像某著名政治家讲话一样的案例。OpenAI 的图像生成 AI“DALL-E 2”创造了前所未有的图像,超越了图像合成的能力。美国甚至有预测称,AI 很快就会占领色情市场,因为它可以制作出最完美的演员。
深度伪造技术还可以在不需要本人亲自录音的情况下制作大量语音内容,成为一种有效的手段。然而,尽管人们对 AI 技术感到惊奇和神奇,但也有人开始恶意利用这种技术。
那么,如何警惕AI电话诈骗呢?以下是一些建议:
1.保持警惕,不轻信电话。尤其是陌生号码或者不熟悉的人,要保持警惕,多做确认,避免上当受骗。
2.保护个人信息。不随意透露个人信息,不在社交媒体等公共平台上留下太多的个人信息。
3.提高AI深度伪造技术的认知。了解AI深度伪造技术的运作方式,能够更好地防范此类威胁。
4.利用科技解决科技问题。一些公司已经推出了一些AI识别技术,可以辨别出AI声音的特征,如果发现疑似AI诈骗电话,可以使用这些技术进行辨别。
虽然人工智能技术的发展给我们带来了很多便利和惊喜,但是也需要我们提高警惕,加强防范,才能让科技真正为我们所用,而不是被利用。
未来的世界需要加强对AI技术的监管和控制,同时加强对公众的教育,提高人们的安全意识。只有这样,我们才能更好地享受AI技术带来的好处,而不受到它的负面影响。
评论留言