给世界带来最大颠覆和变革的,不是自然灾害,不是金融风暴,而是科学技术。
回顾人类历史,一旦科技实现飞跃,小到个体的日常生活,中到各行各业的产业格局,大到整个人类文明,都会跟着发生翻天覆地的改变。
要说当下最热门的科学技术,就不得不提AIGC了,越来越多的人开始习惯使用ChatGpt生成内容给自己减轻工作量、减少成本。而随着ChatGpt的爆火,AI威胁论也掀起一波高潮。
《未来简史》的作者尤瓦尔•赫拉利在书中提到“什么时候危机会降临呢?只要AI可以掌握语言,能生成真假难辨的内容就足够了。”
当向ChatGpt提问古诗《夜泊牛渚怀古》内容,ChatGpt给出的答案:
百度搜索古诗《夜泊牛渚怀古》内容,搜索结果:
两首都有,哪个是真的?从诗句可以看出来,第二首“望秋月”“空忆”更贴近“怀古”,更符题意。但如果我已经习惯使用并信任ChatGpt,那我根本就不会再去搜索,再去确认。
生成式AI做出的这些改动并不是随机乱改,而是依据算法。算法可能是让输出更贴近人们经常使用的表达方式,也可能是依据统计规律中呈现的人们的审美偏好,也可能是依照某些禁令做的删改。
正如《未来简史》中作者提到,“当人们无法分辨真伪,无边的恐惧就降临了。而AI不需要展现出意识和情感,不需要能灵活运动,就可以做到这一点。”
当人们觉得一件事、一个观点“说得通”就把这件事终结了,不再去核实了,你的世界就已经困在幻觉中了,“恐惧已经降临了”。
要知道,“说得通”与“真”是两码事。
当唐诗无法确认真伪,经书无法确认真伪,我们难道就能确认社交媒体上点燃我们情绪的发言、打动我们的内容就是真的吗?
过去十年,社交媒体在争夺人们注意力上打成了一锅粥。现在随着AI的出现,争夺的焦点已经变成了情绪和信任,而获胜者大概率是AI。
它并不需要具备意志、情感、情绪,也不需要能跑会跳、控制武器,它们只要能精细的生成真假难辨的内容就足够了。而这种水平的AI,不需要等待太久就会出现。
最后,尤瓦尔·赫拉利也在书中给出了解决方法,方法非常明确:严格标注由AI生成的内容,减慢从实验到产品的尝试。慢下来后,就能看出更多潜伏的危机了,在危机成长成灾难前给予监管。
作为使用者,我们一定要牢记,说得通的不代表一定是真的。
部分观点来源:得到课程《卓克 科技参考3》
评论留言