人工智能为何会产生幻觉 自信的谎言家背后
在科幻电影中,人工智能常被塑造成全知全能的“超级大脑”,但现实中,AI却时常表现为“自信的谎言家”。比如,请AI描述“关公战秦琼”,它不仅能“叙述”虚构的故事情节,还会“猜测”用户喜好,煞有介事地编造不存在的文献档案。这种现象被称为“AI幻觉”,已经成为困扰许多人工智能企业和使用者的现实难题。
AI之所以会一本正经地胡说八道,根源在于其思维方式与人类存在本质不同。今天人们日常使用和接触最多的AI大模型本质上是一个庞大的语言概率预测和生成模型。它通过分析互联网上数以万亿计的文本,学习词语之间的关联规律,再像玩猜词游戏一样,逐字逐句生成看似合理的回答。这种机制使AI擅于模仿人类的语言风格,但有时缺乏辨别真伪的能力。
AI幻觉的产生与大模型训练的过程密不可分。AI的知识体系基本来源于训练时“吞下”的数据源。来自互联网的各类信息鱼龙混杂,其中不乏虚假信息、虚构故事和偏见性观点。这些信息一旦成为AI训练的数据源,就会出现数据源污染。当某个领域专业数据不足时,AI便可能通过模糊性的统计规律来“填补空白”。例如,将科幻小说中的“黑科技”描述为真实存在的技术。随着AI越来越多地用于信息生产,AI生成的海量虚构内容和错误信息正在进入训练下一代AI的内容池,这种“套娃”生态将进一步加剧AI幻觉的产生。
在大模型训练过程中,为了使AI生成满足用户需求的内容,训练者会设置一定的奖励机制——对于数学题等需要逻辑推理的问题,往往通过确认答案的正确与否给予奖励;对于写作等开放式命题,则需要判断其生成的内容是否符合人类写作习惯。为了训练效率,这种判断更多关注AI语言的逻辑性和内容格式等指标,却忽略了事实的核查。此外,训练过程的缺陷也会导致AI存在“讨好”用户的倾向,明知道答案不符合事实,也愿意遵照指令生成迎合用户的内容,并编造一些虚假的例证或看似科学的术语来支撑自己的“假说”。这种“角色扮演式”的表达让许多普通用户难以分辨AI幻觉。上海交通大学媒体与传播学院进行的一项全国抽样调查显示,约七成受访者对大模型生成虚假或错误信息的风险缺乏清晰认知。
相似问题
猜你感兴趣
- 终身监禁!“中国女子新西兰遇害”案宣判,凶手庭上撕碎文件再现异常举止
- 以军空袭德黑兰居民区造成78死329伤
- 被指跨越所有红线,以色列在急什么?伊朗核能力和无人机“包围圈”或成其两大焦虑
- 外媒:特朗普警告伊朗在“一无所有”前达成核协议,以色列下一轮袭击会更加“残酷”
- 以色列毁灭式空袭伊朗,中东局势进入最危险时刻 | 新京报专栏
- 伊朗任命新任革命卫队司令、临时总参谋长
- 现场画面!美民主党参议员发布会上试图向国土安全部长提问,被强行带离现场并被按倒在地、戴上手铐
- 哈梅内伊发声:将对以色列进行报复和严厉惩罚
- 伊媒:多名革命卫队指挥官、核科学家身亡,哈梅内伊高级顾问重伤
- 港科大办“独角兽日”百家初创公司展示成果