从黎元洪变范伟,到律师“被判刑”……警惕“完美答案”背后的“AI幻觉”

台海网5月13日讯(导报记者 康泽辉)只需要在对话框里输入一个名字,按下发送键,几秒钟后,一张“历史人物照片”就跃然屏上。但如果告诉你,这张照片可能不是黎元洪,而是演员范伟的PS恶搞图,你还敢相信AI吗?

近日,字节跳动旗下AI工具“豆包”因一则低级错误冲上热搜。有网友发帖称,用“豆包”检索中华民国第二任大总统黎元洪,系统配图却是演员范伟在电影《建党伟业》中的恶搞剧照。

面对质疑,“豆包”系统回应称,出错是因为“黎元洪和演员范伟长得非常相似”,且该PS图当年被媒体大量报道,全网疯传,传播度远超黎元洪原版历史照片。

然而,这并非个案。不同用户测试后发现,“豆包”的搜索结果竟“因人而异”:有的只显示范伟PS图,有的同时给出范伟图和黎元洪本人照片,有的则只给出正确照片。“近代人物还用得着给演员的图片吗?‘豆包’越来越不智能了。”一位网友在帖子中写道。更有网友调侃:“以后估计范伟就是免费版的标配了。”

这起被网友戏称为“黎元洪变范伟”的事件,撕开的正是当下人工智能领域一个愈发严峻的问题——AI幻觉。它不是简单的“答错题”,而是AI在缺乏真实知识支撑时,以极度自信的语气,编造出看似合理、实则完全错误的信息。

AI已在制造“真实世界”的危险?

不止“认错人”,AI还在制造“真实世界”的危险。

近日,在美国科罗拉多州,刚搬到此地的杨女士向AI询问“周围有没有适合随便走走的地方”。AI向她推荐了一个野生动物保护区,理由是“风景开阔,适合徒步”。

但其实这里遍地都是毒蛇,沿途不断传出响尾蛇“嘶嘶”的警告声。但毫不知情的杨女士,不仅戴着降噪耳机,还随手在草丛中拔了一株植物准备带回家。她在网上发布视频后,收到了网友的提醒。

事后杨女士质问AI:“你为什么让我去有蛇的地方徒步?”AI先是道歉,又承认“这真的和送死没有区别”。杨女士表示,回想全程感到非常后怕。

AI还对个人名誉发出过“幻觉式攻击”。据媒体报道,江苏南京一位律师发现,在一款搜索类App和网站搜索其个人信息时,“AI智能回答”竟然给出“该律师被判三年有期徒刑”的错误文字内容,并配有该律师身着律师袍的照片。本案中,平台方面辩称,“AI幻觉”具有不可预见性,且处于“技术发展初期”。

但这一辩解未能获得法院支持。本案一审、二审法院均明确指出,该平台“AI智能回答”将错误文字与当事人照片合成发布,内容具有明确指向性和贬损性,已构成名誉侵权。

这起被媒体称为“中国人工智能大模型侵权第一案”的案件,传递了一个清晰的信号:技术可以有“幻觉”,但平台不能“视而不见”。

为什么AI会“一本正经地胡说八道”?

一个根本问题浮出水面:AI为什么非要“硬凑”答案,而不能老老实实说“不知道”?

答案藏在AI大模型的底层逻辑里。浙江大学人工智能研究所所长吴飞一语道破:“一本正经地‘说谎’,就是AI生成的‘幻觉’。”

北京通用人工智能研究院院长、北京大学智能学院院长朱松纯强调,大模型本身并不存在于真实世界中,因此无法像人一样实现从“词语(word)”到“世界(world)”的联结。也因此,大模型虽然出色,但仍然是“缸中之脑”,不具备真正的智能。

OpenAI于2025年9月发布的一篇论文《语言模型为何会产生幻觉》,从技术层面揭示了这一现象的必然性。研究指出,AI大模型在预训练阶段,海量互联网数据中学习“词语接龙”——根据上一个词预测下一个最可能出现的词。而互联网本身就充满了错误、过时和矛盾的信息,模型照单全收。

更关键的问题出在“后训练”阶段。目前,几乎所有主流AI模型的评估基准都采用二元评分制:答案正确得1分,错误得0分。在这一规则下,如果一个模型面对没有把握的问题时选择回答“我不知道”(得0分),它的得分和直接给一个错误答案(也得0分)完全相同。

这造成了一个局面:“虚张声势”反而成了追求高分的最优策略。为了在各大排行榜上获得更好的名次,模型被训练得更倾向于“猜一个答案”,而不是承认自己不知道。换句话说,当前整个行业的评估体系,正在系统性地奖励AI产生幻觉。

香港科技大学团队的研究进一步总结了导致AI幻觉的多重原因:训练数据本身存在错误、过时或缺漏;不同数据集之间存在相互矛盾的信息;模型在推理过程中出现逻辑断裂等。

面对“幻觉”,普通人该怎么办?

面对“幻觉”,普通人该怎么办?综合多位专家建议,最核心的一条是:建立“AI怀疑论”意识,永远不要把它当作唯一的权威信息来源。

对于AI给出的关键事实(如历史人物、法律条文、科学数据),务必通过搜索引擎、官方网站或权威数据库进行二次确认。

警惕“过度完美”。当AI的回答异常流畅、细节丰富,却未提供任何可验证的来源时,就需要提高警惕。很多时候,这恰恰是“编造”的信号。

此外,要优化提问方式。在向AI提问时,可以明确加上限定语,例如:“如果不知道,请直接说不知道”“请基于已知公开信息回答,不要编造”。

开启联网搜索。在使用支持联网搜索功能的AI时,开启该功能可以要求AI在回答前检索最新的网络信息,有效降低基于过时或错误训练数据产生幻觉的概率。

随着生成式人工智能系统测试员这一新兴职业的出现,AI的安全防线正在加固。但技术的完善需要时间,在此之前,保持审慎、主动核实,才是避免被AI“一本正经地忽悠”的最佳护身符。 

相关产品

评论