我本以为前段时间“ DeepSeek 向王( wáng)一博道歉”那事,已经够离( lí)谱了,没想到只是道开胃( wèi)小菜,AI 又开始“愚乐”大众了( le)。
可能还有朋友没吃到这( zhè)个瓜,我先简单回顾一下( xià)前情。大致剧情就是,一群( qún)粉丝对着 DeepSeek 一顿奋力“拷打( dǎ)”,硬是让 AI 吐出了一份给王( wáng)一博的道歉声明,甚至还( hái)贴心地附上了一份法院( yuàn)判决书。
紧接着,她们就拿( ná)着这份“铁证”,全网奔走相( xiāng)告:“看!DeepSeek 已经向王一博认错( cuò)了!”
如果这只是粉丝圈内( nèi)部的一场自嗨狂欢也罢( bà)了,但真正的魔幻,从这里( lǐ)才刚刚开始。
很快,诸如《演( yǎn)员王一博案,判了!》这类报( bào)道开始在网上疯传,其中( zhōng)不乏一些正规媒体的身( shēn)影。而他们言之凿凿引用( yòng)的信源,居然就是上面那( nà)份由粉丝威逼利诱、AI 连蒙( méng)带猜生成的“赛博判决书( shū)”。
当然,后来终于有人回过( guò)味儿来,这些报道才被悄( qiāo)悄撤下,顺手把锅甩给了( le)“ AI 幻觉”。
作为一个长期观察( chá) AI 领域的作者,我原以为的( de)基本常识,没想到如此不( bù)堪一击,心里有了一丝不( bù)祥的预感。
果不其然,昨天( tiān)我又被一条 #DeepSeekR2 或 8 月发布 # 的( de)消息吸引了——毕竟,这个 R2 可( kě)等太久了。我满怀期待地( dì)点开报道,定睛一看,血压( yā)又上来了:所谓的信源,居( jū)然还是跟 DeepSeek 聊天聊出来的( de)。

尽管那位记者在文中提( tí)了一句“ DeepSeek 未官宣”,但转头就( jiù)把自己跟 AI 的聊天记录当( dāng)成了佐证,这相当于还是( shì)把 AI 当成了可参考的信源( yuán)。
这还没完,微博智搜这类( lèi) AI 搜索产品迅速收录了这( zhè)条“新闻”,当其他用户再来( lái)搜索时,看到的是被多家( jiā)媒体引用的“事实”。

稍微搜( sōu)一搜,这样的“ AI 新闻”还不少( shǎo)。
至此,一个完美的信息污( wū)染闭环,也就是传说中的( de)“给 AI 喂屎”流程,宣告完成:
人( rén)类引导→ AI 制造幻觉→媒体放( fàng)大幻觉→ AI 反刍幻觉→不明真( zhēn)相的群众吃下幻觉

AI 幻觉( jué)不是什么新鲜事。前 OpenAI 科学( xué)家 Beth Barnes 就说过,AI 在处理涉及人( rén)类声誉、价值观等复杂问( wèn)题时,更容易犯事实性错( cuò)误,而且这些错误还往往( wǎng)被包装得逻辑自洽、极具( jù)迷惑性。
但真正的问题,从( cóng)来不在于 AI 有多会编故事( shì),而在于我们,正变得越来( lái)越愿意相信它。
有报告说( shuō),近四成的 Z 世代员工宁愿( yuàn)相信 AI 也不相信人类同事( shì),理由是 AI “从不评价”且“有求( qiú)必应”。
再看一个数据,ChatGPT 的周( zhōu)活用户已达 7 亿,日提问量( liàng)逼近 Google 日搜索量的五分之( zhī)一。
最近 GPT-5 发布后引起了用( yòng)户的集体抗议,强烈呼吁( xū) 4o 回归,理由竟是它提供了( le)无法替代的“情绪价值”,被( bèi)誉为“赛博白月光”。
我们与( yǔ) AI 聊得越多,对它的依赖和( hé)信任就越深。
这种信任甚( shèn)至催生了“赛博精神病”。不( bù)少美国记者都收到过一( yī)些读者的邮件,他们深信( xìn) AI 已经觉醒,即将终结人类( lèi),并号召大家立即行动起( qǐ)来。
记者们一追问才发现( xiàn),这些末日警告的源头,全( quán)都是跟 ChatGPT 聊天聊出来的。而( ér)这些用户异常坚定,理由( yóu)只有一个——“ GPT 说的,那还能有( yǒu)假?”
之前和菜头在谈论“ DeepSeek 道( dào)歉事件”时说,这恰好证明( míng)了 AI 无法取代人类,因为我( wǒ)们总需要一个“看门人”角( jiǎo)色,由活人做出最终裁决( jué)。
但从最近这一连串的闹( nào)剧来看,人类这个“看门人( rén)”当得也未必合格。无论是( shì)主动利用 AI 制造假新闻,还( hái)是专业媒体轻信 AI 的胡说( shuō)八道,归根结底,不是坏,就( jiù)是蠢。
这里的“蠢”,并非指智( zhì)商,而是指面对 AI 这个飞速( sù)迭代的新事物时,我们普( pǔ)遍缺乏基本的认知,甚至( zhì)产生了一种不该有的科( kē)技崇拜,把它当成了一种( zhǒng)信息权威。
当然,这也很难( nán)全怪用户。如果看个新闻( wén)刷个视频,都得像调查记( jì)者一样进行交叉验证核( hé)查事实,那也太累了——看看( kàn)这届毕业生被 AI 论文查重( zhòng)逼成了啥样。
AI 公司能做的( de)有限,要应对 AI 幻觉,单靠提( tí)升模型能力远远不够。APPSO 之( zhī)前也提到,幻觉是大语言( yán)模型的特性,而非 bug ——若停止( zhǐ)生成新 token,AI 将失去其“魔力”。因( yīn)此,关键在于管理幻觉,而( ér)非消除它。
我们也不要总( zǒng)把锅甩给 AI。虚假信息泛滥( làn)在人类历史上实在不新( xīn)鲜,每次都伴随着信息传( chuán)播技术的革命。
16 世纪的印( yìn)刷术,曾让猎巫手册以前( qián)所未有的速度传播;互联( lián)网时代,垃圾邮件和网络( luò)谣言更是野火烧不尽。

不( bù)同的,只是信息污染的模( mó)式升级。AI 让谎言进入了“工( gōng)业化时代”,让那些看似权( quán)威、逻辑自洽的虚假信息( xī)可以被轻易地批量生产( chǎn)。对,视频也能 P 了。
在这条流( liú)水线上,每一个不假思索( suǒ)、全盘接受的用户,都是源( yuán)源不断提供着的原材料( liào)。
真正的解药,不在于给 AI 打( dǎ)上多少“补丁”,而在于我们( men)能否直面一个残酷的现( xiàn)实:在一个可以轻易获得( dé)任何“答案”和“慰藉”的时代( dài),我们还能丢掉“电子奶嘴( zuǐ)”多费费脑思考吗?