我本以為前段時間“ DeepSeek 向王一博道歉”那事,已經(yǐ jīng)夠離譜了,沒想到只是道開胃小菜(xiǎo cài),AI 又開始“愚樂”大眾了。
可能還有朋友(péng yǒu)沒吃到這個瓜,我先簡單回顧(huí gù)一下前情。大致劇情就是,一群粉絲(fěn sī)對著 DeepSeek 一頓奮力“拷打”,硬是讓 AI 吐出(tǔ chū)了一份給王一博的道歉聲明,甚至(shèn zhì)還貼心地附上了一份法院判決書??(pàn jué shū)。
緊接著,她們就拿著這份“鐵證”,全網(quán wǎng)奔走相告:“看!DeepSeek 已經向王一博認錯了!”
如果(rú guǒ)這只是粉絲圈內部的一場自(zì)嗨狂歡也罷了,但真正的魔幻(mó huàn),從這里才剛剛開始。
很快,諸如《演員王一博案(wáng yī bó àn),判了!》這類報道開始在網上(wǎng shàng)瘋傳,其中不乏一些正規(guī)媒體的身影(shēn yǐng)。而他們言之鑿鑿引用的信源,居然就是(jiù shì)上面那份由粉絲威逼利誘、AI 連蒙帶猜生成(shēng chéng)的“賽博判決書??”。
當然,后來終于有人回過(huí guò)味兒來,這些報道才被悄悄撤(chè)下,順手把鍋甩給了“ AI 幻覺(huàn jué)”。
作為一個長期觀察 AI 領域的作者,我(wǒ)原以為的基本常識,沒想到如此不堪一擊,心里有(yǒu)了一絲不祥的預感。
果不其然,昨天我(wǒ)又被一條 #DeepSeekR2 或 8 月發(fā)布 # 的消息(xiāo xī)吸引了——畢竟,這個 R2 可等太久了(le)。我滿懷期待地點開報道,定睛一看,血??壓(xuè yā)又上來了:所謂的信源,居然還是(hái shì)跟 DeepSeek 聊天聊出來的。

盡管那位記者(jì zhě)在文中提了一句“ DeepSeek 未官宣”,但轉頭(zhuǎn tóu)就把自己跟 AI 的聊天記錄當成了(le)佐證,這相當于還是把 AI 當成了可(kě)參考的信源。
這還沒完,微博智搜(sōu)這類 AI 搜索產品迅速收錄了這條“新聞(xīn wén)”,當其他用戶再來搜索時,看到(kàn dào)的是被多家媒體引用的“事實(shì shí)”。

稍微搜一搜,這樣的“ AI 新聞”還不少(bù shǎo)。
至此,一個完美的信息污染閉環(huán),也(yě)就是傳說中的“給 AI 喂屎”流程(liú chéng),宣告完成:
人類引導→ AI 制造幻覺→媒體放大(fàng dà)幻覺→ AI 反芻幻覺→不明真相的群眾吃下(xià)幻覺

AI 幻覺不是什么新鮮事。前 OpenAI 科學家 Beth Barnes 就(jiù)說過,AI 在處理涉及人類聲譽、價值觀(jià zhí guān)等復雜問題時,更容易犯事實性(shì shí xìng)錯誤,而且這些錯誤還往往被包裝(bāo zhuāng)得邏輯自洽、極具迷惑性。
但真正的(de)問題,從來不在于 AI 有多會編故事,而在于(zài yú)我們,正變得越來越愿意相信它。
有(yǒu)報告說,近四成的 Z 世代員工寧愿(nìng yuàn)相信 AI 也不相信人類同事,理由是(shì) AI “從不評價”且“有求必應”。
再看一個數據(shù jù),ChatGPT 的周活用戶已達 7 億,日提問量(liàng)逼近 Google 日搜索量的五分之一。
最近 GPT-5 發(fā)布(fā bù)后引起了用戶的集體抗議,強烈呼吁(qiáng liè hū yù) 4o 回歸,理由竟是它提供了無法替代(tì dài)的“情緒價值”,被譽為“賽博白月光”。
我們(wǒ men)與 AI 聊得越多,對它的依賴(yī lài)和信任就越深。
這種信任甚至催生(cuī shēng)了“賽博精神病”。不少美國記者都收到(shōu dào)過一些讀者的郵件,他們深信 AI 已經(yǐ jīng)覺醒,即將終結人類,并號召大家立即行動(lì jí xíng dòng)起來。
記者們一追問才發(fā)現,這些(zhè xiē)末日警告的源頭,全都是跟 ChatGPT 聊天(liáo tiān)聊出來的。而這些用戶異常堅定(jiān dìng),理由只有一個——“ GPT 說的,那還能(néng)有假?”
之前和菜頭在談論“ DeepSeek 道歉事件(shì jiàn)”時說,這恰好證明了 AI 無法取代人類(rén lèi),因為我們總需要一個“看門人”角色,由(yóu)活人做出最終裁決。
但從最近這(zhè)一連串的鬧劇來看,人類這個“看門人”當得(dāng dé)也未必合格。無論是主動利用 AI 制造假新聞(jiǎ xīn wén),還是專業(yè)媒體輕信 AI 的胡說八道,歸根結底,不是(bú shì)壞,就是蠢。
這里的“蠢”,并非指(zhǐ)智商,而是指面對 AI 這個飛速迭代的(de)新事物時,我們普遍缺乏基本的(de)認知,甚至產生了一種不該有的(de)科技崇拜,把它當成了一種信息(xìn xī)權威。
當然,這也很難全怪用戶(yòng hù)。如果看個新聞刷個視頻,都得像(xiàng)調查記者一樣進行交叉驗證核查事實(shì shí),那也太累了——看看這屆畢業(yè)生被(bèi) AI 論文查重逼成了啥樣。
AI 公司能(néng)做的有限,要應對 AI 幻覺,單靠提升(tí shēng)模型能力遠遠不夠。APPSO 之前也提到,幻覺是(shì)大語言模型的特性,而非 bug ——若(ruò)停止生成新 token,AI 將失去其“魔力”。因此(yīn cǐ),關鍵在于管理幻覺,而非消除它。
我們(wǒ men)也不要總把鍋甩給 AI。虛假(xū jiǎ)信息泛濫在人類歷史上實在不(bù)新鮮,每次都伴隨著信息傳播技術(jì shù)的革命。
16 世紀的印刷術,曾讓獵巫(liè wū)手冊以前所未有的速度傳播;互聯網時代(shí dài),垃圾郵件和網絡謠言更是野火燒不盡。

不同的(de),只是信息污染的模式升級。AI 讓謊言(huǎng yán)進入了“工業(yè)化時代”,讓那些看似權威(quán wēi)、邏輯自洽的虛假信息可以被輕易(qīng yì)地批量生產。對,視頻也能 P 了。
在(zài)這條流水線上,每一個不假思索、全盤接受的(de)用戶,都是源源不斷提供著的原材料(yuán cái liào)。
真正的解藥??,不在于給 AI 打上(shàng)多少“補丁”,而在于我們能否直面一個(yí gè)殘酷的現實:在一個可以輕易獲得(huò dé)任何“答案”和“慰藉”的時代,我們還(hái)能丟掉“電子奶嘴”多費費腦思考(sī kǎo)嗎?