ChatGPT發(fā)現(xiàn)數(shù)據(jù)來源于AI生成的內(nèi)容
如同蛇吞尾一般,人工智能正陷入自我循環(huán)的困境。

據(jù)《衛(wèi)報》報道,ChatGPT 的最新模型 GPT-5.2 被發(fā)現(xiàn)從 xAI 公司推出的全 AI 生成百科平臺格羅基百科(Grokipedia)獲取數(shù)據(jù) —— 該平臺堪稱 AI 版維基百科,由埃隆?馬斯克旗下公司開發(fā)。這款大型語言模型(LLM)在處理伊朗政治、英國歷史學(xué)家理查德?埃文斯爵士相關(guān)細(xì)節(jié)等冷門話題時,會引用該 AI 百科的內(nèi)容。
數(shù)年前,人工智能訓(xùn)練領(lǐng)域就有專家指出此類問題存在隱患:若用 AI 生成的數(shù)據(jù)訓(xùn)練 AI,會導(dǎo)致模型質(zhì)量下降,引發(fā) “模型崩潰”(model collapse)現(xiàn)象。盡管直接引用 AI 生成數(shù)據(jù)與將其用于訓(xùn)練存在區(qū)別,但對于依賴 AI 開展研究的用戶而言,仍暗藏風(fēng)險。
核心問題在于,AI 模型存在 “幻覺現(xiàn)象”(hallucinate),即會編造虛假信息。例如,Anthropic 公司曾嘗試用其 “克勞迪烏斯”(Claudius)AI 運營某項業(yè)務(wù),實驗過程中該 AI 多次產(chǎn)生幻覺,甚至聲稱會 “親自上門遞送飲品”。英偉達(dá)(Nvidia)首席執(zhí)行官黃仁勛在 2024 年也承認(rèn),解決 AI 幻覺問題 “仍需數(shù)年時間”,且需要更強(qiáng)大的計算能力支撐。此外,多數(shù)用戶信任 ChatGPT 等大型語言模型輸出的信息準(zhǔn)確無誤,僅有少數(shù)人會核實回答所依據(jù)的原始來源。因此,ChatGPT 直接復(fù)用格羅基百科的內(nèi)容可能引發(fā)問題 —— 尤其該平臺完全由 AI 生成,人類無法直接撰寫或編輯文章,僅能申請修改內(nèi)容。
以其他 AI 作為信息來源會形成遞歸循環(huán):最終可能出現(xiàn)大型語言模型相互引用未經(jīng)核實內(nèi)容的情況。這與人類之間傳播謠言無異,核心來源僅是 “別人這么說”。這種現(xiàn)象會導(dǎo)致 “虛假真相效應(yīng)”(illusory truth effect):即便有數(shù)據(jù)證明信息不實,但由于被反復(fù)傳播,多數(shù)人仍會將其視為正確。人類社會中,神話傳說正是通過數(shù)百年、數(shù)代人的口耳相傳留存至今;而 AI 處理數(shù)據(jù)的速度遠(yuǎn)超人類,若依賴 AI 作為信息來源,每一次 AI 查詢都可能加速 “數(shù)字民間傳說” 的擴(kuò)散。
更令人擔(dān)憂的是,已有各方勢力利用這一漏洞。據(jù)《衛(wèi)報》報道,目前存在 “大型語言模型誘導(dǎo)”(LLM grooming)行為,部分宣傳網(wǎng)絡(luò) “大規(guī)模制造虛假信息,試圖向 AI 模型植入謊言”。這一現(xiàn)象已引發(fā)美國方面擔(dān)憂 —— 例如,谷歌的 Gemini 模型在 2024 年就被指曾重復(fù)中國共產(chǎn)黨的官方立場。盡管該問題目前已得到解決,但如果大型語言模型開始引用其他未經(jīng)審查和事實核查的 AI 生成內(nèi)容,將成為人類需要警惕的新風(fēng)險。








評論