軟文推廣的網(wǎng)站

核心要點

圖片

2025年5月15日,玄學(xué)中國信息通信研究院人工智能研究所公布了大模型幻覺測試的幻覺第一期結(jié)果:包括DeepSeek R1在內(nèi)的15個主流模型,無一例外都存在不同程度的捕手加拿大28预测网站pc“幻覺”。

“幻覺”一詞源于生物學(xué),更像運用在人工智能領(lǐng)域,玄學(xué)始于谷歌2017年的幻覺一項研究。當(dāng)時研究員們模仿人類的捕手神經(jīng)網(wǎng)絡(luò),設(shè)計了一個機器翻譯系統(tǒng)。更像

結(jié)果發(fā)現(xiàn)這個網(wǎng)絡(luò)翻譯系統(tǒng)哪怕“不會”,玄學(xué)仍能輸出一段流暢的幻覺內(nèi)容。過去,捕手加拿大28预测网站pc谷歌傳統(tǒng)的更像翻譯系統(tǒng)遇到不會的單詞,很多時候會保留原文。玄學(xué)于是幻覺,研究人員把神經(jīng)翻譯系統(tǒng)這種更有“迷惑性”的捕手錯誤命名為“幻覺”。

一個著名的幻覺案例是,2024年7月,Scale AI的高級提示工程師萊利·古德賽德向當(dāng)時世界最強三大模型(GPT-4o、Gemini Advanced、Claude 3.5 Sonnet)詢問,“9.11和9.9哪個更大?”它們異口同聲回答:“9.11更大。”

ChatGPT并非全球首個大模型,Meta和谷歌此前也推出過類似產(chǎn)品。其中,Meta的Galactica AI因幻覺嚴(yán)重,上線僅三天便被撤回。

ChatGPT之所以被視為劃時代產(chǎn)品,正是因其首次將幻覺率壓低到可接受范圍。從ChatGPT-3.5到o3,兩年來模型性能持續(xù)提升,人們逐漸形成一種假設(shè):模型越聰明,越不會出錯。

直到2025年4月,OpenAI在一篇論文中潑了冷水:在其內(nèi)部測試中,最新的推理模型o3比前一代推理模型o1的幻覺率更高。

這一反直覺的發(fā)現(xiàn)令整個行業(yè)都神經(jīng)緊張,如果智能提升的同時,也增強了“偽裝錯誤”的能力,那更聰明的推理大模型帶來的不是更高的可靠性,而是更難察覺的風(fēng)險。

不過,中國信息通信研究院剛剛出爐的這份測評結(jié)果,讓業(yè)界可以稍感安慰。他們的結(jié)果顯示,推理模型相對于通用模型,幻覺問題更輕。這說明推理過程一定程度上有助于緩解幻覺。

那么,這些測評結(jié)果究竟能說明什么?更聰明的模型,真的更會“說謊”嗎?人類能不能徹底消滅“幻覺”?

一次次測試中,黑一鳴偶爾會陷入一個哲學(xué)思考,“子非魚,焉知魚之樂也?”視覺中國 圖

幻覺捕手

2025年春節(jié),中國信息通信研究院人工智能研究所的研究員黑一鳴整個假期都泡在論文堆里,為了尋找捕捉這種“大模型幻覺”的方法。

黑一鳴身高接近1.9米,2023年博士畢業(yè)。那是他讀博的最后一年,大模型時代突如其來,打亂了所有人的節(jié)奏,“我這一屆還好,下一屆的學(xué)弟學(xué)妹,如果畢業(yè)論文里沒大模型,會被認(rèn)為沒有跟進(jìn)最新研究,被質(zhì)疑創(chuàng)新性。”

原本專攻網(wǎng)絡(luò)內(nèi)容安全的黑一鳴,也在畢業(yè)后轉(zhuǎn)向大模型研究,加入中國信息通信研究院人工智能研究所,成為一名研究員。當(dāng)時,國內(nèi)大模型紛紛要進(jìn)行安全備案,研究所為各大模型企業(yè)提供安全測評,重點評估輸出內(nèi)容的合規(guī)性與越獄攻擊等風(fēng)險。黑一鳴最初負(fù)責(zé)的,正是這項安全測評工作。

隨著行業(yè)從“百模大戰(zhàn)”走向大模型在真實業(yè)務(wù)中的落地,關(guān)注的焦點也悄然轉(zhuǎn)移。黑一鳴感覺到,過去一年,來自金融、醫(yī)療、法律等高風(fēng)險行業(yè)的咨詢明顯增加。

這些領(lǐng)域容錯率極低,對潛在風(fēng)險格外敏感。“比如銀行的客戶服務(wù)機器人,跟客戶交流時,它輸出的內(nèi)容會不會違背既有政策,大家特別擔(dān)心。”

一個最新的例子來自全球知名的人工智能編程軟件公司 Cursor。作為目前最成功的大模型應(yīng)用之一,它已將客服業(yè)務(wù)完全交由AI處