新研究:新技術助力人工智能減少“胡謅”
人工智能(AI)中廣泛使用的大語言模型不時出現(xiàn)的“一本正經(jīng)地胡謅”是其難以克服的問題。近日,英國牛津大學研究團隊開發(fā)出一種名為“語義熵”的新方法,有望大幅提升AI回答的可靠性。
5月30日,在瑞士日內(nèi)瓦舉行的2024年“人工智能造福人類全球峰會” 上,參會者和一個用于社會關懷的機器人互動。新華社記者連漪攝
大語言模型的“胡謅”在業(yè)界被稱為“幻覺”,牛津大學計算機科學系的研究人員提出“語義熵”方法試圖解決這一問題。在熱力學中,熵描述的是系統(tǒng)的混亂或者說不穩(wěn)定程度。這項研究中,熵衡量了大語言模型回答的不確定性,不確定性高意味著大語言模型的回答可能存在虛構。
該研究成果已發(fā)表在近期出版的英國《自然》雜志上。論文中說,如果AI對同一個問題,給出了許多語義相似的答案,那說明它對自己的回答比較有把握;反之,如果答案五花八門,那就意味著AI自己也“心里沒底”,很可能是在“胡謅”。
研究人員利用“語義熵”方法,讓大語言模型對同一問題生成多個答案,然后將語義相近的答案聚類,最后根據(jù)聚類結果計算熵值。熵值越高,表示大語言模型的回答越不確定。
值得注意的是,這一方法不僅考慮了大語言模型回答的字面差異,更關注語義層面的一致性。這使得“語義熵”能夠更準確地識別AI的“胡謅”,而不會被表達方式的多樣性所迷惑。
研究結果表明,“語義熵”方法在多個數(shù)據(jù)集和任務中都表現(xiàn)出色,能有效檢測大語言模型的錯誤回答,并通過拒絕回答不確定的問題來提高整體準確率。更重要的是,這一方法無需修改AI模型本身,可以直接應用于現(xiàn)有的大語言模型。
研究人員說,“語義熵”技術有望在問答系統(tǒng)、文本生成、機器翻譯等多個領域發(fā)揮重要作用,幫助AI生成更可靠、更有價值的內(nèi)容。這不僅將提升AI在實際應用中的表現(xiàn),也將增強用戶對AI系統(tǒng)的信任。
隨便看看:
- [業(yè)內(nèi)]以科學推動高質(zhì)量發(fā)展 博鰲健康食品科學大會將于明年2月舉辦
- [業(yè)內(nèi)]“頭雁”領飛 向“數(shù)”勇行 國企踏浪數(shù)字大潮觀察
- [業(yè)內(nèi)]澳大利亞研究人員稱新免疫療法為治療一種兒童惡性腦瘤帶來希望
- [業(yè)內(nèi)]在“科普盛宴”中感受科學魅力
- [業(yè)內(nèi)]安徽高端裝備制造產(chǎn)業(yè)已創(chuàng)建25個國家級企業(yè)技術中心
- [業(yè)內(nèi)]日研究人員借助“噴墨系統(tǒng)”為細胞準確送藥
- [業(yè)內(nèi)]強化戰(zhàn)略協(xié)同,蘇寧易購與長虹?美菱將成立聯(lián)合經(jīng)營體
- [業(yè)內(nèi)]蘇寧易購與倍科召開年度戰(zhàn)略發(fā)布會,2024年將有數(shù)十款新品上
- [業(yè)內(nèi)]科技賦能,讓“城市大腦”思考起來
- [業(yè)內(nèi)]南水北調(diào)中線向河南供水破200億立方米
相關推薦:
網(wǎng)友評論:
推薦使用友言、多說、暢言(需備案后使用)等社會化評論插件