欧美性猛交xxxx免费看_牛牛在线视频国产免费_天堂草原电视剧在线观看免费_国产粉嫩高清在线观看_国产欧美日本亚洲精品一5区

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

最新研究綜述——探索基礎(chǔ)模型中的“幻覺”現(xiàn)象

深度學習自然語言處理 ? 來源:深度學習自然語言處理 ? 2023-09-22 16:57 ? 次閱讀

“幻覺”問題即模型生成的內(nèi)容可能包含虛構(gòu)的信息。它不僅在大語言模型(LLMs)中存在,也存在于圖像、視頻音頻等其他一系列基礎(chǔ)模型中。

針對這一問題,一篇最近的綜述論文對目前所有基礎(chǔ)模型的“幻覺”問題進行了第一次全面的調(diào)查,詳細分類了各類基礎(chǔ)模型中的幻覺現(xiàn)象,審視了現(xiàn)有的減輕幻覺問題的策略,并提出了一套用于評估幻覺程度的標準。

3eef975a-591e-11ee-939d-92fbcf53809c.png

Paper:A Survey of Hallucination in “Large” Foundation Models
Link:https://arxiv.org/pdf/2309.05922.pdf

注:本篇解讀僅對部分文獻進行總結(jié),更多細節(jié)請進一步閱讀原論文綜述。

前言

基礎(chǔ)模型Foundation Models(FMs)是通過自監(jiān)督學習方法,在大量未標簽數(shù)據(jù)上訓練得來的AI模型。這些模型不僅可以在圖像分類、自然語言處理和問答等多個領(lǐng)域中提供高精度的表現(xiàn),還可以處理涉及創(chuàng)作和人際互動的任務(wù),比如制作營銷內(nèi)容或根據(jù)簡短提示創(chuàng)作復雜藝術(shù)品。

雖然基礎(chǔ)模型非常強大,但在將其適配到企業(yè)應(yīng)用時也會遇到一系列的挑戰(zhàn),其中一個重要的問題就是“幻覺”現(xiàn)象。“幻覺”現(xiàn)象是指模型生成包含虛假信息或完全捏造的細節(jié)。這主要是因為模型根據(jù)訓練數(shù)據(jù)中學到的模式來創(chuàng)造看似合理的內(nèi)容,即便這樣的內(nèi)容與真實情況相去甚遠。

這種“幻覺”現(xiàn)象可能是無意中產(chǎn)生的,它可以由多種因素導致,包括訓練數(shù)據(jù)集中存在的偏見、模型不能獲取最新的信息,或是其在理解和生成準確回應(yīng)時的固有限制。為了確保我們可以安全、有效地利用基礎(chǔ)模型,特別是在新聞、醫(yī)療和法律等需要事實準確的領(lǐng)域,我們必須認真對待和解決“幻覺”問題。目前,研究人員正在努力探索各種方式來減少“幻覺”現(xiàn)象,從而提高模型的可靠性和信任度。

下圖展示了本篇綜述的一個基本框架,主要從文本、圖片、音頻和語音等領(lǐng)域來總結(jié)目前的研究。其中,文本又可以進一步細分為LLMs,多語言LLMs和特定領(lǐng)域的LLMs(如新聞、醫(yī)療等領(lǐng)域)。

3f10b9c6-591e-11ee-939d-92fbcf53809c.png

LLM的幻覺問題

幻覺檢測和修正方法

SELFCHECKGPT [1] 是一個用于監(jiān)控和糾正LLMs中的“幻覺”現(xiàn)象的工具,它能夠識別模型生成的不準確或未驗證的信息,無需額外資源或標記數(shù)據(jù)。這種方法能夠在沒有外部指南或數(shù)據(jù)集的情況下提高LLMs的可靠性和可信度。

PURR [2] 則專注于編輯和糾正語言模型中的誤導信息,它通過利用去噪語言模型的損壞來識別和修正幻覺,目的是提升模型輸出的質(zhì)量和準確性。

幻覺檢測數(shù)據(jù)集

幻覺問題通常和知識缺口有關(guān)。但研究 [3] 提出,有時模型會嘗試合理化之前生成的錯誤信息,從而產(chǎn)生更多的誤導內(nèi)容。為了深入研究這一現(xiàn)象,這項研究創(chuàng)建了三個問答數(shù)據(jù)集來收集模型產(chǎn)生錯誤答案和附帶虛假斷言的實例。

HaluEval [4] 提供了一個綜合基準來評估LLMs中的幻覺問題,幫助研究人員和開發(fā)人員更好地理解和提高模型的可靠性。

利用外部知識來緩解幻覺問題

為了減輕LLM的幻覺問題,研究人員正在探索如何利用外部知識來提高模型的輸出質(zhì)量和準確性。其中,[5] 提出了一種交互式問題-知識對齊方法,側(cè)重于將生成的文本與相關(guān)的事實知識對齊,使用戶能夠交互式地指導模型的回答,以產(chǎn)生更準確和可靠的信息。類似地,[6] 提出了LLMAUGMENTER方法,結(jié)合外部知識來源和自動化反饋機制來提高LLM輸出的準確性和可靠性。而 [7] 提出了“知識鏈”框架來鏈接LLMs和結(jié)構(gòu)化知識庫。

此外,相比于其更大的對應(yīng)體,小型開源LLMs通常會遇到更嚴重的幻覺問題。為了解決這個問題,[8] 提出了一系列方法來評估和減輕BLOOM 7B這類弱小型開源LLMs的幻覺問題。

采用prompting來緩解幻覺問題

也有研究致力于通過prompting來減少LLMs生成的不準確或幻覺信息。[9] 在2023年提出了一種由迭代提示指導的方法來去除LLMs的幻覺,提高輸出的準確性和可靠性。

多語言LLM的幻覺問題

大型多語言機器翻譯系統(tǒng)在直接翻譯多種語言方面展示了令人印象深刻的能力。但是,這些模型可能會產(chǎn)生“幻覺翻譯”,在部署時會引發(fā)信任和安全問題。目前關(guān)于幻覺的研究主要集中在小型雙語模型和高資源語言上,這留下了一個空白:在多種翻譯場景中大規(guī)模多語言模型的幻覺理解。

為了解決這個問題,[10] 對傳統(tǒng)的神經(jīng)機器翻譯模型的M2M家族和ChatGPT進行了全面的分析,后者可以用于提示翻譯。這項調(diào)查涵蓋了廣泛的語言背景,包括100多個翻譯方向。

特定領(lǐng)域LLM的幻覺問題

在諸如醫(yī)學、銀行、金融、法律等關(guān)鍵領(lǐng)域中,可靠性和準確性是至關(guān)重要的,任何形式的幻覺都可能對結(jié)果和操作產(chǎn)生重大和有害的影響。

醫(yī)學:LLMs中的幻覺問題,特別是在醫(yī)學領(lǐng)域,生成看似合理但不準確的信息可能是有害的。為了解決這個問題,[11] 引入了一個名為Med-HALT(醫(yī)學領(lǐng)域幻覺測試)的新基準和數(shù)據(jù)集。它專門設(shè)計用于評估和減輕LLMs中的幻覺。它包括來自不同國家的醫(yī)學檢查的多元化的多國數(shù)據(jù)集,并包括創(chuàng)新的測試方法。Med-HALT包括兩類測試:基于推理和基于記憶的幻覺測試,旨在評估LLMs在醫(yī)學背景下的問題解決和信息檢索能力。

法律:ChatLaw [12]是一個專門用于法律領(lǐng)域的開源LLM。為了確保高質(zhì)量的數(shù)據(jù),作者們創(chuàng)建了一個精心設(shè)計的法律領(lǐng)域微調(diào)數(shù)據(jù)集。為了解決法律數(shù)據(jù)篩選過程中模型幻覺的問題,他們提出了一種將矢量數(shù)據(jù)庫檢索與關(guān)鍵字檢索相結(jié)合的方法。這種方法有效地減少了在法律背景下僅依賴矢量數(shù)據(jù)庫檢索來檢索參考數(shù)據(jù)時可能出現(xiàn)的不準確性。

大圖像模型中的幻覺問題

對比學習模型利用Siamese結(jié)構(gòu)在自監(jiān)督學習中展示了令人印象深刻的表現(xiàn)。它們的成功依賴于兩個關(guān)鍵條件:存在足夠數(shù)量的正樣本對,并在它們之間存在充足的變化。如果不滿足這些條件,這些框架可能缺乏有意義的語義區(qū)別并容易過擬合。為了解決這些挑戰(zhàn),[13] 引入了Hallucinator,它可以高效地生成額外的正樣本來增強對比。Hallucinator是可微分的,在特征空間中運作,使其適合直接在預(yù)訓練任務(wù)中進行優(yōu)化,同時帶來最小的計算開銷。

受LLMs的啟發(fā),為復雜的多模態(tài)任務(wù)加強LVLMs面臨一個重大的挑戰(zhàn):對象幻覺,其中LVLMs在描述中生成不一致的對象。[14] 系統(tǒng)地研究了指令調(diào)整的大視覺語言模型(LVLMs)中的對象幻覺問題,并發(fā)現(xiàn)這是一個常見問題。視覺指令,特別是經(jīng)常出現(xiàn)或共同出現(xiàn)的對象,影響了這個問題?,F(xiàn)有的評估方法也受到輸入指令和LVLM生成樣式的影響。為了解決這個問題,該研究引入了一種改進的評估方法,稱為POPE,為LVLMs中的對象幻覺提供了更穩(wěn)定和靈活的評估。

LVLMs在處理各種多模態(tài)任務(wù)方面取得了重大進展,包括視覺問題回答(VQA)。然而,為這些模型生成詳細和視覺上準確的回答仍然是一個挑戰(zhàn)。即使是最先進的LVLMs,如InstructBLIP,也存在高幻覺文本率,包括30%的不存在的對象、不準確的描述和錯誤的關(guān)系。為了解決這個問題,[15] 引入了MHalDetect1,這是一個多模態(tài)幻覺檢測數(shù)據(jù)集,專為訓練和評估旨在檢測和預(yù)防幻覺的模型而設(shè)計。MHalDetect包含16000個關(guān)于VQA示例的精細詳細注釋,使其成為檢測詳細圖像描述中幻覺的首個全面數(shù)據(jù)集。

大視頻模型中的幻覺問題

幻覺可能發(fā)生在模型對視頻幀做出錯誤或富有想象的假設(shè)時,導致產(chǎn)生人工或錯誤的視覺信息,如下圖所示。

3f34d090-591e-11ee-939d-92fbcf53809c.png

一個解決方法是通過一種能夠生動地將人插入場景的方法來理解場景可供性的挑戰(zhàn)。[16] 使用標有區(qū)域的場景圖像和一個人的圖像,該模型無縫地將人集成到場景中,同時考慮場景的特點。該模型能夠根據(jù)場景環(huán)境推斷出現(xiàn)實的姿勢,相應(yīng)地調(diào)整人的姿勢,并確保視覺上令人愉悅的構(gòu)圖。自我監(jiān)督訓練使模型能夠在尊重場景環(huán)境的同時生成各種可能的姿勢。此外,該模型還可以自行生成逼真的人和場景,允許進行交互式編輯。

VideoChat [17] 是一個全面的系統(tǒng),采用面向聊天的方法來理解視頻。VideoChat將基礎(chǔ)視頻模型與LLMs結(jié)合,使用一個可適應(yīng)的神經(jīng)界面,展示出在理解空間、時間、事件定位和推斷因果關(guān)系方面的卓越能力。為了有效地微調(diào)這個系統(tǒng),他們引入了一個專門為基于視頻的指導設(shè)計的數(shù)據(jù)集,包括成千上萬的與詳細描述和對話配對的視頻。這個數(shù)據(jù)集強調(diào)了時空推理和因果關(guān)系等技能,使其成為訓練面向聊天的視頻理解系統(tǒng)的有價值的資源。

最近在視頻修復方面取得了顯著的進步,特別是在光流這樣的顯式指導可以幫助將缺失的像素傳播到各個幀的情況下。然而,當跨幀信息缺失時,就會出現(xiàn)挑戰(zhàn)。因此,模型集中解決逆向問題,而不是從其他幀借用像素。[18] 引入了一個雙模態(tài)兼容的修復框架,稱為Deficiency-aware Masked Transformer(DMT)。預(yù)訓練一個圖像修復模型來作為訓練視頻模型的先驗有一個優(yōu)點,可以改善處理信息不足的情況。

視頻字幕的目標是使用自然語言來描述視頻事件,但它經(jīng)常引入事實錯誤,降低了文本質(zhì)量。盡管在文本到文本的任務(wù)中已經(jīng)廣泛研究了事實一致性,但在基于視覺的文本生成中卻受到了較少的關(guān)注。[19] 對視頻字幕中的事實進行了詳細的人類評估,揭示了57.0%的模型生成的句子包含事實錯誤。現(xiàn)有的評估指標主要基于n-gram匹配,與人類評估不太一致。為了解決這個問題,他們引入了一個基于模型的事實度量稱為FactVC,它在評估視頻字幕中的事實度方面優(yōu)于之前的指標。

大型音頻模型中的幻覺

自動音樂字幕,即為音樂曲目生成文本描述,有可能增強對龐大音樂數(shù)據(jù)的組織?,F(xiàn)有音樂語言數(shù)據(jù)集的大小有限,收集過程昂貴。為了解決這種稀缺,[20] 使用了LLMs從廣泛的標簽數(shù)據(jù)集生成描述。他們創(chuàng)建了一個名為LP-MusicCaps的數(shù)據(jù)集,包含約220萬個與50萬個音頻剪輯配對的字幕。他們還使用各種量化自然語言處理指標和人類評估對這個大規(guī)模音樂字幕數(shù)據(jù)集進行了全面評估。他們在這個數(shù)據(jù)集上訓練了一個基于變換器的音樂字幕模型,并在零射擊和遷移學習場景中評估了其性能。

理想情況下,視頻應(yīng)該增強音頻,[21]使用了一個先進的語言模型進行數(shù)據(jù)擴充,而不需要人工標注。此外,他們利用音頻編碼模型有效地適應(yīng)了一個預(yù)訓練的文本到圖像生成模型,用于文本到音頻生成。

幻覺并非總是有害

從一個不同的角度來看,[22]討論了幻覺模型如何可以提供創(chuàng)意,提供可能不完全基于事實但仍然提供有價值線索來探索的輸出。創(chuàng)意地利用幻覺可以帶來不容易被大多數(shù)人想到的結(jié)果或新奇的創(chuàng)意組合?!盎糜X”變得有害是當生成的陳述事實上不準確或違反普遍的人類、社會或特定文化規(guī)范時。這在一個人依賴LLM來提供專家知識的情況下尤其關(guān)鍵。然而,在需要創(chuàng)意或藝術(shù)的背景下,產(chǎn)生不可預(yù)見結(jié)果的能力可能相當有利。對查詢的意外響應(yīng)可以驚喜人類并激發(fā)發(fā)現(xiàn)新奇想法聯(lián)系的可能性。

結(jié)論與未來方向

這篇綜述對現(xiàn)有關(guān)于基礎(chǔ)模型內(nèi)部的幻覺問題進行了簡單的分類和分析,研究涵蓋了幻覺檢測,緩解,數(shù)據(jù)集,以及評估標準。以下是一些可能的未來研究方向。

對幻覺的自動評估

幻覺指的是AI模型生成的不正確或捏造的信息。在像文本生成這樣的應(yīng)用中,這可能是一個重大的問題,因為目標是提供準確和可靠的信息。以下是對錯覺自動評估的潛在未來方向:

評估指標的開發(fā):研究者可以努力創(chuàng)建能夠檢測生成內(nèi)容中的幻覺的專門的評估指標。這些指標可能會考慮事實的準確性、連貫性和一致性??梢杂柧毟呒?a href="http://www.delux-kingway.cn/v/tag/557/" target="_blank">機器學習模型根據(jù)這些指標評估生成的文本。

人工智能合作:將人類判斷與自動評估系統(tǒng)結(jié)合是一個有前景的方向。眾包平臺可以用來收集人類對AI生成內(nèi)容的評估,然后用于訓練自動評估的模型。這種混合方法可以幫助捕捉對自動系統(tǒng)來說具有挑戰(zhàn)性的細微差別。

對抗性測試:研究者可以開發(fā)對抗性測試方法,其中AI系統(tǒng)被暴露于專門設(shè)計的輸入,以觸發(fā)幻覺。這有助于識別AI模型的弱點并提高其抵抗錯覺的魯棒性。

微調(diào)策略:特別為減少幻覺而微調(diào)預(yù)訓練的語言模型是另一個潛在的方向。模型可以在強調(diào)事實檢查和準確性的數(shù)據(jù)集上進行微調(diào),以鼓勵生成更可靠的內(nèi)容。

改進檢測和緩解幻覺的策略

檢測和緩解AI生成文本中的偏見、錯誤信息和低質(zhì)量內(nèi)容對于負責任的AI開發(fā)至關(guān)重要。策劃的知識來源在實現(xiàn)這一目標中可以起到重要作用。以下是一些未來的方向:

知識圖譜集成:將知識圖譜和策劃的知識庫集成到AI模型中可以增強它們對事實信息和概念之間關(guān)系的理解。這既可以幫助生成內(nèi)容,也可以幫助事實檢查。

事實檢查和驗證模型:開發(fā)專門的模型,專注于事實檢查和內(nèi)容驗證。這些模型可以使用策劃的知識來源來交叉引用生成的內(nèi)容,識別不準確或不一致之處。

偏見檢測和緩解:策劃的知識來源可以用來訓練AI模型識別和減少生成內(nèi)容中的偏見。AI系統(tǒng)可以被編程來檢查內(nèi)容是否存在潛在的偏見,并提議更加平衡的替代方案。

主動學習:通過主動學習不斷更新和完善策劃的知識來源。AI系統(tǒng)可以被設(shè)計為尋求人類對模糊或新信息的輸入和驗證,從而提高策劃知識的質(zhì)量。

道德指導和監(jiān)管:未來的方向還可能包括為AI開發(fā)中使用外部知識來源制定道德指南和監(jiān)管框架。這可以確保負責任和透明地使用策劃知識來緩解潛在風險。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • AI
    AI
    +關(guān)注

    關(guān)注

    87

    文章

    31670

    瀏覽量

    270465
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3336

    瀏覽量

    49260
  • 語言模型
    +關(guān)注

    關(guān)注

    0

    文章

    542

    瀏覽量

    10344
  • 知識圖譜
    +關(guān)注

    關(guān)注

    2

    文章

    132

    瀏覽量

    7746

原文標題:最新研究綜述——探索基礎(chǔ)模型中的“幻覺”現(xiàn)象

文章出處:【微信號:zenRRan,微信公眾號:深度學習自然語言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    大型語言模型在關(guān)鍵任務(wù)和實際應(yīng)用的挑戰(zhàn)

    大型語言模型的出現(xiàn)極大地推動了自然語言處理領(lǐng)域的進步,但同時也存在一些局限性,比如模型可能會產(chǎn)生看似合理但實際上是錯誤或虛假的內(nèi)容,這一現(xiàn)象被稱為幻覺(hallucination)。
    的頭像 發(fā)表于 08-15 09:33 ?1595次閱讀
    大型語言<b class='flag-5'>模型</b>在關(guān)鍵任務(wù)和實際應(yīng)用<b class='flag-5'>中</b>的挑戰(zhàn)

    TaD+RAG-緩解大模型幻覺”的組合新療法

    TaD:任務(wù)感知解碼技術(shù)(Task-aware Decoding,簡稱TaD),京東聯(lián)合清華大學針對大語言模型幻覺問題提出的一項技術(shù),成果收錄于IJCAI2024。 RAG:檢索增強生成技術(shù)
    的頭像 發(fā)表于 07-16 15:01 ?2216次閱讀
    TaD+RAG-緩解大<b class='flag-5'>模型</b>“<b class='flag-5'>幻覺</b>”的組合新療法

    【大語言模型:原理與工程實踐】核心技術(shù)綜述

    其預(yù)訓練和微調(diào),直到模型的部署和性能評估。以下是對這些技術(shù)的綜述模型架構(gòu): LLMs通常采用深層的神經(jīng)網(wǎng)絡(luò)架構(gòu),最常見的是Transformer網(wǎng)絡(luò),它包含多個自注意力層,能夠捕捉輸入數(shù)據(jù)
    發(fā)表于 05-05 10:56

    【大語言模型:原理與工程實踐】探索《大語言模型原理與工程實踐》2.0

    《大語言模型“原理與工程實踐”》是關(guān)于大語言模型內(nèi)在機理和應(yīng)用實踐的一次深入探索。作者不僅深入討論了理論,還提供了豐富的實踐案例,幫助讀者理解如何將理論知識應(yīng)用于解決實際問題。書中的案例分析有助于
    發(fā)表于 05-07 10:30

    圖像的文本定位技術(shù)研究綜述_晉瑾 電子書

    圖像的文本定位技術(shù)研究綜述_晉瑾
    發(fā)表于 06-29 12:24

    有限集模型預(yù)測控制策略綜述

    有限集模型預(yù)測控制的綜述
    發(fā)表于 11-20 11:27

    數(shù)字流域研究綜述

    本文對數(shù)字流域的框架研究、基礎(chǔ)平臺建設(shè)、數(shù)字流域模型及相關(guān)技術(shù)、數(shù)字流域應(yīng)用系統(tǒng)建設(shè)四個方面的研究進展進行了綜述。數(shù)字流域的整體框架可分為三層:數(shù)據(jù)層、
    發(fā)表于 04-07 12:16 ?26次下載

    基于深度學習的文本主題模型研究綜述

    基于深度學習的文本主題模型研究綜述
    發(fā)表于 06-24 11:49 ?68次下載

    電子器件靜電現(xiàn)象的防護技術(shù)綜述

    電子器件靜電現(xiàn)象的防護技術(shù)綜述
    發(fā)表于 07-13 09:23 ?29次下載

    OpenAI稱找到新方法減輕大模型幻覺

    據(jù)說,如果open ai開發(fā)的chatgpt和谷歌開發(fā)的bard等模型完全捏造信息,就像羅列事實一樣,顯示ai的“幻覺(hallucination)”。例如,在谷歌今年2月公開的bard宣傳視頻,聊天機器人對詹姆斯-韋伯太空望
    的頭像 發(fā)表于 06-02 09:50 ?1926次閱讀

    模型現(xiàn)存的10個問題和挑戰(zhàn)

    減輕幻覺問題并開發(fā)用于衡量幻覺的度量標準是一個蓬勃發(fā)展的研究課題。有許多初創(chuàng)公司專注于解決這個問題。還有一些降低幻覺的方法,例如在提示添加
    的頭像 發(fā)表于 09-05 17:05 ?1080次閱讀

    模型現(xiàn)存的10個問題和挑戰(zhàn)

    來源:Coggle數(shù)據(jù)科學大模型現(xiàn)存的問題和挑戰(zhàn)這篇文章介紹了關(guān)于大型語言模型(LLMs)研究的十個主要方向和問題:1.減少和度量幻覺
    的頭像 發(fā)表于 09-04 16:42 ?1830次閱讀
    大<b class='flag-5'>模型</b>現(xiàn)存的10個問題和挑戰(zhàn)

    幻覺降低30%!首個多模態(tài)大模型幻覺修正工作Woodpecker

    ;這一現(xiàn)象,如下圖所示: 圖中體現(xiàn)了兩種幻覺,紅色部分錯誤地描述了狗的顏色( 屬性幻覺 ),藍色部分描述了圖中實際不存在的事物( 目標幻覺 )。幻覺
    的頭像 發(fā)表于 10-30 11:05 ?546次閱讀
    <b class='flag-5'>幻覺</b>降低30%!首個多模態(tài)大<b class='flag-5'>模型</b><b class='flag-5'>幻覺</b>修正工作Woodpecker

    LLM的幻覺問題最新綜述

    幻覺被描述為無意義或不忠實于所提供源內(nèi)容的生成內(nèi)容。根據(jù)與源內(nèi)容的矛盾,這些幻覺又進一步分為內(nèi)在幻覺和外在幻覺。在LLMs,
    的頭像 發(fā)表于 11-22 17:40 ?1179次閱讀
    LLM的<b class='flag-5'>幻覺</b>問題最新<b class='flag-5'>綜述</b>

    阿里達摩院提出“知識鏈”框架,降低大模型幻覺

    近日,阿里巴巴達摩院(湖畔實驗室)攜手新加坡南洋理工大學等研究機構(gòu),共同推出了大模型知識鏈(CoK)框架。該框架不僅可實時檢索異構(gòu)知識源,還能逐步糾正推理錯誤,有效提高了大模型在回答知識型問題時的準確率,并顯著降低了所謂的“
    的頭像 發(fā)表于 05-10 11:46 ?757次閱讀