欧美性猛交xxxx免费看_牛牛在线视频国产免费_天堂草原电视剧在线观看免费_国产粉嫩高清在线观看_国产欧美日本亚洲精品一5区

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

如何手?jǐn)]一個自有知識庫的RAG系統(tǒng)

京東云 ? 來源:jf_75140285 ? 作者:jf_75140285 ? 2024-06-17 14:59 ? 次閱讀

RAG通常指的是"Retrieval-Augmented Generation",即“檢索增強(qiáng)的生成”。這是一種結(jié)合了檢索(Retrieval)和生成(Generation)的機(jī)器學(xué)習(xí)模型,通常用于自然語言處理任務(wù),如文本生成、問答系統(tǒng)等。

我們通過一下幾個步驟來完成一個基于京東云官網(wǎng)文檔的RAG系統(tǒng)

數(shù)據(jù)收集

建立知識庫

向量檢索

提示詞與模型

數(shù)據(jù)收集

數(shù)據(jù)的收集再整個RAG實(shí)施過程中無疑是最耗人工的,涉及到收集、清洗、格式化、切分等過程。這里我們使用京東云的官方文檔作為知識庫的基礎(chǔ)。文檔格式大概這樣:

{
    "content": "DDoS IP高防結(jié)合Web應(yīng)用防火墻方案說明n=======================nnnDDoS IP高防+Web應(yīng)用防火墻提供三層到七層安全防護(hù)體系,應(yīng)用場景包括游戲、金融、電商、互聯(lián)網(wǎng)、政企等京東云內(nèi)和云外的各類型用戶。nnn部署架構(gòu)n====nnn[!["部署架構(gòu)"]("https://jdcloud-portal.oss.cn-north-1.jcloudcs.com/cn/image/Advanced%20Anti-DDoS/Best-Practice02.png")]("https://jdcloud-portal.oss.cn-north-1.jcloudcs.com/cn/image/Advanced%20Anti-DDoS/Best-Practice02.png")  nnDDoS IP高防+Web應(yīng)用防火墻的最佳部署架構(gòu)如下:nnn* 京東云的安全調(diào)度中心,通過DNS解析,將用戶域名解析到DDoS IP高防CNAME。n* 用戶正常訪問流量和DDoS攻擊流量經(jīng)過DDoS IP高防清洗,回源至Web應(yīng)用防火墻。n* 攻擊者惡意請求被Web應(yīng)用防火墻過濾后返回用戶源站。n* Web應(yīng)用防火墻可以保護(hù)任何公網(wǎng)的服務(wù)器,包括但不限于京東云,其他廠商的云,IDC等nnn方案優(yōu)勢n====nnn1. 用戶源站在DDoS IP高防和Web應(yīng)用防火墻之后,起到隱藏源站IP的作用。n2. CNAME接入,配置簡單,減少運(yùn)維人員工作。nnn",
    "title": "DDoS IP高防結(jié)合Web應(yīng)用防火墻方案說明",
    "product": "DDoS IP高防",
    "url": "https://docs.jdcloud.com/cn/anti-ddos-pro/anti-ddos-pro-and-waf"
}

每條數(shù)據(jù)是一個包含四個字段的json,這四個字段分別是"content":文檔內(nèi)容;"title":文檔標(biāo)題;"product":相關(guān)產(chǎn)品;"url":文檔在線地址

向量數(shù)據(jù)庫的選擇與Retriever實(shí)現(xiàn)

向量數(shù)據(jù)庫是RAG系統(tǒng)的記憶中心。目前市面上開源的向量數(shù)據(jù)庫很多,那個向量庫比較好也是見仁見智。本項(xiàng)目中筆者選擇則了clickhouse作為向量數(shù)據(jù)庫。選擇ck主要有一下幾個方面的考慮:

ck再langchain社區(qū)的集成實(shí)現(xiàn)比較好,入庫比較平滑

向量查詢支持sql,學(xué)習(xí)成本較低,上手容易

京東云有相關(guān)產(chǎn)品且有專業(yè)團(tuán)隊(duì)支持,用著放心

文檔向量化及入庫過程

為了簡化文檔向量化和檢索過程,我們使用了longchain的Retriever工具集
首先將文檔向量化,代碼如下:

from libs.jd_doc_json_loader import JD_DOC_Loader
from langchain_community.document_loaders import DirectoryLoader

root_dir = "/root/jd_docs"
loader = DirectoryLoader(
    '/root/jd_docs', glob="**/*.json", loader_cls=JD_DOC_Loader)
docs = loader.load()

langchain 社區(qū)里并沒有提供針對特定格式的裝載器,為此,我們自定義了JD_DOC_Loader來實(shí)現(xiàn)加載過程

import json
import logging
from pathlib import Path
from typing import Iterator, Optional, Union

from langchain_core.documents import Document

from langchain_community.document_loaders.base import BaseLoader
from langchain_community.document_loaders.helpers import detect_file_encodings

logger = logging.getLogger(__name__)


class JD_DOC_Loader(BaseLoader):
    """Load text file.


    Args:
        file_path: Path to the file to load.

        encoding: File encoding to use. If `None`, the file will be loaded
        with the default system encoding.

        autodetect_encoding: Whether to try to autodetect the file encoding
            if the specified encoding fails.
    """

    def __init__(
        self,
        file_path: Union[str, Path],
        encoding: Optional[str] = None,
        autodetect_encoding: bool = False,
    ):
        """Initialize with file path."""
        self.file_path = file_path
        self.encoding = encoding
        self.autodetect_encoding = autodetect_encoding

    def lazy_load(self) -> Iterator[Document]:
        """Load from file path."""
        text = ""
        from_url = ""
        try:
            with open(self.file_path, encoding=self.encoding) as f:
                doc_data = json.load(f)
                text = doc_data["content"]
                title = doc_data["title"]
                product = doc_data["product"]
                from_url = doc_data["url"]

                # text = f.read()
        except UnicodeDecodeError as e:
            if self.autodetect_encoding:
                detected_encodings = detect_file_encodings(self.file_path)
                for encoding in detected_encodings:
                    logger.debug(f"Trying encoding: {encoding.encoding}")
                    try:
                        with open(self.file_path, encoding=encoding.encoding) as f:
                            text = f.read()
                        break
                    except UnicodeDecodeError:
                        continue
            else:
                raise RuntimeError(f"Error loading {self.file_path}") from e
        except Exception as e:
            raise RuntimeError(f"Error loading {self.file_path}") from e
        # metadata = {"source": str(self.file_path)}
        metadata = {"source": from_url, "title": title, "product": product}
        yield Document(page_content=text, metadata=metadata)

以上代碼功能主要是解析json文件,填充Document的page_content字段和metadata字段。

接下來使用langchain 的 clickhouse 向量工具集進(jìn)行文檔入庫

import langchain_community.vectorstores.clickhouse as clickhouse
from langchain.embeddings import HuggingFaceEmbeddings

model_kwargs = {"device": "cuda"}
embeddings = HuggingFaceEmbeddings(
    model_name="/root/models/moka-ai-m3e-large", model_kwargs=model_kwargs)

settings = clickhouse.ClickhouseSettings(
    table="jd_docs_m3e_with_url", username="default", password="xxxxxx", host="10.0.1.94")

docsearch = clickhouse.Clickhouse.from_documents(
    docs, embeddings, config=settings)

入庫成功后,進(jìn)行一下檢驗(yàn)

import langchain_community.vectorstores.clickhouse as clickhouse
from langchain.embeddings import HuggingFaceEmbeddings

model_kwargs = {"device": "cuda"}~~~~
embeddings = HuggingFaceEmbeddings(
    model_name="/root/models/moka-ai-m3e-large", model_kwargs=model_kwargs)

settings = clickhouse.ClickhouseSettings(
    table="jd_docs_m3e_with_url_splited", username="default", password="xxxx", host="10.0.1.94")
ck_db = clickhouse.Clickhouse(embeddings, config=settings)
ck_retriever = ck_db.as_retriever(
    search_type="similarity_score_threshold", search_kwargs={'score_threshold': 0.9})
ck_retriever.get_relevant_documents("如何創(chuàng)建mysql rds")

有了知識庫以后,可以構(gòu)建一個簡單的restful 服務(wù),我們這里使用fastapi做這個事兒

from fastapi import FastAPI
from pydantic import BaseModel
from singleton_decorator import singleton
from langchain_community.embeddings import HuggingFaceEmbeddings
import langchain_community.vectorstores.clickhouse as clickhouse
import uvicorn
import json

app = FastAPI()
app = FastAPI(docs_url=None)
app.host = "0.0.0.0"

model_kwargs = {"device": "cuda"}
embeddings = HuggingFaceEmbeddings(
    model_name="/root/models/moka-ai-m3e-large", model_kwargs=model_kwargs)
settings = clickhouse.ClickhouseSettings(
    table="jd_docs_m3e_with_url_splited", username="default", password="xxxx", host="10.0.1.94")
ck_db = clickhouse.Clickhouse(embeddings, config=settings)
ck_retriever = ck_db.as_retriever(
    search_type="similarity", search_kwargs={"k": 3})


class question(BaseModel):
    content: str


@app.get("/")
async def root():
    return {"ok"}


@app.post("/retriever")
async def retriver(question: question):
    global ck_retriever
    result = ck_retriever.invoke(question.content)
    return result


if __name__ == '__main__':
    uvicorn.run(app='retriever_api:app', host="0.0.0.0",
                port=8000, reload=True)

返回結(jié)構(gòu)大概這樣:

[
  {
    "page_content": "云緩存 Redis--Redis遷移解決方案n###RedisSyncer 操作步驟n####數(shù)據(jù)校驗(yàn)n```nwget   https://github.com/TraceNature/rediscompare/releases/download/v1.0.0/rediscompare-1.0.0-linux-amd64.tar.gznrediscompare compare single2single --saddr "10.0.1.101:6479" --spassword "redistest0102" --taddr "10.0.1.102:6479" --tpassword  "redistest0102" --comparetimes 3nn```  n**Github 地址:** [https://github.com/TraceNature/redissyncer-server]("https://github.com/TraceNature/redissyncer-server")",
    "metadata": {
      "product": "云緩存 Redis",
      "source": "https://docs.jdcloud.com/cn/jcs-for-redis/doc-2",
      "title": "Redis遷移解決方案"
    },
    "type": "Document"
  },
  {
    "page_content": "云緩存 Redis--Redis遷移解決方案n###RedisSyncer 操作步驟n####數(shù)據(jù)校驗(yàn)n```nwget   https://github.com/TraceNature/rediscompare/releases/download/v1.0.0/rediscompare-1.0.0-linux-amd64.tar.gznrediscompare compare single2single --saddr "10.0.1.101:6479" --spassword "redistest0102" --taddr "10.0.1.102:6479" --tpassword  "redistest0102" --comparetimes 3nn```  n**Github 地址:** [https://github.com/TraceNature/redissyncer-server]("https://github.com/TraceNature/redissyncer-server")",
    "metadata": {
      "product": "云緩存 Redis",
      "source": "https://docs.jdcloud.com/cn/jcs-for-redis/doc-2",
      "title": "Redis遷移解決方案"
    },
    "type": "Document"
  },
  {
    "page_content": "云緩存 Redis--Redis遷移解決方案n###RedisSyncer 操作步驟n####數(shù)據(jù)校驗(yàn)n```nwget   https://github.com/TraceNature/rediscompare/releases/download/v1.0.0/rediscompare-1.0.0-linux-amd64.tar.gznrediscompare compare single2single --saddr "10.0.1.101:6479" --spassword "redistest0102" --taddr "10.0.1.102:6479" --tpassword  "redistest0102" --comparetimes 3nn```  n**Github 地址:** [https://github.com/TraceNature/redissyncer-server]("https://github.com/TraceNature/redissyncer-server")",
    "metadata": {
      "product": "云緩存 Redis",
      "source": "https://docs.jdcloud.com/cn/jcs-for-redis/doc-2",
      "title": "Redis遷移解決方案"
    },
    "type": "Document"
  }
]

返回一個向量距離最小的list

結(jié)合模型和prompt,回答問題

為了節(jié)約算力資源,我們選擇qwen 1.8B模型,一張v100卡剛好可以容納一個qwen模型和一個m3e-large embedding 模型

answer 服務(wù)

from fastapi import FastAPI
from pydantic import BaseModel
from langchain_community.llms import VLLM
from transformers import AutoTokenizer
from langchain.prompts import PromptTemplate
import requests
import uvicorn
import json
import logging

app = FastAPI()
app = FastAPI(docs_url=None)
app.host = "0.0.0.0"

logger = logging.getLogger()
logger.setLevel(logging.INFO)
to_console = logging.StreamHandler()
logger.addHandler(to_console)


# load model
# model_name = "/root/models/Llama3-Chinese-8B-Instruct"
model_name = "/root/models/Qwen1.5-1.8B-Chat"
tokenizer = AutoTokenizer.from_pretrained(model_name)
llm_llama3 = VLLM(
    model=model_name,
    tokenizer=tokenizer,
    task="text-generation",
    temperature=0.2,
    do_sample=True,
    repetition_penalty=1.1,
    return_full_text=False,
    max_new_tokens=900,
)

# prompt
prompt_template = """
你是一個云技術(shù)專家
使用以下檢索到的Context回答問題。
如果不知道答案,就說不知道。
用中文回答問題。
Question: {question}
Context: {context}
Answer: 
"""

prompt = PromptTemplate(
    input_variables=["context", "question"],
    template=prompt_template,
)


def get_context_list(q: str):
    url = "http://10.0.0.7:8000/retriever"
    payload = {"content": q}
    res = requests.post(url, json=payload)
    return res.text


class question(BaseModel):
    content: str


@app.get("/")
async def root():
    return {"ok"}


@app.post("/answer")
async def answer(q: question):
    logger.info("invoke!!!")
    global prompt
    global llm_llama3
    context_list_str = get_context_list(q.content)

    context_list = json.loads(context_list_str)
    context = ""
    source_list = []

    for context_json in context_list:
        context = context+context_json["page_content"]
        source_list.append(context_json["metadata"]["source"])
    p = prompt.format(context=context, question=q.content)
    answer = llm_llama3(p)
    result = {
        "answer": answer,
        "sources": source_list
    }
    return result


if __name__ == '__main__':
    uvicorn.run(app='retriever_api:app', host="0.0.0.0",
                port=8888, reload=True)

代碼通過使用Retriever接口查找與問題相似的文檔,作為context組合prompt推送給模型生成答案。
主要服務(wù)就緒后可以開始畫一張臉了,使用gradio做個簡易對話界面

gradio 服務(wù)

import json
import gradio as gr
import requests


def greet(name, intensity):
    return "Hello, " + name + "!" * int(intensity)


def answer(question):
    url = "http://127.0.0.1:8888/answer"
    payload = {"content": question}
    res = requests.post(url, json=payload)
    res_json = json.loads(res.text)
    return [res_json["answer"], res_json["sources"]]


demo = gr.Interface(
    fn=answer,
    # inputs=["text", "slider"],
    inputs=[gr.Textbox(label="question", lines=5)],
    # outputs=[gr.TextArea(label="answer", lines=5),
    #          gr.JSON(label="urls", value=list)]
    outputs=[gr.Markdown(label="answer"),
             gr.JSON(label="urls", value=list)]
)


demo.launch(server_name="0.0.0.0")


審核編輯 黃宇
聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • SQL
    SQL
    +關(guān)注

    關(guān)注

    1

    文章

    775

    瀏覽量

    44262
  • 數(shù)據(jù)庫
    +關(guān)注

    關(guān)注

    7

    文章

    3851

    瀏覽量

    64708
收藏 人收藏

    評論

    相關(guān)推薦

    【「基于大模型的RAG應(yīng)用開發(fā)與優(yōu)化」閱讀體驗(yàn)】+第章初體驗(yàn)

    性能,大幅降低計(jì)算成本。 四、典型應(yīng)用場景與挑戰(zhàn) 1智能問答系統(tǒng):結(jié)合企業(yè)知識庫提供精準(zhǔn)回答。 2內(nèi)容生成工具:例如基于行業(yè)報(bào)告的自動摘要生成。 3性化推薦:通過用戶歷史行為檢索相似內(nèi)容并生成解釋。 4
    發(fā)表于 02-07 10:42

    【「基于大模型的RAG應(yīng)用開發(fā)與優(yōu)化」閱讀體驗(yàn)】+Embedding技術(shù)解讀

    引入外部知識庫來增強(qiáng)生成模型的能力。而Embedding在 Embedding模型將用戶的問題和文檔中的文本轉(zhuǎn)換為向量表示,這是RAG系統(tǒng)進(jìn)行信息檢索和文本生成的基礎(chǔ)。
    發(fā)表于 01-17 19:53

    基于華為云 Flexus 云服務(wù)器 X 搭建部署——AI 知識庫問答系統(tǒng)(使用 1panel 面板安裝)

    Flexus 云服務(wù)器 X 攜手開源力量,為您打造全方位、高性能的知識庫問答系統(tǒng)!無論您是構(gòu)建企業(yè)內(nèi)部的知識寶庫,還是優(yōu)化客戶服務(wù)體驗(yàn),亦或深耕學(xué)術(shù)研究與教育領(lǐng)域,這創(chuàng)新解決方案都
    的頭像 發(fā)表于 01-17 09:45 ?306次閱讀
    基于華為云 Flexus 云服務(wù)器 X 搭建部署——AI <b class='flag-5'>知識庫</b>問答<b class='flag-5'>系統(tǒng)</b>(使用 1panel 面板安裝)

    華為云 Flexus 云服務(wù)器 X 實(shí)例之 openEuler 系統(tǒng)下搭建 MaxKB 開源知識庫問答系統(tǒng)

    及個人開發(fā)者快速構(gòu)建高效、靈活的應(yīng)用環(huán)境。本文將詳細(xì)介紹如何利用華為云 Flexus 云服務(wù)器 X 實(shí)例搭建基于 openEuler 系統(tǒng)的 MaxKB 開源知識庫問答系統(tǒng),為企業(yè)內(nèi)部的知識
    的頭像 發(fā)表于 01-17 09:44 ?322次閱讀
    華為云 Flexus 云服務(wù)器 X 實(shí)例之 openEuler <b class='flag-5'>系統(tǒng)</b>下搭建 MaxKB 開源<b class='flag-5'>知識庫</b>問答<b class='flag-5'>系統(tǒng)</b>

    騰訊ima升級知識庫功能,上線小程序?qū)崿F(xiàn)共享與便捷問答

    知識管理體驗(yàn)。 現(xiàn)在,用戶可以在ima平臺上輕松創(chuàng)建知識庫,并設(shè)置共享權(quán)限,實(shí)現(xiàn)多人同時使用和編輯。這功能的增加,極大地提升了團(tuán)隊(duì)協(xié)作的效率,使得知識信息的共享和傳遞變得更加流暢。
    的頭像 發(fā)表于 12-31 15:32 ?455次閱讀

    浪潮信息發(fā)布&quot;源&quot;Yuan-EB,刷新RAG檢索最高成績

    檢索任務(wù)的第名,以78.41的平均精度刷新了大模型RAG檢索的最高成績。 "源"Yuan-EB的發(fā)布,標(biāo)志著浪潮信息在知識向量化技術(shù)方面取得了重要進(jìn)展。該模型基于元腦企智EPAI構(gòu)建,能夠?yàn)槠髽I(yè)提供更加高效、精準(zhǔn)的
    的頭像 發(fā)表于 12-25 15:54 ?209次閱讀

    RAG的概念及工作原理

    )與外部知識源集成,增強(qiáng)了其能力。這種集成允許模型動態(tài)地引入相關(guān)信息,使其能夠生成不僅連貫而且事實(shí)準(zhǔn)確、上下文相關(guān)的回應(yīng)。RAG系統(tǒng)的主要組成部分包括: ·檢索器(Retriever): 該組件從外部
    的頭像 發(fā)表于 12-17 13:41 ?492次閱讀
    <b class='flag-5'>RAG</b>的概念及工作原理

    名單公布!【書籍評測活動NO.52】基于大模型的RAG應(yīng)用開發(fā)與優(yōu)化

    使用RAG的思想,那么可以先從企業(yè)私有的知識庫中檢索出下面段相關(guān)的補(bǔ)充知識。 你把檢索出的補(bǔ)充知識組裝到提示詞中,將其輸入大模型,并要求
    發(fā)表于 12-04 10:50

    直播預(yù)告 大模型 + 知識庫RAG):如何使能行業(yè)數(shù)智化?

    。最近,有小伙伴留言稱工作中常遇到知識管理問題: 知識管理雜亂無章、查找費(fèi)時費(fèi)力,而且信息孤島嚴(yán)重、知識難以共享,團(tuán)隊(duì)成員總是重復(fù)勞動 ;希望能安排場直播介紹如何通過智能化手段解決
    的頭像 發(fā)表于 11-26 23:49 ?441次閱讀
    直播預(yù)告 大模型 + <b class='flag-5'>知識庫</b>(<b class='flag-5'>RAG</b>):如何使能行業(yè)數(shù)智化?

    浪潮信息發(fā)布“源”Yuan-EB助力RAG檢索精度新高

    智EPAI為構(gòu)建企業(yè)知識庫提供更高效、精準(zhǔn)的知識向量化能力支撐,助力用戶使用領(lǐng)先的RAG技術(shù)加速企業(yè)知識資產(chǎn)的價(jià)值釋放。
    的頭像 發(fā)表于 11-26 13:54 ?259次閱讀
    浪潮信息發(fā)布“源”Yuan-EB助力<b class='flag-5'>RAG</b>檢索精度新高

    從零開始訓(xùn)練大語言模型需要投資多少錢?

    關(guān)于訓(xùn)練技巧和模型評估的文章,但很少有直接告訴你如何估算訓(xùn)練時間和成本的。前面分享了些關(guān)于大模型/本地知識庫的安裝部署方法,無需編寫代碼,即可使用 Ollama+AnythingLLM搭建企業(yè)私有知識庫 ,或者, 三步完成Ll
    的頭像 發(fā)表于 11-08 14:15 ?346次閱讀
    從零開始訓(xùn)練<b class='flag-5'>一</b><b class='flag-5'>個</b>大語言模型需要投資多少錢?

    使用OpenVINO和LlamaIndex構(gòu)建Agentic-RAG系統(tǒng)

    解決大語言模型在知識時效性和專業(yè)性上的不足。但同時傳統(tǒng)的 RAG 系統(tǒng)也有它的缺陷,例如靈活性較差,由于 RAG 會過分依賴于向量數(shù)據(jù)的檢
    的頭像 發(fā)表于 10-12 09:59 ?346次閱讀
    使用OpenVINO和LlamaIndex構(gòu)建Agentic-<b class='flag-5'>RAG</b><b class='flag-5'>系統(tǒng)</b>

    【實(shí)操文檔】在智能硬件的大模型語音交互流程中接入RAG知識庫

    非常明顯的短板。盡管這些模型在理解和生成自然語言方面有極高的性能,但它們在處理專業(yè)領(lǐng)域的問答時,卻往往不能給出明確或者準(zhǔn)確的回答。 這時就需要接有知識庫來滿足產(chǎn)品專有和專業(yè)知識
    發(fā)表于 09-29 17:12

    什么是RAG,RAG學(xué)習(xí)和實(shí)踐經(jīng)驗(yàn)

    高級的RAG能很大程度優(yōu)化原始RAG的問題,在索引、檢索和生成上都有更多精細(xì)的優(yōu)化,主要的優(yōu)化點(diǎn)會集中在索引、向量模型優(yōu)化、檢索后處理等模塊進(jìn)行優(yōu)化
    的頭像 發(fā)表于 04-24 09:17 ?1122次閱讀
    什么是<b class='flag-5'>RAG</b>,<b class='flag-5'>RAG</b>學(xué)習(xí)和實(shí)踐經(jīng)驗(yàn)

    英特爾集成顯卡+ChatGLM3大語言模型的企業(yè)本地AI知識庫部署

    在當(dāng)今的企業(yè)環(huán)境中,信息的快速獲取和處理對于企業(yè)的成功至關(guān)重要。為了滿足這需求,我們可以將RAG技術(shù)與企業(yè)本地知識庫相結(jié)合,以提供實(shí)時的、自動生成的信息處理和決策支持。
    的頭像 發(fā)表于 03-29 11:07 ?883次閱讀
    英特爾集成顯卡+ChatGLM3大語言模型的企業(yè)本地AI<b class='flag-5'>知識庫</b>部署