欧美性猛交xxxx免费看_牛牛在线视频国产免费_天堂草原电视剧在线观看免费_国产粉嫩高清在线观看_国产欧美日本亚洲精品一5区

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

源2.0適配FastChat框架,企業(yè)快速本地化部署大模型對話平臺

全球TMT ? 來源:全球TMT ? 作者:全球TMT ? 2024-02-29 09:57 ? 次閱讀

北京2024年2月28日/美通社/ -- 近日,浪潮信息Yuan2.0大模型與FastChat框架完成全面適配,推出"企業(yè)快速本地化部署大模型對話平臺"方案。該方案主要面向金融、法律、教育等領(lǐng)域,且有數(shù)據(jù)隱私保護(hù)需求的本地化部署場景。全面開放的對話模板功能,用戶可基于FastChat平臺,快速對不同參數(shù)規(guī)模的Yuan2.0基礎(chǔ)模型進(jìn)行訓(xùn)練、評估和應(yīng)用,將Yuan2.0系列基礎(chǔ)大模型部署于私有環(huán)境,快速部署企業(yè)級大模型應(yīng)用。值得一提的是,F(xiàn)astChat提供標(biāo)準(zhǔn)API格式(OpenAI標(biāo)準(zhǔn))的服務(wù),因此,原本采用OpenAI API接口所構(gòu)建的系列應(yīng)用,用戶無需修改代碼,僅需更新API服務(wù)的接口地址,即可靈活、絲滑地切換為本地部署的Yuan2.0千億參數(shù)模型。

wKgZomXfNLWAOYk6AAEJDzMrT0I739.jpg


當(dāng)前,各類模型迭代更新飛快。簡單且易用的對話模型框架成為了開發(fā)者解決本地化構(gòu)建對話系統(tǒng)的一大利器。標(biāo)準(zhǔn)一致的工具和環(huán)境,可有效實(shí)現(xiàn)后端模型的平滑遷移,開發(fā)者能夠在不改變原有代碼的情況下,輕松適應(yīng)新的模型和技術(shù)要求?;诂F(xiàn)成的框架和工具,依托繁榮的社區(qū),進(jìn)而有效地解決了技術(shù)門檻高、開發(fā)流程復(fù)雜、知識共享困難、部署維護(hù)成本高以及數(shù)據(jù)安全等一系列難題,不僅可提高開發(fā)效率,也可為開發(fā)者帶來了更多的便利和可能性。

FastChat是加州大學(xué)伯克利分校LM-SYS發(fā)布的創(chuàng)新型開源項(xiàng)目,Github Star數(shù)超31k。旨在為研究和開發(fā)人員提供一個(gè)易于使用、可擴(kuò)展的平臺,用于訓(xùn)練、服務(wù)和評估基于LLM的聊天機(jī)器人,大幅降低開發(fā)人員構(gòu)建問答系統(tǒng)的門檻,實(shí)現(xiàn)知識管理平臺的輕松部署與高效維護(hù)。其核心功能包括提供最先進(jìn)的模型權(quán)重、訓(xùn)練代碼和評估代碼(例如Yuan2.0、Vicuna、FastChat-T5)以及帶有Web UI和兼容OpenAI RESTful API的分布式多模型服務(wù)系統(tǒng)。Yuan2.0系列基礎(chǔ)大模型作為首個(gè)全面開源的千億參數(shù)模型,在編程、推理、邏輯等方面表現(xiàn)優(yōu)異。通過Fastchat平臺,企業(yè)級用戶可一鍵啟動標(biāo)準(zhǔn)API(OpenAI標(biāo)準(zhǔn))服務(wù),滿足企業(yè)需求的定制化應(yīng)用開發(fā),輕松對接口進(jìn)行封裝,高效且安全地開發(fā)智能對話系統(tǒng)。在保證數(shù)據(jù)私密性和安全性的同時(shí),極大地提升了模型本地化部署的效率、應(yīng)用性能及穩(wěn)定性。

基于FastChat使用Yuan2.0大模型,Step by Step實(shí)操教程!

* 如下步驟以Yuan2-2B-Janus-hf模型為例:

Step 1: 安裝FastChat

FastChat官方提供的兩種安裝方式--pip安裝與源碼安裝

pip安裝

官方提供的采用pip安裝命令為pip3,建議大家采用python3.x,避免出現(xiàn)依賴包沖突。

pip3 install "fschat[model_worker,webui]"

源碼安裝

先從github上下載源碼,在FastChat目錄下執(zhí)行如下命令:

git clonehttps://github.com/lm-sys/FastChat.git
cd FastChat
pip3 install --upgrade pip && pip3 install -e ".[model_worker,webui]"

Step 2 : 下載Yuan2.0系列基礎(chǔ)大模型

模型 序列長度 下載鏈接
Yuan2.0-102B-hf 4K https://www.modelscope.cn/models/YuanLLM/Yuan2.0-102B-hf/summary
Yuan2.0-51B-hf 4K https://www.modelscope.cn/models/YuanLLM/Yuan2.0-51B-hf/summary
Yuan2.0-2B-hf 8K https://www.modelscope.cn/models/YuanLLM/Yuan2.0-2B-hf/summary
Yuan2-2B-Janus-hf 8K https://www.modelscope.cn/models/YuanLLM/Yuan2-2B-Janus-hf/summary

Step 3:啟動FastChat推理服務(wù)

采用如下命令啟動FastChat服務(wù):

python3-m fastchat.serve.cli --model-path /mnt/models/Yuan2-2B-Janus-hf

至此,基于Yuan2.0基礎(chǔ)大模型的FastChat推理服務(wù)就已啟動完成了!服務(wù)啟動后會進(jìn)入客戶端頁面??蛻舳私换?shí)例如下:

——————————————————

user: 你好。
assistant: 您好,有什么可以幫助您的嗎?
user: 介紹一下北京。
assistant: 北京是中國的首都,位于華北平原中部。它是一個(gè)歷史悠久、文化燦爛的城市,也是現(xiàn)代化與傳統(tǒng)文化相結(jié)合的代表之一。北京擁有著豐富的歷史遺產(chǎn)和文化景觀,如紫禁城、天安門廣場、頤和園、長城等。此外,北京還有許多現(xiàn)代建筑和創(chuàng)意藝術(shù)作品,如798藝術(shù)區(qū)、木魚巷等。
user: 給我寫一個(gè)快速排序算法。
assistant: 快速排序是一種基于比較的排序算法,其時(shí)間復(fù)雜度為O(nlogn)。具體來說,快速排序通過選取一個(gè)基準(zhǔn)元素,將數(shù)組分為兩部分,使得左邊的元素都小于基準(zhǔn)元素,右邊的元素都大于基準(zhǔn)元素,然后遞歸地對左右兩部分進(jìn)行排序。
以下是一個(gè)簡單的快速排序算法實(shí)現(xiàn):
```python
def quick_sort(arr):
if len(arr) <= 1:
return arr
pivot = arr[len(arr) // 2]
left = [x for x in arr if x < pivot]
middle = [x for x in arr if x == pivot]
right = [x for x in arr if x > pivot]
return quick_sort(left) + middle + quick_sort(right)
```
這個(gè)算法的優(yōu)點(diǎn)是它通常能夠很好地處理小規(guī)模數(shù)據(jù),而且它具有很好的可擴(kuò)展性,可以輕松地處理不同規(guī)模的數(shù)據(jù)。但是,它也有一些缺點(diǎn),例如它需要額外的空間來存儲中間結(jié)果,并且它的最壞時(shí)間復(fù)雜度為O(n^2)。因此,在實(shí)際應(yīng)用中,我們通常使用更高效的排序算法,如歸并排序、插入排序等。
user: 能提供一些測試用例嗎
assistant: 當(dāng)然可以。以下是一些常見的測試用例:
```python
def test_quick_sort():
assert quick_sort([]) == []
assert quick_sort([1]) == [1]
assert quick_sort([3, 2, 1]) == [1, 2, 3]
assert quick_sort([5, 8, 2, 1, 6, 3, 4, 7, 9]) == [1, 2, 3, 4, 5, 6, 7, 8, 9]
assert quick_sort([9, 8, 7, 6, 5, 4, 3, 2, 1]) == [1, 2, 3, 4, 5, 6, 7, 8, 9]
```
這些測試用例包括了各種不同規(guī)模和不同順序的輸入數(shù)據(jù)。
user: 很好,你知道它的時(shí)間復(fù)雜度嗎?
assistant: 是的,我知道它的時(shí)間復(fù)雜度為O(nlogn)。
user:

————————————————

同時(shí),也可選用WebUI,需要先啟動fastchat的controller和worker,在命令行輸入如下命令即可啟動:

python3 -m fastchat.serve.controller
python3 -m fastchat.serve.model_worker --model-path /mnt/models/Yuan2-2B-Janus-hf
python3-mfastchat.serve.gradio_web_server

啟動完成后,默認(rèn)會彈出WebUI頁面,選擇Yuan2.0模板即可與Yuan2.0大模型進(jìn)行對話。以下為使用WebUI與Yuan2.0進(jìn)行交互的示例:

代碼實(shí)現(xiàn)

wKgaomXfNLaAToybAADRl_iTOTA579.jpg


測試用例

wKgZomXfNLaAZ2hrAADTArqP9lI354.jpg


上下文測試

wKgaomXfNLeAJX7EAACc8yBAqqw049.jpg


更多更新,請關(guān)注Github "源"交流專區(qū),
前往GitHub搜索"IEIT-Yuan/Yuan-2.0"


審核編輯 黃宇

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • 大模型
    +關(guān)注

    關(guān)注

    2

    文章

    2567

    瀏覽量

    3189
收藏 人收藏

    評論

    相關(guān)推薦

    意法半導(dǎo)體在中國的本地化戰(zhàn)略

    提前謀劃本地化供應(yīng)鏈,解決中國客戶后顧之憂,提高對汽車用MCU的重視,布局從高端到中低端的全線產(chǎn)品。ST帶著這樣的愿景開始了在中國市場的下一個(gè)40年!
    的頭像 發(fā)表于 01-16 12:32 ?322次閱讀
    意法半導(dǎo)體在中國的<b class='flag-5'>本地化</b>戰(zhàn)略

    企業(yè)AI模型部署攻略

    當(dāng)下,越來越多的企業(yè)開始探索和實(shí)施AI模型,以提升業(yè)務(wù)效率和競爭力。然而,AI模型部署并非易事,需要企業(yè)在多個(gè)層面進(jìn)行細(xì)致的規(guī)劃和準(zhǔn)備。下
    的頭像 發(fā)表于 12-23 10:31 ?183次閱讀

    愛普生科技+本地化引領(lǐng)五大創(chuàng)新

    自八十年代進(jìn)入中國以來,愛普生已在中國市場上深耕近四十年。從打印機(jī)到工業(yè)機(jī)器人,愛普生業(yè)務(wù)遍布多個(gè)領(lǐng)域,始終秉承“科技+本地化”的核心理念,與中國市場同頻共振,不斷深化與本土合作伙伴合作,推出“中國定制”產(chǎn)品及解決方案。
    的頭像 發(fā)表于 12-12 16:31 ?354次閱讀

    大語言模型開發(fā)框架是什么

    大語言模型開發(fā)框架是指用于訓(xùn)練、推理和部署大型語言模型的軟件工具和庫。下面,AI部落小編為您介紹大語言模型開發(fā)
    的頭像 發(fā)表于 12-06 10:28 ?191次閱讀

    Visual Components數(shù)字化工廠仿真軟件本地化服務(wù):億達(dá)四方的優(yōu)勢

    的行業(yè)經(jīng)驗(yàn)和卓越的服務(wù)能力,為用戶提供了全方位的本地化服務(wù),助力企業(yè)在智能制造領(lǐng)域取得成功。本文將深入探討億達(dá)四方在提供本地化服務(wù)方面的幾大優(yōu)勢。 ?1. 多語言支持與定制培訓(xùn) 對于
    的頭像 發(fā)表于 12-03 18:07 ?560次閱讀

    自動AI開發(fā)平臺功能介紹

    自動AI開發(fā)平臺集成了多種算法、工具和框架,旨在幫助開發(fā)者更快速、高效地設(shè)計(jì)、訓(xùn)練、部署和管理AI模型
    的頭像 發(fā)表于 11-14 09:29 ?315次閱讀

    浪潮信息2.0模型與百度PaddleNLP全面適配

    近日,浪潮信息宣布其開源大模型2.0已全面適配百度PaddleNLP。這一舉措標(biāo)志著大模型開發(fā)生態(tài)正加速進(jìn)化,為用戶提供了更加便捷、高效的
    的頭像 發(fā)表于 10-17 18:15 ?578次閱讀

    傳音的本地化實(shí)踐:中國企業(yè)如何將“走出去”變成“融進(jìn)去”

    傳音本地化運(yùn)營的模式逐漸成熟并自成一派,即使面對全球的沖擊,傳音也能游刃有余地開拓新市場、發(fā)力新領(lǐng)域。比如傳音近年來致力于海外新興市場移動生態(tài)的建立與持續(xù)運(yùn)營,搭建了全新的商業(yè)與技術(shù)中臺:企業(yè)
    的頭像 發(fā)表于 09-02 12:30 ?276次閱讀
    傳音的<b class='flag-5'>本地化</b>實(shí)踐:中國<b class='flag-5'>企業(yè)</b>如何將“走出去”變成“融進(jìn)去”

    對話aiXcoder總裁劉德欣:智能軟件開發(fā)2.0時(shí)代,企業(yè)如何落地領(lǐng)域模型

    科技日新月異的今天,以大模型、Agent等為代表的人工智能技術(shù)正引領(lǐng)各行各業(yè)的深刻變革。軟件開發(fā)領(lǐng)域,一場由AI驅(qū)動的產(chǎn)業(yè)智能升級快速演變,進(jìn)入智能軟件開發(fā)
    的頭像 發(fā)表于 08-16 09:40 ?405次閱讀

    llm模型本地部署有用嗎

    ,將這些模型部署本地環(huán)境可能會帶來一些挑戰(zhàn)和優(yōu)勢。 1. LLM模型概述 大型語言模型(LLM)通常是基于深度學(xué)習(xí)的神經(jīng)網(wǎng)絡(luò)
    的頭像 發(fā)表于 07-09 10:14 ?658次閱讀

    涂鴉HEDV本地化部署方案,助你低成本實(shí)現(xiàn)定制化開發(fā)!

    在日新月異的信息科技領(lǐng)域,軟件定制需求不斷增長,尤其在智慧校園、智慧園區(qū)和智慧能源等多元業(yè)務(wù)場景中,許多企業(yè)和組織對本地化部署的需求日益
    的頭像 發(fā)表于 07-06 08:15 ?934次閱讀
    涂鴉HEDV<b class='flag-5'>本地化</b><b class='flag-5'>部署</b>方案,助你低成本實(shí)現(xiàn)定制化開發(fā)!

    Qwen2強(qiáng)勢來襲,AIBOX支持本地化部署

    AIBOX-1684X已適配Qwen2系列模型,并已集成在FireflyChat對話應(yīng)用中,開機(jī)即可體驗(yàn)。模型基礎(chǔ)更新預(yù)訓(xùn)練和指令微調(diào)模型Q
    的頭像 發(fā)表于 06-27 08:02 ?1129次閱讀
    Qwen2強(qiáng)勢來襲,AIBOX支持<b class='flag-5'>本地化</b><b class='flag-5'>部署</b>

    【AIBOX上手指南】快速部署Llama3

    Firefly開源團(tuán)隊(duì)推出了Llama3部署包,提供簡易且完善的部署教程,過程無需聯(lián)網(wǎng),簡單快捷完成本地化部署。點(diǎn)擊觀看Llama3快速
    的頭像 發(fā)表于 06-06 08:02 ?807次閱讀
    【AIBOX上手指南】<b class='flag-5'>快速</b><b class='flag-5'>部署</b>Llama3

    浪潮信息發(fā)布“2.0-M32”開源大模型

    浪潮信息近日推出了革命性的“2.0-M32”開源大模型。該模型2.0系列基礎(chǔ)上,引入了“基
    的頭像 發(fā)表于 05-29 09:08 ?724次閱讀

    浪潮信息&quot;2.0&quot;大模型YuanChat支持英特爾最新商用AI PC

    % 。企業(yè)可以在全新的英特爾商用客戶端AI PC上,使用AI PC大模型效率工具"YuanChat"快速本地化部署和運(yùn)行"
    的頭像 發(fā)表于 03-27 22:52 ?567次閱讀
    浪潮信息&quot;<b class='flag-5'>源</b><b class='flag-5'>2.0</b>&quot;大<b class='flag-5'>模型</b>YuanChat支持英特爾最新商用AI PC