欧美性猛交xxxx免费看_牛牛在线视频国产免费_天堂草原电视剧在线观看免费_国产粉嫩高清在线观看_国产欧美日本亚洲精品一5区

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

NADP加Triton搭建穩(wěn)定高效的推理平臺(tái)

星星科技指導(dǎo)員 ? 來(lái)源:NVIDIA ? 作者:郭城 ? 2022-10-12 09:32 ? 次閱讀

業(yè)務(wù)背景

蔚來(lái)自動(dòng)駕駛研發(fā)平臺(tái)(NADP)是著力服務(wù)于自動(dòng)駕駛核心業(yè)務(wù)方向的研發(fā)平臺(tái)。平臺(tái)化的推理能力作為常規(guī)機(jī)器學(xué)習(xí)平臺(tái)的重要組成部分,也是NADP所重點(diǎn)建設(shè)和支持的能力之一。 NADP所支持的推理業(yè)務(wù),整體上有以下幾個(gè)特性:

10%的業(yè)務(wù)產(chǎn)生90%的流量(優(yōu)化重點(diǎn)業(yè)務(wù)收益大);

追求引擎層的高性能;

要求在算法框架,量化加速維度盡可能強(qiáng)的擴(kuò)展性,為算法業(yè)務(wù)的框架選型,與后續(xù)可能的加速方案都提供盡可能的兼容;

多個(gè)模型有業(yè)務(wù)關(guān)聯(lián),希望能夠滿足多個(gè)模型之間串行/或者并行的調(diào)度。

經(jīng)過(guò)我們從眾多方案的對(duì)比和篩選,NVIDIA Triton 能夠在上述每一個(gè)方面都能滿足我們的需求。比如,Triton 支持多個(gè)模型或模塊進(jìn)行DAG式的編排。 其云原生友好的部署方式,能夠很輕的做到多GPU、多節(jié)點(diǎn)的擴(kuò)展。從生產(chǎn)級(jí)別實(shí)踐的穩(wěn)定性角度來(lái)看,即便是一個(gè)優(yōu)秀的開(kāi)源方案,作為平臺(tái)級(jí)的核心組件,也是需要長(zhǎng)時(shí)間,高強(qiáng)度的驗(yàn)證,才能放心的推廣到最核心業(yè)務(wù)上。經(jīng)過(guò)半年的使用,Triton證明了自己,在保證強(qiáng)大功能的前提下,也提供了很好的穩(wěn)定性。另外,NVIDIA有著優(yōu)秀的生態(tài)建設(shè)與社區(qū)支持 ,提供了優(yōu)質(zhì)的Triton社區(qū)內(nèi)容和文檔共享,保障了NADP的核心推理業(yè)務(wù)遷移到Triton方案上,并平穩(wěn)運(yùn)行至今。

poYBAGNGGS-ARhLyAACjT3LiCaQ366.jpg

引入Triton之后的推理平臺(tái)架構(gòu)

pYYBAGNGGS-ARRlQAACOCvqTxP4782.jpg

Triton 在設(shè)計(jì)之初,就融入了云原生的設(shè)計(jì)思路,為后面逐步圍繞 Triton 搭建完整的云原生平臺(tái)性推理解決方案提供了相當(dāng)大的便利。

作為NADP推理平臺(tái)的核心組件,Triton 與 NADP 的各個(gè)組件形成了一套完整的推理一站式解決方案。接下來(lái),將集中在以下4個(gè)方面具體敘述Triton 如何在NADP推理平臺(tái)中提供助力:

集成效率

高性能

易用性

高可用

一、集成效率

Triton + 模型倉(cāng)庫(kù) + Argo

Triton 與自建模型倉(cāng)庫(kù)深度結(jié)合,配合 workflow 方案 Argo, 完成全自動(dòng)化的生產(chǎn),量化,準(zhǔn)入,云端部署,壓測(cè),上線的CICD流程。

具體來(lái)講:

模型上傳模型倉(cāng)庫(kù)自動(dòng)觸發(fā)配置好的workflow;

創(chuàng)建與部署環(huán)境硬件環(huán)境一致容器,自動(dòng)量化加速;

得益于Triton生態(tài)中提供的perf analyzer, 可以像使用jMeter 一樣方便的按照模型的Input Tensor Shape 自動(dòng)生成請(qǐng)求與指定的負(fù)載。其壓測(cè)出的服務(wù)化之后模型的最大吞吐,很接近真實(shí)部署場(chǎng)景。

Triton + Jupyter

在Triton鏡像中集成了Jupyter 組件之后,提供開(kāi)箱即用的開(kāi)發(fā)調(diào)試環(huán)境,在遇到復(fù)雜問(wèn)題需要進(jìn)行線上debug 或者再線下復(fù)現(xiàn)問(wèn)題時(shí), Jupyter 能夠提供一個(gè)方便的開(kāi)發(fā)環(huán)境供用戶進(jìn)行調(diào)試。

二、高性能

Triton + Istio

當(dāng)前NADP服務(wù)的業(yè)務(wù)場(chǎng)景,服務(wù)流量大,主要傳輸cv場(chǎng)景視頻文件+高分辨率圖片,必須使用高性能rpc協(xié)議進(jìn)行加速,而且推理服務(wù)引擎必須對(duì)現(xiàn)有的L4 Load Balancer 和服務(wù)發(fā)現(xiàn)方案有比較好的支持性。

而Triton 原生支持gRPC的方案進(jìn)行訪問(wèn),并且能夠很方便的部署為k8s容器。但因?yàn)閗8s原生service 不能夠很好的對(duì)gRPC進(jìn)行請(qǐng)求級(jí)別的負(fù)載均衡(僅支持長(zhǎng)連接的負(fù)載均衡),故在引入了isito 之后,Triton就能夠在傳輸協(xié)議上滿足我們的需求。

具體來(lái)講:

集群內(nèi)容器直接訪問(wèn)只需要一次跨物理機(jī)網(wǎng)絡(luò)轉(zhuǎn)發(fā);

完美復(fù)用k8s 的readiness 狀態(tài),通過(guò)和Triton 節(jié)點(diǎn)的liveness/readniess探針進(jìn)行服務(wù)的健康監(jiān)控;

后續(xù)結(jié)合模型倉(cāng)庫(kù)/配置中心提供用戶更友好的服務(wù)發(fā)現(xiàn)方式:基于域名的服務(wù)發(fā)現(xiàn)方案切換為基于模型的服務(wù)發(fā)現(xiàn)方案。

三、易用性

Triton + Apollo配置中心

使用Apollo 配置中心,可以極大程度提供更多的便利性。將基于域名的服務(wù)發(fā)現(xiàn)提升為基于模型名的服務(wù)發(fā)現(xiàn)。用戶將不需要了解模型所部署的具體的域名即可訪問(wèn)模型。結(jié)合模型倉(cāng)庫(kù),用戶可以直接觸發(fā)模型的部署。

具體來(lái)講:

用戶在模型倉(cāng)庫(kù)操作上線之后,將會(huì)將模型的真實(shí)域名寫(xiě)入配置中心;

用戶使用NADP提供的客戶端可以從配置中心獲取到服務(wù)的真實(shí)域名,并直接訪問(wèn)服務(wù);

作為下一步規(guī)劃,當(dāng)前的方案正在逐步遷移到基于開(kāi)源的model mesh方案的版本上。

四、高可用

Triton + k8s CRD

pYYBAGNGGTKAElNkAAAwmzR461o676.jpg

圍繞Triton 我們搭建了服務(wù)我們NIO的推理場(chǎng)景的K8s CRD。它是以下幾個(gè)K8s原生CRD或其他自研CRD的組合。而這每一個(gè)組件都在一定程度上保障了服務(wù)的高可用。

自動(dòng)擴(kuò)縮容規(guī)則(HPA Rule):進(jìn)行基于流量的自動(dòng)擴(kuò)縮容,在服務(wù)流量上升時(shí)自動(dòng)擴(kuò)容;

Istio service: 可靠的side car 機(jī)制,保障gRPC流量的服務(wù)發(fā)現(xiàn)和負(fù)載均衡;

Ingress: 多實(shí)例部署,動(dòng)態(tài)擴(kuò)容的Ingress 節(jié)點(diǎn),保障跨集群流量的訪問(wèn);

k8s deploy: 在一個(gè)推理實(shí)例內(nèi)管理至少3個(gè)Triton Pod,消除了服務(wù)的單點(diǎn)問(wèn)題,并且通過(guò)Triton server加載多個(gè)模型的功能,實(shí)現(xiàn)多模型混布共享GPU算力,而且消除單點(diǎn)的同時(shí)不引入額外的GPU資源浪費(fèi);

Service Monitor: 用于prometheus 指標(biāo)的收集,隨時(shí)監(jiān)控服務(wù)狀態(tài),上報(bào)異常信息;

Service Heartbeat Probe:集成了Triton Perf Analyzer的Pod。 Triton 生態(tài)中的Perf Analyzer 工具能夠根據(jù)部署的模型meta信息生成真實(shí)請(qǐng)求并部署為主動(dòng)請(qǐng)求探針,在沒(méi)有流量的時(shí)候監(jiān)控服務(wù)的健康狀態(tài)并主動(dòng)重啟異常實(shí)例,同時(shí)上報(bào)異常信息。

Triton + Promethus/Grafana

Triton 提供了一套完整的,基于模型維度的模型服務(wù)指標(biāo)。打點(diǎn)幾乎包括了整個(gè)服務(wù)端推理鏈路的每個(gè)關(guān)鍵節(jié)點(diǎn),甚至能夠區(qū)分執(zhí)行推理的排隊(duì)時(shí)間和計(jì)算時(shí)間,使得能夠在不需要進(jìn)入debug 模式的情況下進(jìn)行細(xì)致的線上模型服務(wù)性能診斷和分析。另外,因?yàn)橹笜?biāo)的格式支持了云原生主流的Promethus/Grafana, 用戶能夠非常方便的配置看板和各維度的報(bào)警, 為服務(wù)的高可用提供指標(biāo)支持。

模型的級(jí)別時(shí)延監(jiān)控

poYBAGNGGTOAHYmNAADP6AhkaK0693.jpg

模型的級(jí)別的qps監(jiān)控

pYYBAGNGGTSASIxBAAE7-ay86Ik038.jpg

服務(wù)業(yè)務(wù)場(chǎng)景:數(shù)據(jù)挖掘

目前,NADP數(shù)據(jù)挖掘業(yè)務(wù)下的相關(guān)模型預(yù)測(cè)服務(wù)已經(jīng)全部遷移至Triton Inference Server,為上百個(gè)模型提供了高吞吐預(yù)測(cè)能力。同時(shí)在某些任務(wù)基礎(chǔ)上,通過(guò)自實(shí)現(xiàn)前處理算子、前后處理服務(wù)化、BLS串聯(lián)模型等手段,將一些模型任務(wù)合并起來(lái),極大的提升了處理效率。

服務(wù)端模型前處理

通過(guò)將服務(wù)的前后處理從客戶端移動(dòng)到服務(wù)端,不僅能夠在網(wǎng)絡(luò)傳輸上節(jié)省大量的時(shí)間,而且GPU服務(wù)端(Triton)可以用Nvjpeg進(jìn)行GPU解碼,并在GPU上做resize、transpose等處理。能夠大幅加速前處理,明顯減輕client端CPU計(jì)算壓力。

業(yè)務(wù)流程

poYBAGNGGTWAYXv2AACB6hMcOl8673.jpg

poYBAGNGGTWAen2tAACO5dVYJgo111.jpg

收益

傳壓縮圖片,而非input tensor, 只需要幾百KB就能將一張2K原圖bytes傳輸過(guò)去, 以當(dāng)前onemodel 2k 輸入圖片為例,模型輸入必須為1920*1080*3*8 byte 大小,而且必須走網(wǎng)絡(luò),而在加入服務(wù)端后處理之后,在精度損失允許的范圍內(nèi),可以將原圖改為傳壓縮過(guò)的三通道720P jpg圖片(1280*720*3),在服務(wù)端在resize 成1920*1080*3*8 byte, 節(jié)約大量帶寬;

服務(wù)端前處理完成后將GPU顯存指針直接送入模型預(yù)測(cè),還能省去Host2Device的拷貝;

服務(wù)端可以封裝模型的后處理,使得每次模型升級(jí)的時(shí)候,client端不用感知到服務(wù)后處理的變化,從而不需要修改處理邏輯代碼;

使用nvJpeg,DALI等使用GPU算力的組件來(lái)進(jìn)行前后處理,加速整體的數(shù)據(jù)處理速度。

多模型DAG式編排

一個(gè)統(tǒng)一的前處理模型,一份輸入復(fù)制多份到多個(gè)后端識(shí)別模型,該流程在服務(wù)端單GPU節(jié)點(diǎn)內(nèi)完成,不需要走網(wǎng)絡(luò),在Triton + bls/ ensemble 的支持下,甚至可以節(jié)約H2D, D2H 拷貝;

統(tǒng)一的后處理模型,動(dòng)機(jī)與上述類似。

業(yè)務(wù)流程

pYYBAGNGGTaAfQvLAABP-2BezZo621.jpg

收益

當(dāng)業(yè)務(wù)邏輯強(qiáng)制使用多模型DAG式編排多個(gè)模型之后,每次產(chǎn)生模型的輸入/輸出都可以疊加服務(wù)端前后處理改造的收益,當(dāng)前部署的triton 服務(wù)最多使用BLS串聯(lián)了9個(gè)模型;

對(duì)于2k 分辨率的輸入來(lái)講,每幀圖片的大小為1920 * 1080 * 3 * 8 = 47Mb, 假設(shè)全幀率為60fps, 則每秒輸入數(shù)據(jù)量為1920 * 1080 * 3 * 8 * 60 = 2847 Mb。 如果使用bls 串聯(lián)了9個(gè)模型,則每秒需要產(chǎn)生的數(shù)據(jù)傳輸量為 1920 * 1080 * 3 * 8 * 60 * 9 = 25 Gb = 3GB;

如果使用PCIe傳輸,假設(shè)PCIe帶寬 為160Gb = 20GB每秒, 則理論上每秒產(chǎn)生的數(shù)據(jù)可以節(jié)約150ms在數(shù)據(jù)傳輸上;

如果使用網(wǎng)絡(luò)傳輸,假設(shè)可用帶寬為16Gb=2Gb每秒,則理論上每秒產(chǎn)生的數(shù)據(jù)可以節(jié)約1500ms在數(shù)據(jù)傳輸上。

總結(jié)和展望

NIO 基于 NVIDIA Triton搭建的推理服務(wù)平臺(tái),在數(shù)據(jù)挖掘業(yè)務(wù)場(chǎng)景下,通過(guò)上文詳細(xì)介紹的 “服務(wù)器端模型前處理”和“多模型DAG式編排”,GPU資源平均節(jié)省24%;在部分核心pipeline上,吞吐能力提升為原來(lái)的 5倍,整體時(shí)延降低為原來(lái)的 1/6。

另外,NIO 當(dāng)前已經(jīng)實(shí)現(xiàn)了輸入為原始視頻而非抽幀后圖片的預(yù)研版本工作流上線,但只承載了小部分流量。 而主要流量還是使用jpg壓縮圖片作為輸入的版本。當(dāng)前只是使用本地腳本完成了數(shù)據(jù)加載和模型推理,后續(xù)會(huì)逐步地將當(dāng)前流程遷移到Triton的模型編排能力上。

關(guān)于作者

郭城是NIO自動(dòng)駕駛研發(fā)平臺(tái)(NADP)的高級(jí)工程師,負(fù)責(zé)為NIO自動(dòng)駕駛搭建可靠高效的推理平臺(tái)和深度學(xué)習(xí)模型CICD工具鏈。在加入NIO之前,他在小米技術(shù)委員會(huì)參與了小米集團(tuán)機(jī)器學(xué)習(xí)平臺(tái)的搭建。他個(gè)人對(duì)ML-ops、以及所有其他深度學(xué)習(xí)工程相關(guān)的主題感興趣。

審核編輯:郭婷

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • NVIDIA
    +關(guān)注

    關(guān)注

    14

    文章

    5081

    瀏覽量

    103832
  • gpu
    gpu
    +關(guān)注

    關(guān)注

    28

    文章

    4788

    瀏覽量

    129435
  • 自動(dòng)駕駛
    +關(guān)注

    關(guān)注

    785

    文章

    13946

    瀏覽量

    167114
收藏 人收藏

    評(píng)論

    相關(guān)推薦

    NADP+Triton搭建穩(wěn)定高效推理平臺(tái)

    業(yè)務(wù)背景 蔚來(lái)自動(dòng)駕駛研發(fā)平臺(tái)NADP)是著力服務(wù)于自動(dòng)駕駛核心業(yè)務(wù)方向的研發(fā)平臺(tái)。平臺(tái)化的推理能力作為常規(guī)機(jī)器學(xué)習(xí)
    的頭像 發(fā)表于 10-18 09:24 ?1610次閱讀
    <b class='flag-5'>NADP+Triton</b><b class='flag-5'>搭建</b><b class='flag-5'>穩(wěn)定</b><b class='flag-5'>高效</b>的<b class='flag-5'>推理</b><b class='flag-5'>平臺(tái)</b>

    如何在RK3399這一 Arm64平臺(tái)搭建Tengine AI推理框架呢

    Tengine是什么呢?如何在RK3399這一 Arm64平臺(tái)搭建Tengine AI推理框架呢?
    發(fā)表于 03-04 12:31

    使用MIG和Kubernetes部署Triton推理服務(wù)器

      NVIDIA Triton 推理服務(wù)器是一款開(kāi)源人工智能模型服務(wù)軟件,可簡(jiǎn)化在生產(chǎn)中大規(guī)模部署經(jīng)過(guò)培訓(xùn)的人工智能模型。對(duì)于服務(wù)器管理的任何模型,客戶端可以遠(yuǎn)程向提供的 HTTP 或 gRPC 端點(diǎn)發(fā)送推斷請(qǐng)求。
    的頭像 發(fā)表于 04-07 09:54 ?3449次閱讀

    NVIDIA Triton推理服務(wù)器簡(jiǎn)化人工智能推理

    GKE 的 Triton 推理服務(wù)器應(yīng)用程序是一個(gè) helm chart 部署程序,可自動(dòng)安裝和配置 Triton ,以便在具有 NVIDIA GPU 節(jié)點(diǎn)池的 GKE 集群上使用,包括
    的頭像 發(fā)表于 04-08 16:43 ?2280次閱讀
    NVIDIA <b class='flag-5'>Triton</b><b class='flag-5'>推理</b>服務(wù)器簡(jiǎn)化人工智能<b class='flag-5'>推理</b>

    如何使用Triton進(jìn)行高效推理部署

    一個(gè)完整的醫(yī)療影像推理流程一般包含數(shù)據(jù)的前處理、AI 推理以及數(shù)據(jù)后處理這幾部分。
    的頭像 發(fā)表于 04-10 15:06 ?3106次閱讀

    使用NVIDIA Triton推理服務(wù)器簡(jiǎn)化邊緣AI模型部署

      NVIDIA Triton 有助于在每個(gè)數(shù)據(jù)中心、云和嵌入式設(shè)備中實(shí)現(xiàn)標(biāo)準(zhǔn)化的可擴(kuò)展生產(chǎn) AI 。它支持多個(gè)框架,在 GPU 和 DLA 等多個(gè)計(jì)算引擎上運(yùn)行模型,處理不同類型的推理查詢。通過(guò)與 NVIDIA JetPack 的集成, NVIDIA
    的頭像 發(fā)表于 04-18 15:40 ?2841次閱讀
    使用NVIDIA <b class='flag-5'>Triton</b><b class='flag-5'>推理</b>服務(wù)器簡(jiǎn)化邊緣AI模型部署

    NVIDIA Triton助力騰訊PCG加速在線推理

      借助NVIDIA Triton 推理框架,配合 DALI/FIL/Python 等Backend,以及 TensorRT,整體推理服務(wù)的吞吐能力最大提升 6 倍,延遲最大降低 40%。
    的頭像 發(fā)表于 05-20 15:25 ?2387次閱讀
    NVIDIA <b class='flag-5'>Triton</b>助力騰訊PCG加速在線<b class='flag-5'>推理</b>

    基于NVIDIA Triton的AI模型高效部署實(shí)踐

    NVIDIA Triton 推理服務(wù)器(以前稱為 TensorRT 推理服務(wù)器)是一款開(kāi)源軟件,可簡(jiǎn)化深度學(xué)習(xí)模型在生產(chǎn)環(huán)境中的部署。借助 Triton
    的頭像 發(fā)表于 06-28 15:49 ?1711次閱讀

    騰訊云TI平臺(tái)利用NVIDIA Triton推理服務(wù)器構(gòu)造不同AI應(yīng)用場(chǎng)景需求

    騰訊云 TI 平臺(tái) TI-ONE 利用 NVIDIA Triton 推理服務(wù)器構(gòu)造高性能推理服務(wù)部署平臺(tái),使用戶能夠非常便捷地部署包括 TN
    的頭像 發(fā)表于 09-05 15:33 ?2018次閱讀

    蔚來(lái)基于NVIDIA Triton搭建推理服務(wù)平臺(tái)

    在近日舉行的 GTC 大會(huì)上,蔚來(lái) AI 平臺(tái)負(fù)責(zé)人白宇利帶來(lái)非常有價(jià)值的分享,他首次對(duì)外透露了蔚來(lái)自研的全棧式自動(dòng)駕駛系統(tǒng)(NAD)的部署和開(kāi)發(fā)情況,同時(shí)也將蔚來(lái)自動(dòng)駕駛研發(fā)平臺(tái)NADP)這個(gè)神秘的“Peta Factory
    的頭像 發(fā)表于 10-09 10:18 ?909次閱讀

    使用NVIDIA Triton解決人工智能推斷挑戰(zhàn)

    Triton高效的多模型推理帶來(lái)了一種新的模型編排服務(wù)。該軟件應(yīng)用程序目前處于早期使用階段,有助于以資源高效的方式簡(jiǎn)化 Kubernetes 中
    的頭像 發(fā)表于 10-11 14:24 ?1277次閱讀
    使用NVIDIA <b class='flag-5'>Triton</b>解決人工智能推斷挑戰(zhàn)

    NVIDIA Triton推理服務(wù)器的功能與架構(gòu)簡(jiǎn)介

    前面文章介紹微軟 Teams 會(huì)議系統(tǒng)、微信軟件與騰訊 PCG 服務(wù)三個(gè) Triton 推理服務(wù)器的成功案例,讓大家對(duì) Triton 有初步的認(rèn)知,但別誤以為這個(gè)軟件只適合在大型的服務(wù)類應(yīng)用中使用,事實(shí)上
    的頭像 發(fā)表于 11-02 10:44 ?2661次閱讀

    如何使用NVIDIA Triton 推理服務(wù)器來(lái)運(yùn)行推理管道

    使用集成模型在 NVIDIA Triton 推理服務(wù)器上為 ML 模型管道提供服務(wù)
    的頭像 發(fā)表于 07-05 16:30 ?1480次閱讀
    如何使用NVIDIA <b class='flag-5'>Triton</b> <b class='flag-5'>推理</b>服務(wù)器來(lái)運(yùn)行<b class='flag-5'>推理</b>管道

    使用NVIDIA Triton推理服務(wù)器來(lái)加速AI預(yù)測(cè)

    這家云計(jì)算巨頭的計(jì)算機(jī)視覺(jué)和數(shù)據(jù)科學(xué)服務(wù)使用 NVIDIA Triton 推理服務(wù)器來(lái)加速 AI 預(yù)測(cè)。
    的頭像 發(fā)表于 02-29 14:04 ?639次閱讀

    Triton編譯器在機(jī)器學(xué)習(xí)中的應(yīng)用

    1. Triton編譯器概述 Triton編譯器是NVIDIA Triton推理服務(wù)平臺(tái)的一部分,它負(fù)責(zé)將深度學(xué)習(xí)模型轉(zhuǎn)換為優(yōu)化的格式,以便
    的頭像 發(fā)表于 12-24 18:13 ?535次閱讀