欧美性猛交xxxx免费看_牛牛在线视频国产免费_天堂草原电视剧在线观看免费_国产粉嫩高清在线观看_国产欧美日本亚洲精品一5区

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

完成一個簡單的端到端的機器學(xué)習(xí)模型需要幾步?

電子工程師 ? 來源:lp ? 2019-04-04 17:34 ? 次閱讀

【導(dǎo)語】完成一個簡單的端到端的機器學(xué)習(xí)模型需要幾步?在本文中,我們將從一個完整的工作流:下載數(shù)據(jù)→圖像分割與處理→建模→發(fā)布模型,教大家如何對 900 萬張圖像進行分類,分類標(biāo)簽多達 600 個。可是如此龐大的數(shù)據(jù)集又是從何而來呢?上周,AI科技大本營為大家介紹過一篇文章在過去十年間,涵蓋 CV、NLP 和語音等領(lǐng)域,有 68 款大規(guī)模數(shù)據(jù)集,本文所用的數(shù)據(jù)集也在其中,大家也可以以此為借鑒,學(xué)習(xí)如何利用好這些數(shù)據(jù)。

前言

如果您想構(gòu)建一個圖像分類器,哪里可以得到訓(xùn)練數(shù)據(jù)呢?這里給大家推薦 Google Open Images,這個巨大的圖像庫包含超過 3000 萬張圖像和 1500 萬個邊框,高達 18tb 的圖像數(shù)據(jù)!并且,它比同級別的其他圖像庫更加開放,像 ImageNet 就有權(quán)限要求。

但是,對單機開發(fā)人員來說,在這么多的圖像數(shù)據(jù)中篩選過濾并不是一件易事,需要下載和處理多個元數(shù)據(jù)文件,還要回滾自己的存儲空間,也可以申請使用谷歌云服務(wù)。另一方面,實際中并沒有那么多定制的圖像訓(xùn)練集,實話講,創(chuàng)建、共享這么多的訓(xùn)練數(shù)據(jù)是一件頭疼的事情。

在今天的教程中,我們將教大家如何使用這些開源圖像創(chuàng)建一個簡單的端到端機器學(xué)習(xí)模型。

先來看看如何使用開源圖像中自帶的 600 類標(biāo)簽來創(chuàng)建自己的數(shù)據(jù)集。下面以類別為“三明治”的照片為例,展示整個處理過程。

谷歌開源圖像-三明治圖片

一、下載數(shù)據(jù)

首先需要下載相關(guān)數(shù)據(jù),然后才能使用。這是使用谷歌開源圖像(或其他外部數(shù)據(jù)集)的第一步。而下載數(shù)據(jù)集需要編寫相關(guān)腳本,沒有其他簡單的方法,不過不用擔(dān)心,我寫了一個Python腳本,大家可以直接用。思路:首先根據(jù)指定的關(guān)鍵字,在開源數(shù)據(jù)集中搜索元數(shù)據(jù),找到對應(yīng)圖像的原始 url(在 Flickr 上),然后下載到本地,下面是實現(xiàn)的 Python 代碼:

1importsys 2importos 3importpandasaspd 4importrequests 5 6fromtqdmimporttqdm 7importratelim 8fromcheckpointsimportcheckpoints 9checkpoints.enable()101112defdownload(categories):13#Downloadthemetadata14kwargs={'header':None,'names':['LabelID','LabelName']}15orig_url="https://storage.googleapis.com/openimages/2018_04/class-descriptions-boxable.csv"16class_names=pd.read_csv(orig_url,**kwargs)17orig_url="https://storage.googleapis.com/openimages/2018_04/train/train-annotations-bbox.csv"18train_boxed=pd.read_csv(orig_url)19orig_url="https://storage.googleapis.com/openimages/2018_04/train/train-images-boxable-with-rotation.csv"20image_ids=pd.read_csv(orig_url)2122#GetcategoryIDsforthegivencategoriesandsub-selecttrain_boxedwiththem.23label_map=dict(class_names.set_index('LabelName').loc[categories,'LabelID']24.to_frame().reset_index().set_index('LabelID')['LabelName'])25label_values=set(label_map.keys())26relevant_training_images=train_boxed[train_boxed.LabelName.isin(label_values)]2728#Startfrompriorresultsiftheyexistandarespecified,otherwisestartfromscratch.29relevant_flickr_urls=(relevant_training_images.set_index('ImageID')30.join(image_ids.set_index('ImageID'))31.loc[:,'OriginalURL'])32relevant_flickr_img_metadata=(relevant_training_images.set_index('ImageID').loc[relevant_flickr_urls.index]33.pipe(lambdadf:df.assign(LabelValue=df.LabelName.map(lambdav:label_map[v]))))34remaining_todo=len(relevant_flickr_urls)ifcheckpoints.resultsisNoneelse35len(relevant_flickr_urls)-len(checkpoints.results)3637#Downloadtheimages38withtqdm(total=remaining_todo)asprogress_bar:39relevant_image_requests=relevant_flickr_urls.safe_map(lambdaurl:_download_image(url,progress_bar))40progress_bar.close()4142#Writetheimagestofiles,addingthemtothepackageaswegoalong.43ifnotos.path.isdir("temp/"):44os.mkdir("temp/")45for((_,r),(_,url),(_,meta))inzip(relevant_image_requests.iteritems(),relevant_flickr_urls.iteritems(),46relevant_flickr_img_metadata.iterrows()):47image_name=url.split("/")[-1]48image_label=meta['LabelValue']4950_write_image_file(r,image_name)[email protected](5,5)54def_download_image(url,pbar):55"""DownloadasingleimagefromaURL,rate-limitedtooncepersecond"""56r=requests.get(url)57r.raise_for_status()58pbar.update(1)59returnr606162def_write_image_file(r,image_name):63"""Writeanimagetoafile"""64filename=f"temp/{image_name}"65withopen(filename,"wb")asf:66f.write(r.content)676869if__name__=='__main__':70categories=sys.argv[1:]71download(categories)

該腳本可以下載原始圖像的子集,其中包含我們選擇的類別的邊框信息

1$gitclonehttps://github.com/quiltdata/open-images.git2$cdopen-images/3$condaenvcreate-fenvironment.yml4$sourceactivatequilt-open-images-dev5$cdsrc/openimager/6$pythonopenimager.py"Sandwiches""Hamburgers"

圖像類別采用多級分層的方式。例如,類別三明治和漢堡包還都屬于食物類標(biāo)簽。我們可以使用 Vega 將其可視化為徑向樹:

并不是開源圖像中的所有類別都有與之關(guān)聯(lián)的邊框數(shù)據(jù)。但這個腳本可以下載 600 類標(biāo)簽中的任意子集,本文主要通過”漢堡包“和”三明治“兩個類別展開討論。

football,toy,bird,cat,vase,hairdryer,kangaroo,knife,briefcase,pencilcase,tennisball,nail,highheels,sushi,skyscraper,tree,truck,violin,wine,wheel,whale,pizzacutter,bread,helicopter,lemon,dog,elephant,shark,flower,furniture,airplane,spoon,bench,swan,peanut,camera,flute,helmet,pomegranate,crown…

二、圖像分割和處理

我們在本地處理圖像時,可以使用 matplotlib 顯示這些圖片:

1importmatplotlib.pyplotasplt2frommatplotlib.imageimportimread3%matplotlibinline4importos5fig,axarr=plt.subplots(1,5,figsize=(24,4))6fori,imginenumerate(os.listdir('../data/images/')[:5]):7axarr[i].imshow(imread('../data/images/'+img))

可見這些圖像并不容易訓(xùn)練,也存在其他網(wǎng)站的源數(shù)據(jù)集所面臨的所有問題。比如目標(biāo)類中可能存在不同大小、不同方向和遮擋等問題。有一次,我們甚至沒有成功下載到實際的圖像,只是得到一個占位符——我們想要的圖像已經(jīng)被刪除了!

我們下載得到了幾千張這樣的圖片之后就要利用邊界框信息將這些圖像分割成三明治,漢堡。下面給出一組包含邊框的圖像:

帶邊界框

此處省略了這部分代碼,它有點復(fù)雜。下面要做的就是重構(gòu)圖像元數(shù)據(jù),剪裁分割圖像;再提取匹配的圖像。在運行上述代碼之后,本地會生成一個 images_cropped 文件夾,其中包含所有分割后的圖像。

三、建模

完成了下載數(shù)據(jù),圖像分割和處理,就可以訓(xùn)練模型了。接下來,我們對數(shù)據(jù)進行卷積神經(jīng)網(wǎng)絡(luò)(CNN)訓(xùn)練。卷積神經(jīng)網(wǎng)絡(luò)利用圖像中的像素點逐步構(gòu)建出更高層次的特征。然后對圖像的這些不同特征進行得分和加權(quán),最終生成分類結(jié)果。這種分類的方式很好的利用了局部特征。因為任何一個像素與附近像素的特征相似度幾乎都遠遠大于遠處像素的相似度。

CNNs 還具有其他吸引之處,如噪聲容忍度和(一定程度上的)尺度不變性。這進一步提高了算法的分類性能。

接下來就要開始訓(xùn)練一個非常簡單的卷積神經(jīng)網(wǎng)絡(luò),看看它是如何訓(xùn)練出結(jié)果的。這里使用 Keras 來定義和訓(xùn)練模型。

1、首先把圖像放在一個特定的目錄下

1images_cropped/2sandwich/3some_image.jpg4some_other_image.jpg5...6hamburger/7yet_another_image.jpg8...

然后 Keras 調(diào)用這些文件夾,Keras會檢查輸入的文件夾,并確定是二分類問題,并創(chuàng)建“圖像生成器”。如以下代碼:

1fromkeras.preprocessing.imageimportImageDataGenerator 2 3train_datagen=ImageDataGenerator( 4rotation_range=40, 5width_shift_range=0.2, 6height_shift_range=0.2, 7rescale=1/255, 8shear_range=0.2, 9zoom_range=0.2,10horizontal_flip=True,11fill_mode='nearest'12)1314test_datagen=ImageDataGenerator(15rescale=1/25516)1718train_generator=train_datagen.flow_from_directory(19'../data/images_cropped/quilt/open_images/',20target_size=(128,128),21batch_size=16,22class_mode='binary'23)2425validation_generator=test_datagen.flow_from_directory(26'../data/images_cropped/quilt/open_images/',27target_size=(128,128),28batch_size=16,29class_mode='binary'30)

我們不只是返回圖像本身,而是要對圖像進行二次采樣、傾斜和縮放等處理(通過train_datagen.flow_from_directory)。其實,這就是實際應(yīng)用中的數(shù)據(jù)擴充。數(shù)據(jù)擴充為輸入數(shù)據(jù)集經(jīng)過圖像分類后的裁剪或失真提供必要的補償,這有助于我們克服數(shù)據(jù)集小的問題。我們可以在單張圖像上多次訓(xùn)練算法模型,每次用稍微不同的方法預(yù)處理圖像的一小部分。

2、定義了數(shù)據(jù)輸入后,接下來定義模型本身

1fromkeras.modelsimportSequential 2fromkeras.layersimportConv2D,MaxPooling2D 3fromkeras.layersimportActivation,Dropout,Flatten,Dense 4fromkeras.lossesimportbinary_crossentropy 5fromkeras.callbacksimportEarlyStopping 6fromkeras.optimizersimportRMSprop 7 8 9model=Sequential()10model.add(Conv2D(32,kernel_size=(3,3),input_shape=(128,128,3),activation='relu'))11model.add(MaxPooling2D(pool_size=(2,2)))1213model.add(Conv2D(32,(3,3),activation='relu'))14model.add(MaxPooling2D(pool_size=(2,2)))1516model.add(Conv2D(64,(3,3),activation='relu'))17model.add(MaxPooling2D(pool_size=(2,2)))1819model.add(Flatten())#thisconvertsour3Dfeaturemapsto1Dfeaturevectors20model.add(Dense(64,activation='relu'))21model.add(Dropout(0.5))22model.add(Dense(1))23model.add(Activation('sigmoid'))2425model.compile(loss=binary_crossentropy,26optimizer=RMSprop(lr=0.0005),#halfofthedefaultlr27metrics=['accuracy'])

這是一個簡單的卷積神經(jīng)網(wǎng)絡(luò)模型。它只包含三個卷積層:輸出層之前的后處理層,強正則化層和 Relu 激活函數(shù)層。這些層因素共同作用以保證模型不會過擬合。這一點很重要,因為我們的輸入數(shù)據(jù)集很小。

3、最后一步是訓(xùn)練模型

1importpathlib 2 3sample_size=len(list(pathlib.Path('../data/images_cropped/').rglob('./*'))) 4batch_size=16 5 6hist=model.fit_generator( 7train_generator, 8steps_per_epoch=sample_size//batch_size, 9epochs=50,10validation_data=validation_generator,11validation_steps=round(sample_size*0.2)//batch_size,12callbacks=[EarlyStopping(monitor='val_loss',min_delta=0,patience=4)]13)1415model.save("clf.h5")

epoch 步長的選擇是由圖像樣本大小和批處理量決定的。然后對這些數(shù)據(jù)進行 50 次訓(xùn)練。因為回調(diào)函數(shù) EarlyStopping 訓(xùn)練可能會提前暫停。如果在前 4 個 epoch 中沒有看到訓(xùn)練性能的改進,那么它會在 50 epoch 內(nèi)返回一個相對性能最好的模型。之所以選擇這么大的步長,是因為模型驗證損失存在很大的可變性。

這個簡單的訓(xùn)練方案產(chǎn)生的模型的準(zhǔn)確率約為75%。

precisionrecallf1-scoresupport00.900.590.71139910.640.920.751109microavg0.730.730.732508macroavg0.770.750.732508weightedavg0.780.730.732508

有趣的是,我們的模型在分類漢堡包為第 0 類時信心不足,而在分類漢堡包為第 1 類時信心十足。90% 被歸類為漢堡包的圖片實際上是漢堡包,但是只分類得到 59% 的漢堡。

另一方面,只有 64% 的三明治圖片是真正的三明治,但是分類得到的是 92% 的三明治。這與 Francois Chollet 采用相似的模型,應(yīng)用到一個相似大小的經(jīng)典貓狗數(shù)據(jù)集中,所得到的結(jié)果為 80% 的準(zhǔn)確率基本是一致的。這種差異很可能是谷歌 Open Images V4 數(shù)據(jù)集中的遮擋和噪聲水平增加造成的。數(shù)據(jù)集還包括其他插圖和照片,使分類更加困難。如果自己構(gòu)建模型時,也可以先刪除這些。

使用遷移學(xué)習(xí)技術(shù)可以進一步提高算法性能。要了解更多信息,可以查閱 Francois Chollet 的博客文章:Building powerful image classification models using very little data,使用少量數(shù)據(jù)集構(gòu)建圖像分類模型

https://blog.keras.io/building-powerful-image-classification-models-using-very-little-data.html

四、模型發(fā)布

現(xiàn)在我們構(gòu)建好了一個定制的數(shù)據(jù)集和訓(xùn)練模型,非常高興可以與大家分享?;诖艘策M行了一些總結(jié),機器學(xué)習(xí)項目應(yīng)該是模塊化的可復(fù)制的,體現(xiàn)在:

將模型因素分為數(shù)據(jù)、代碼和環(huán)境組件

數(shù)據(jù)版本控制模型定義和訓(xùn)練數(shù)據(jù)

代碼版本控制訓(xùn)練模型的代碼

環(huán)境版本控制用于訓(xùn)練模型的環(huán)境。比如環(huán)境可能是一個Docker文件,也可能在本地使用pip或conda

如果其他人要使用該模型,提供相應(yīng)的{數(shù)據(jù)、代碼、環(huán)境}元組即可

遵循這些原則,就可以通過幾行代碼,訓(xùn)練出需要的模型副本:

gitclonehttps://github.com/quiltdata/open-images.gitcondaenvcreate-fopen-images/environment.ymlsourceactivatequilt-open-images-devpython-c"importt4;t4.Package.install('quilt/open_images',dest='open-images/',registry='s3://quilt-example')"

結(jié)論

在本文中,我們演示了一個端到端的圖像分類的機器學(xué)習(xí)實現(xiàn)方法。從下載/轉(zhuǎn)換數(shù)據(jù)集到訓(xùn)練模型的整個過程。最后以一種模塊化的、可復(fù)制的便于其他人重構(gòu)的方式發(fā)布出來。由于自定義數(shù)據(jù)集很難生成和發(fā)布,隨著時間的積累,形成了這些廣泛使用的示例數(shù)據(jù)集。并不是因為他們好用,而是因為它們很簡單。例如,谷歌最近發(fā)布的機器學(xué)習(xí)速成課程大量使用了加州住房數(shù)據(jù)集。這些數(shù)據(jù)有將近 20 年的歷史了!在此基礎(chǔ)上應(yīng)用新的數(shù)據(jù),使用現(xiàn)實生活的一些有趣的圖片,或許會變得比想象中更容易!

有關(guān)文中使用的數(shù)據(jù)、代碼、環(huán)境等信息,可通過下面的鏈接獲取更多:

https://storage.googleapis.com/openimages/web/index.html

https://github.com/quiltdata/open-images

https://alpha.quiltdata.com/b/quilt-example/tree/quilt/open_images/

https://blog.quiltdata.com/reproduce-a-machine-learning-model-build-in-four-lines-of-code-b4f0a5c5f8c8

原文鏈接:

https://medium.freecodecamp.org/how-to-classify-photos-in-600-classes-using-nine-million-open-images-65847da1a319

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴

原文標(biāo)題:輕松練:如何從900萬張圖片中對600類照片進行分類|技術(shù)頭條

文章出處:【微信號:rgznai100,微信公眾號:rgznai100】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    點到點和通訊

    點到點通信點到點是物理拓撲,是網(wǎng)絡(luò)層的,如光纖,就必須是點到點連接,DDN專線也是,即兩頭各機器中間不能有機器。
    發(fā)表于 01-18 18:06

    部署基于嵌入的機器學(xué)習(xí)模型

    需要處理模型的更新。模型更新的速度甚至可以非常高,因為模型需要定期地根據(jù)最新的數(shù)據(jù)進行再訓(xùn)練。  本文將描述
    發(fā)表于 11-02 15:09

    TD-LTE完成全球首個互操作性試驗

    TD-LTE完成全球首個互操作性試驗 近日,愛立信在瑞典進行了TD-LTE
    發(fā)表于 04-25 13:55 ?652次閱讀

    針對自主駕駛模型簡單對抗實例

    智能機器學(xué)習(xí)系統(tǒng)極易受到干擾的問題引發(fā)了廣泛的擔(dān)憂。這些研究成果及其理論框架無疑為以后的研究提供了有用的信息,并揭示了深度
    的頭像 發(fā)表于 03-19 17:10 ?2900次閱讀

    駕駛模型的發(fā)展歷程

    尋找駕駛模型的最早嘗試,至少可以追溯1989年的ALVINN模型【2】。ALVINN是
    的頭像 發(fā)表于 03-28 15:26 ?4862次閱讀
    <b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b>駕駛<b class='flag-5'>模型</b>的發(fā)展歷程

    如何基于深度神經(jīng)網(wǎng)絡(luò)設(shè)計的自動駕駛模型?

    如何基于深度神經(jīng)網(wǎng)絡(luò)設(shè)計的自動駕駛模型?如何設(shè)計
    的頭像 發(fā)表于 04-29 16:44 ?4984次閱讀
    如何基于深度神經(jīng)網(wǎng)絡(luò)設(shè)計<b class='flag-5'>一</b><b class='flag-5'>個</b><b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b>的自動駕駛<b class='flag-5'>模型</b>?

    的自動駕駛研發(fā)系統(tǒng)介紹

    Nvidia是比較早做控制車輛工作的公司,其方法訓(xùn)練CNN模型完成從單個前向攝像頭的圖像像素
    的頭像 發(fā)表于 07-13 09:30 ?5031次閱讀
    <b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b>的自動駕駛研發(fā)系統(tǒng)介紹

    基于生成式對抗網(wǎng)絡(luò)的圖像去霧模型

    針對現(xiàn)有圖像去霧算法嚴(yán)重依賴中間量準(zhǔn)確估計的問題,提出了種基于 Wasserstein生成對抗網(wǎng)絡(luò)(wGAN)的圖像去霧模型。首先,
    發(fā)表于 04-12 15:03 ?20次下載
    基于生成式對抗網(wǎng)絡(luò)的<b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b>圖像去霧<b class='flag-5'>模型</b>

    構(gòu)建機器學(xué)習(xí)模型需避免的錯誤

    近年來,機器學(xué)習(xí)在學(xué)術(shù)研究領(lǐng)域和實際應(yīng)用領(lǐng)域得到越來越多的關(guān)注。但構(gòu)建機器學(xué)習(xí)模型不是
    發(fā)表于 05-05 16:39 ?1449次閱讀

    種對紅細胞和白細胞圖像分類任務(wù)的主動學(xué)習(xí)工作流程

    細胞成像的分割和分類等技術(shù)是快速發(fā)展的領(lǐng)域研究。就像在其他機器學(xué)習(xí)領(lǐng)域樣,數(shù)據(jù)的標(biāo)注是非常昂貴的,并且對于數(shù)據(jù)標(biāo)注的質(zhì)量要求也非常的高
    的頭像 發(fā)表于 08-13 10:27 ?1331次閱讀

    理想汽車自動駕駛模型實現(xiàn)

    理想汽車在感知、跟蹤、預(yù)測、決策和規(guī)劃等方面都進行了模型化,最終實現(xiàn)了模型。這種模型不僅
    發(fā)表于 04-12 12:17 ?515次閱讀
    理想汽車自動駕駛<b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b><b class='flag-5'>模型</b>實現(xiàn)

    小鵬汽車發(fā)布模型

    小鵬汽車近日宣布,其成功研發(fā)并發(fā)布了“國內(nèi)首個量產(chǎn)上車”的模型,該模型可直接通過傳感器輸入內(nèi)容來控制車輛,標(biāo)志著智能駕駛技術(shù)的新突破
    的頭像 發(fā)表于 05-21 15:09 ?753次閱讀

    實現(xiàn)自動駕駛,唯有?

    ,去年行業(yè)主流方案還是輕高精地圖城區(qū)智駕,今年大家的目標(biāo)都瞄到了(End-to-End, E2E)。
    的頭像 發(fā)表于 08-12 09:14 ?877次閱讀
    實現(xiàn)自動駕駛,唯有<b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b>?

    智己汽車“”智駕方案推出,老司機真的會被取代嗎?

    隨著智能駕駛技術(shù)的發(fā)展,行業(yè)已經(jīng)從早期基于簡單規(guī)則和模塊化邏輯的自動駕駛,逐步邁向依托深度學(xué)習(xí)的高復(fù)雜度智能駕駛解決方案,各車企也緊跟潮流,先后宣布了自己的
    的頭像 發(fā)表于 10-30 09:47 ?371次閱讀
    智己汽車“<b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b>”智駕方案推出,老司機真的會被取代嗎?

    連接視覺語言大模型自動駕駛

    自動駕駛在大規(guī)模駕駛數(shù)據(jù)上訓(xùn)練,展現(xiàn)出很強的決策規(guī)劃能力,但是面對復(fù)雜罕見的駕駛場景,依然存在局限性,這是因為
    的頭像 發(fā)表于 11-07 15:15 ?354次閱讀
    連接視覺語言大<b class='flag-5'>模型</b>與<b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b>自動駕駛