欧美性猛交xxxx免费看_牛牛在线视频国产免费_天堂草原电视剧在线观看免费_国产粉嫩高清在线观看_国产欧美日本亚洲精品一5区

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

Spark優(yōu)化:小文件合并的步驟

如意 ? 來(lái)源:segmentfault.com ? 作者:華為云開(kāi)發(fā)者社區(qū) ? 2020-08-13 17:53 ? 次閱讀

我們知道,大部分Spark計(jì)算都是在內(nèi)存中完成的,所以Spark的瓶頸一般來(lái)自于集群(standalone, yarn, mesos, k8s)的資源緊張,CPU網(wǎng)絡(luò)帶寬,內(nèi)存。Spark的性能,想要它快,就得充分利用好系統(tǒng)資源,尤其是內(nèi)存和CPU。有時(shí)候我們也需要做一些優(yōu)化調(diào)整來(lái)減少內(nèi)存占用,例如將小文件進(jìn)行合并的操作。

一、問(wèn)題現(xiàn)象

我們有一個(gè)15萬(wàn)條總數(shù)據(jù)量133MB的表,使用SELECT * FROM bi.dwd_tbl_conf_info全表查詢耗時(shí)3min,另外一個(gè)500萬(wàn)條總數(shù)據(jù)量6.3G的表ods_tbl_conf_detail,查詢耗時(shí)23秒。兩張表均為列式存儲(chǔ)的表。

大表查詢快,而小表反而查詢慢了,為什么會(huì)產(chǎn)生如此奇怪的現(xiàn)象呢?

二、問(wèn)題探詢

數(shù)據(jù)量6.3G的表查詢耗時(shí)23秒,反而數(shù)據(jù)量133MB的小表查詢耗時(shí)3min,這非常奇怪。我們收集了對(duì)應(yīng)的建表語(yǔ)句,發(fā)現(xiàn)兩者沒(méi)有太大的差異,大部分為String,兩表的列數(shù)也相差不大。

CREATE TABLE IF NOT EXISTS `bi`。`dwd_tbl_conf_info` ( `corp_id` STRING COMMENT ‘’, `dept_uuid` STRING COMMENT ‘’, `user_id` STRING COMMENT ‘’, `user_name` STRING COMMENT ‘’, `uuid` STRING COMMENT ‘’, `dtime` DATE COMMENT ‘’, `slice_number` INT COMMENT ‘’, `attendee_count` INT COMMENT ‘’, `mr_id` STRING COMMENT ‘’, `mr_pkg_id` STRING COMMENT ‘’, `mr_parties` INT COMMENT ‘’, `is_mr` TINYINT COMMENT ‘R’, `is_live_conf` TINYINT COMMENT ‘’ ) CREATE TABLE IF NOT EXISTS `bi`。`ods_tbl_conf_detail` ( `id` string, `conf_uuid` string, `conf_id` string, `name` string, `number` string, `device_type` string, `j_time` bigint, `l_time` bigint, `media_type` string, `dept_name` string, `UPDATETIME` bigint, `CREATETIME` bigint, `user_id` string, `USERAGENT` string, `corp_id` string, `account` string )

因?yàn)閮蓮埍砭鶠楹芎?jiǎn)單的SELECT查詢操作,無(wú)任何復(fù)雜的聚合join操作,也無(wú)UDF相關(guān)的操作,所以基本確認(rèn)查詢慢的應(yīng)該發(fā)生的讀表的時(shí)候,我們將懷疑的點(diǎn)放到了讀表操作上。通過(guò)查詢兩個(gè)查詢語(yǔ)句的DAG和任務(wù)分布,我們發(fā)現(xiàn)了不一樣的地方。

查詢快的表,查詢時(shí)總共有68個(gè)任務(wù),任務(wù)分配比如均勻,平均7~9s左右,而查詢慢的表,查詢時(shí)總共1160個(gè)任務(wù),平均也是9s左右。如下圖所示:

Spark優(yōu)化:小文件合并的步驟

至此,我們基本發(fā)現(xiàn)了貓膩所在。大表6.3G但文件個(gè)數(shù)小,只有68個(gè),所以很快跑完了。而小表雖然只有133MB,但文件個(gè)數(shù)特別多,導(dǎo)致產(chǎn)生的任務(wù)特別多,而由于單個(gè)任務(wù)本身比較快,大部分時(shí)間花費(fèi)在任務(wù)調(diào)度上,導(dǎo)致任務(wù)耗時(shí)較長(zhǎng)。

那如何才能解決小表查詢慢的問(wèn)題呢?

三、業(yè)務(wù)調(diào)優(yōu)

那現(xiàn)在擺在我們面前就存在現(xiàn)在問(wèn)題:

為什么小表會(huì)產(chǎn)生這么小文件 已經(jīng)產(chǎn)生的這么小文件如何合并

帶著這兩個(gè)問(wèn)題,我們和業(yè)務(wù)的開(kāi)發(fā)人員聊了一個(gè)發(fā)現(xiàn)小表是業(yè)務(wù)開(kāi)發(fā)人員從原始數(shù)據(jù)表中,按照不同的時(shí)間切片查詢并做數(shù)據(jù)清洗后插入到小表中的,而由于時(shí)間切片切的比較小,導(dǎo)致這樣的插入次數(shù)特別多,從而產(chǎn)生了大量的小文件。

那么我們需要解決的問(wèn)題就是2個(gè),如何才能把這些歷史的小文件進(jìn)行合并以及如何才能保證后續(xù)的業(yè)務(wù)流程中不再產(chǎn)生小文件,我們指導(dǎo)業(yè)務(wù)開(kāi)發(fā)人員做了以下優(yōu)化:

使用INSERT OVERWRITE bi.dwd_tbl_conf_info SELECT * FROM bi.dwd_tbl_conf_info合并下歷史的數(shù)據(jù)。由于DLI做了數(shù)據(jù)一致性保護(hù),OVERWRITE期間不影響原有數(shù)據(jù)的讀取和查詢,OVERWRITE之后就會(huì)使用新的合并后的數(shù)據(jù)。合并后全表查詢由原來(lái)的3min縮短到9s內(nèi)完成。 原有表修改為分區(qū)表,插入時(shí)不同時(shí)間放入到不同分區(qū),查詢時(shí)只查詢需要的時(shí)間段內(nèi)的分區(qū)數(shù)據(jù),進(jìn)一步減小讀取數(shù)據(jù)量。

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • cpu
    cpu
    +關(guān)注

    關(guān)注

    68

    文章

    10911

    瀏覽量

    213139
  • 數(shù)據(jù)庫(kù)
    +關(guān)注

    關(guān)注

    7

    文章

    3852

    瀏覽量

    64724
  • SPARK
    +關(guān)注

    關(guān)注

    1

    文章

    105

    瀏覽量

    19989
收藏 人收藏

    評(píng)論

    相關(guān)推薦

    GoTo否認(rèn)與Grab合并傳聞

    印尼網(wǎng)約車巨頭GoTo于當(dāng)?shù)貢r(shí)間2月4日正式提交文件,明確否認(rèn)同競(jìng)爭(zhēng)對(duì)手Grab的合并傳聞。該公司強(qiáng)調(diào),在未來(lái)12個(gè)月內(nèi),除實(shí)施股票回購(gòu)計(jì)劃外,并無(wú)任何重大行動(dòng)計(jì)劃。 此前,市場(chǎng)上有消息稱Grab
    的頭像 發(fā)表于 02-06 10:08 ?318次閱讀

    帶通濾波器的設(shè)計(jì)步驟優(yōu)化方法

    帶通濾波器作為信號(hào)處理領(lǐng)域的重要組件,其設(shè)計(jì)步驟優(yōu)化方法對(duì)于確保濾波器性能滿足特定應(yīng)用需求至關(guān)重要。本文將詳細(xì)闡述帶通濾波器的設(shè)計(jì)步驟,并深入探討優(yōu)化方法,以期為相關(guān)領(lǐng)域的研究者和工
    的頭像 發(fā)表于 02-05 16:48 ?107次閱讀

    hyper-v文件,hyper-v文件查找的正確步驟和操作方法是什么?

    在使用Hyper-V進(jìn)行虛擬化操作時(shí),準(zhǔn)確找到相關(guān)文件至關(guān)重要。無(wú)論是需要對(duì)虛擬機(jī)進(jìn)行備份、遷移,還是對(duì)其配置進(jìn)行修改,都離不開(kāi)對(duì)Hyper-V文件的查找。那么,查找Hyper-V文件的正確
    的頭像 發(fā)表于 01-24 14:40 ?126次閱讀
    hyper-v<b class='flag-5'>文件</b>,hyper-v<b class='flag-5'>文件</b>查找的正確<b class='flag-5'>步驟</b>和操作方法是什么?

    如何優(yōu)化EPS文件以提高加載速度

    用于存儲(chǔ)矢量圖形和位圖圖像的文件格式,它包含了PostScript語(yǔ)言描述的圖形。由于EPS文件可以包含復(fù)雜的圖形和圖像數(shù)據(jù),因此文件大小通常較大。 二、優(yōu)化前的準(zhǔn)備 在開(kāi)始
    的頭像 發(fā)表于 10-30 14:32 ?448次閱讀

    spark為什么比mapreduce快?

    spark為什么比mapreduce快? 首先澄清幾個(gè)誤區(qū): 1:兩者都是基于內(nèi)存計(jì)算的,任何計(jì)算框架都肯定是基于內(nèi)存的,所以網(wǎng)上說(shuō)的spark是基于內(nèi)存計(jì)算所以快,顯然是錯(cuò)誤的 2;DAG計(jì)算模型
    的頭像 發(fā)表于 09-06 09:45 ?328次閱讀

    labview工程文件如何生成exe

    生成可執(zhí)行文件(EXE)是LabVIEW程序開(kāi)發(fā)過(guò)程中的一個(gè)重要步驟,它允許用戶在沒(méi)有安裝LabVIEW的計(jì)算機(jī)上運(yùn)行程序。以下是步驟和注意事項(xiàng): 1. 準(zhǔn)備工作 在開(kāi)始生成EXE文件
    的頭像 發(fā)表于 09-04 17:09 ?2008次閱讀

    ModusToolbox 3.2在c代碼中包含c++代碼的正確步驟是什么?

    文件,但要在 main.c 中 #include 它們時(shí) 會(huì)導(dǎo)致構(gòu)建失敗。 將 main.c 重命名為 main.cpp 會(huì)導(dǎo)致標(biāo)準(zhǔn) XMC 庫(kù)函數(shù)(如 XMC_GPIO_SetMode)中出現(xiàn)許多錯(cuò)誤。 在 c 代碼中包含 c++ 代碼的正確步驟是什么?
    發(fā)表于 07-23 08:21

    spark運(yùn)行的基本流程

    前言: 由于最近對(duì)spark的運(yùn)行流程非常感興趣,所以閱讀了《Spark大數(shù)據(jù)處理:技術(shù)、應(yīng)用與性能優(yōu)化》一書(shū)。通過(guò)這本書(shū)的學(xué)習(xí),了解了spark的核心技術(shù)、實(shí)際應(yīng)用場(chǎng)景以及性能
    的頭像 發(fā)表于 07-02 10:31 ?489次閱讀
    <b class='flag-5'>spark</b>運(yùn)行的基本流程

    Spark基于DPU的Native引擎算子卸載方案

    1.背景介紹 Apache Spark(以下簡(jiǎn)稱Spark)是一個(gè)開(kāi)源的分布式計(jì)算框架,由UC Berkeley AMP Lab開(kāi)發(fā),可用于批處理、交互式查詢(Spark SQL)、實(shí)時(shí)流處理
    的頭像 發(fā)表于 06-28 17:12 ?769次閱讀
    <b class='flag-5'>Spark</b>基于DPU的Native引擎算子卸載方案

    關(guān)于Spark的從0實(shí)現(xiàn)30s內(nèi)實(shí)時(shí)監(jiān)控指標(biāo)計(jì)算

    前言 說(shuō)起Spark,大家就會(huì)自然而然地想到Flink,而且會(huì)不自覺(jué)地將這兩種主流的大數(shù)據(jù)實(shí)時(shí)處理技術(shù)進(jìn)行比較。然后最終得出結(jié)論:Flink實(shí)時(shí)性大于Spark。 的確,F(xiàn)link中的數(shù)據(jù)計(jì)算
    的頭像 發(fā)表于 06-14 15:52 ?519次閱讀

    電路仿真設(shè)計(jì)步驟

    電路仿真設(shè)計(jì)是一個(gè)涉及多個(gè)步驟的過(guò)程,其主要目標(biāo)是通過(guò)計(jì)算機(jī)模擬來(lái)預(yù)測(cè)和優(yōu)化電路的性能。
    的頭像 發(fā)表于 03-29 14:31 ?1553次閱讀

    Spark基于DPU Snappy壓縮算法的異構(gòu)加速方案

    Spark 在某些工作負(fù)載方面表現(xiàn)得更加優(yōu)越。換句話說(shuō),Spark 啟用了內(nèi)存分布數(shù)據(jù)集,除了能夠提供交互式查詢外,它還可以優(yōu)化迭代工作負(fù)載。Spark SQL是
    的頭像 發(fā)表于 03-26 17:06 ?877次閱讀
    <b class='flag-5'>Spark</b>基于DPU Snappy壓縮算法的異構(gòu)加速方案

    RDMA技術(shù)在Apache Spark中的應(yīng)用

    背景介紹 在當(dāng)今數(shù)據(jù)驅(qū)動(dòng)的時(shí)代,Apache?Spark已經(jīng)成為了處理大規(guī)模數(shù)據(jù)集的首選框架。作為一個(gè)開(kāi)源的分布式計(jì)算系統(tǒng),Spark因其高效的大數(shù)據(jù)處理能力而在各行各業(yè)中廣受歡迎。無(wú)論是金融服務(wù)
    的頭像 發(fā)表于 03-25 18:13 ?1611次閱讀
    RDMA技術(shù)在Apache <b class='flag-5'>Spark</b>中的應(yīng)用

    基于DPU和HADOS-RACE加速Spark 3.x

    背景簡(jiǎn)介 Apache Spark(下文簡(jiǎn)稱Spark)是一種開(kāi)源集群計(jì)算引擎,支持批/流計(jì)算、SQL分析、機(jī)器學(xué)習(xí)、圖計(jì)算等計(jì)算范式,以其強(qiáng)大的容錯(cuò)能力、可擴(kuò)展性、函數(shù)式API、多語(yǔ)言支持(SQL
    的頭像 發(fā)表于 03-25 18:12 ?1430次閱讀
    基于DPU和HADOS-RACE加速<b class='flag-5'>Spark</b> 3.x

    音視頻解碼器優(yōu)化技巧:提升播放體驗(yàn)的關(guān)鍵步驟

    隨著數(shù)字多媒體內(nèi)容的爆炸式增長(zhǎng),音視頻解碼器在現(xiàn)代技術(shù)生活中扮演著至關(guān)重要的角色。從流暢的在線視頻流播放到高質(zhì)量的本地文件解碼,解碼器的性能直接影響了我們的觀看體驗(yàn)。那么,如何優(yōu)化音視頻解碼器以提升
    的頭像 發(fā)表于 02-21 14:45 ?961次閱讀