作者 | ***(壯懷) 阿里云智能事業(yè)群高級(jí)技術(shù)專(zhuān)家
導(dǎo)讀:新的企業(yè)負(fù)載/智能工作負(fù)載容器化、遷云、存儲(chǔ)方面遇到的性能、彈性、高可用、加密、隔離、可觀測(cè)性以及生命周期等方面的問(wèn)題,不但需要存儲(chǔ)產(chǎn)品層次的改進(jìn),更需要在云原生的控制/數(shù)據(jù)平面的改進(jìn),推進(jìn)云原生存儲(chǔ)和云存儲(chǔ)的演進(jìn)。本文將介紹一下問(wèn)題場(chǎng)景,探討可行的解決方案,最終得出云原生存儲(chǔ)以及云存儲(chǔ)目前可以做什么和未來(lái)還需要做什么。
引言
最近有幸參加了由 Infra Meetup 聯(lián)合 Kubernetes & Cloud Native Meetup 共同組織的面向云原生持久化應(yīng)用的 Meetup,結(jié)合最近對(duì)云存儲(chǔ)、開(kāi)源存儲(chǔ)、云原生存儲(chǔ)的思考,對(duì)云原生存儲(chǔ)到底是什么,需要做些什么,云原生存儲(chǔ)未來(lái)挑戰(zhàn)是什么,做了更多的反思和梳理,一家之言,分享了幾個(gè)初步觀點(diǎn)。
隨著云原生應(yīng)用對(duì)可遷移性、擴(kuò)展性和動(dòng)態(tài)特性的需求,相應(yīng)的,對(duì)云原生存儲(chǔ)也帶來(lái)了密度、速度、混合度的要求,所以對(duì)云存儲(chǔ)基本能力又提出了在效率、彈性、自治、穩(wěn)定、應(yīng)用低耦合、GuestOS 優(yōu)化、安全等方面的訴求。
云原生現(xiàn)狀
容器和云原生計(jì)算被企業(yè)快速接納
Forrester 預(yù)測(cè):到 2022 年, 全球組織/公司在生成環(huán)境運(yùn)行容器化應(yīng)用,從今天不足 30% 的比例將大幅度提升到超過(guò) 75%,企業(yè)應(yīng)用容器化的趨勢(shì)勢(shì)不可擋。
另一方面,根據(jù) IDC 對(duì)未來(lái)企業(yè)級(jí)存儲(chǔ)市場(chǎng)的增長(zhǎng)趨勢(shì)預(yù)測(cè):云存儲(chǔ)的需求相比于 2015 年,到 2020 將會(huì)有 3 倍以上的增長(zhǎng),企業(yè)存儲(chǔ)市場(chǎng)中,數(shù)據(jù)管理類(lèi)企業(yè)核心數(shù)據(jù)消耗的存儲(chǔ)所占的比例將從 15% 提升到 23%,結(jié)構(gòu)化數(shù)據(jù)和 DBMS 數(shù)據(jù)在企業(yè)存儲(chǔ)市場(chǎng)中將進(jìn)一步加強(qiáng)。
對(duì)云原生來(lái)說(shuō),核心企業(yè)應(yīng)用/智能應(yīng)用,使用云原生存儲(chǔ)來(lái)部署生產(chǎn)可用的有狀態(tài)應(yīng)用,呈現(xiàn)加速上升趨勢(shì)。海外存儲(chǔ)巨頭 EMC、NetApp 擁抱云原生,積極布局 REX-Ray flexrex、Trident 等云原生存儲(chǔ)編排方案。
Kubernetes 逐漸成為云原生時(shí)代的基礎(chǔ)設(shè)施
過(guò)去的一年(2018-2019)中,Kubernetes 逐漸成為云原生時(shí)代的基礎(chǔ)設(shè)施,越來(lái)越多的互聯(lián)網(wǎng)、數(shù)據(jù)庫(kù)、消息隊(duì)列等有狀態(tài)企業(yè)核心應(yīng)用,逐步遷移到云原生平臺(tái) Kubernetes,對(duì)不同的云上塊存儲(chǔ)的性能在時(shí)延和吞吐,以及穩(wěn)定性提出了不同的要求,比如:
毫秒級(jí) NvME SSD 級(jí)別的穩(wěn)定時(shí)延,來(lái)滿(mǎn)足高性能 KVstore 和數(shù)據(jù)庫(kù)需求;
隨著應(yīng)用單機(jī)部署密度的提升,對(duì)塊存儲(chǔ)單機(jī)密度的挑戰(zhàn);
本地塊存儲(chǔ)共享,對(duì)塊存儲(chǔ)的彈性和隔離性也提出了更高需求。
在云原生環(huán)境下,如何以聲明方式來(lái)滿(mǎn)足不同的業(yè)務(wù)場(chǎng)景,成為了云原生存儲(chǔ)在實(shí)現(xiàn)控制面和數(shù)據(jù)面上的挑戰(zhàn)。
在智能應(yīng)用 AI 場(chǎng)景下,高性能計(jì)算、流式計(jì)算也嘗試通過(guò) Kubernetes 云原生平臺(tái)來(lái)部署,使用云存儲(chǔ)方式來(lái)完成訓(xùn)練、計(jì)算、推理等方面的工作,這對(duì)云存儲(chǔ)在 Kubernetes 環(huán)境的選擇及使用方面提出了挑戰(zhàn)。比如,有證據(jù)表明 Spark 生態(tài)正在逐步從 Hadoop YARN 向 Kubernetes 原生的調(diào)度器以及擴(kuò)展調(diào)度器 e.g. Gang Scheuler 遷移。
在云計(jì)算環(huán)境中:由于成本和存儲(chǔ)計(jì)算分離的模型,HDFS 仍然會(huì)以存儲(chǔ)協(xié)議的方式存在,但存儲(chǔ)方式會(huì)逐步從 HDFS 的 3 副本向?qū)ο蟠鎯?chǔ)(OSS,S3)遷移;GPU 多機(jī)多卡 MPI 計(jì)算、Flink 流式計(jì)算的 Kubernetes 化已經(jīng)逐步成為主流,存儲(chǔ)訪問(wèn)方式也多以對(duì)象存儲(chǔ)方式呈現(xiàn)。
但是在使用對(duì)象存儲(chǔ)過(guò)程中,大數(shù)據(jù)/AI 應(yīng)用的計(jì)算效率仍面臨著嚴(yán)峻的挑戰(zhàn):
減少同一節(jié)點(diǎn)對(duì)同一 Block 的反復(fù)拉起產(chǎn)生的網(wǎng)絡(luò) IO;
減少數(shù)據(jù)的 Shuffle 產(chǎn)生的寫(xiě) IO;
實(shí)現(xiàn)計(jì)算對(duì)數(shù)據(jù)感知,計(jì)算向數(shù)據(jù)遷移的就近計(jì)算。
目前的 Kubernetes 調(diào)度器以及云存儲(chǔ)特性并未給出好的解決方案,所以這也給云原生存儲(chǔ)在加速大數(shù)據(jù)計(jì)算、彌補(bǔ) IO 吞吐不足方面提供了發(fā)揮的舞臺(tái)。
大數(shù)據(jù)離線計(jì)算比如基因計(jì)算,已經(jīng)通過(guò) Kubernetes 云原生平臺(tái)來(lái)大規(guī)模的運(yùn)行計(jì)算任務(wù):對(duì)文件存儲(chǔ)峰值吞吐 10GBps - 30GBps 的峰值剛性?xún)陡?,需要?dú)立的高吞吐的文件存儲(chǔ)形態(tài)和交付方式在云原生環(huán)境下的演進(jìn)和變革。
容器服務(wù)成為云原生時(shí)代基礎(chǔ)設(shè)施
隨著企業(yè)應(yīng)用上云越來(lái)越多地選擇使用容器化方式,容器服務(wù)在不同的云廠商中都有大幅度的業(yè)務(wù)增長(zhǎng),容器服務(wù)已經(jīng)逐步成為云原生時(shí)代新的基礎(chǔ)設(shè)施和最佳使用云資源的入口。云原生存儲(chǔ)對(duì)云計(jì)算/云存儲(chǔ)來(lái)說(shuō)也有了新的內(nèi)涵,有必要重新思考云存儲(chǔ)和云原生存儲(chǔ)的本質(zhì)區(qū)別和聯(lián)系。
云原生存儲(chǔ)和云存儲(chǔ)的思考
Cloud Native Storage vs Cloud Storage:
對(duì)立還是統(tǒng)一?
兩者之間的聯(lián)系?
差異和側(cè)重點(diǎn)?
1. 云原生存儲(chǔ) = 云存儲(chǔ) UI,面向應(yīng)用的申明式應(yīng)用層存儲(chǔ) + 效率等能力組合
云原生存儲(chǔ)聲明的六要素:
容量 Size;
性能 IOPS,、吞吐、時(shí)延;
可訪問(wèn)性,共享/獨(dú)享;
IO 可觀測(cè)性;
QoS;
多租戶(hù)隔離。
2. 分層存儲(chǔ),重用基礎(chǔ)設(shè)施紅利,不重新發(fā)明輪子,針對(duì)新的負(fù)載類(lèi)型部分存儲(chǔ)形態(tài)上移
3. 在控制平面實(shí)現(xiàn)效率、自治方面能力,最大化存儲(chǔ)穩(wěn)定和安全
市場(chǎng)上的云原生存儲(chǔ)
為了更好的理解在云環(huán)境中如何構(gòu)建云原生存儲(chǔ),先看幾個(gè)在 Kubernetes 企業(yè)環(huán)境中部署主流的云原生存儲(chǔ),以及對(duì)比云存儲(chǔ)的形態(tài):
Ceph on Kubernetes with Rook
Portworx
OpenEBS
Ceph on Kubernetes with Rook
Ceph 是圣克魯茲加利福尼亞大學(xué)的 Sage Weil 在 2003 年開(kāi)發(fā)的,也是他博士學(xué)位項(xiàng)目中的一部分。Ceph LTS 成熟穩(wěn)定、高可用、生態(tài)強(qiáng)大,在云原生時(shí)代和 Kubernets 緊密集成。Ceph 基于 RADOS(Reliable Autonomic Distributed Object Store )的高可用存儲(chǔ),在云原生時(shí)代之前 2003 年發(fā)行起,已經(jīng)廣泛生產(chǎn)部署的高可用存儲(chǔ),支持最廣泛的塊存儲(chǔ) RBD、文件 POSIX Cephfs,以及對(duì)象存儲(chǔ)訪問(wèn)協(xié)議。
RedHat/SUSE 目前是 Ceph 最主要的商業(yè)化支持者,在多個(gè)容器平臺(tái)落地案例中,RBD、CephFS 都被采用作為容器平臺(tái)實(shí)施的主要存儲(chǔ),用來(lái)彌補(bǔ)基礎(chǔ)云存儲(chǔ)的缺失。
Rook 目前是在 Kubernetes 產(chǎn)品級(jí)可用的部署和運(yùn)維 Ceph 編排工具。
Ceph 的基本架構(gòu)由數(shù)據(jù)面 OSDs(RADOS) 和控制面 MON/RBD/RADOSGW/CEPHFS 組成,以 CRUSH Algorithm 作為核心算法處理數(shù)據(jù)冗余和高可用, 上層的應(yīng)用存儲(chǔ)通過(guò) librados 同數(shù)據(jù)面 OSDs 直接完成數(shù)據(jù)的讀寫(xiě),能夠支持快照、備份、監(jiān)控可觀測(cè)性等能力,可以通過(guò) Rook 直接通過(guò) Kubernetes 輸出,RedHat/SUSE 也提供獨(dú)立的集群安裝能力。
Ceph 的一些基本架構(gòu)特征和能力:
控制面:MON/RBD/RADOSGW/CEPHFS;
數(shù)據(jù)面:OSDs(RADOS);
快照、備份、支持 IO 監(jiān)控等存儲(chǔ)性能監(jiān)控,支持 RBD QoS 的服務(wù)端限速能力。
Portworx
Portworx 以容器服務(wù)的方式部署,每個(gè)節(jié)點(diǎn)稱(chēng)為 PX,向下對(duì)接各種公有云的塊存儲(chǔ)或者裸金屬服務(wù)器,向上提供塊或文件服務(wù)。
不綁定硬件形態(tài)和廠商,可接入任何一家公有云或者自建服務(wù)器集群(只需支持 iSCSI 或 FC 協(xié)議),目前 Portworx 主打能力云災(zāi)備 DR、多云復(fù)制,具備完備的快照(ROW)、多云管理、同步復(fù)制(RTO,秒級(jí))異步復(fù)制(RPO<=15min),可以通過(guò) Kubernetes CRD 申明方式,優(yōu)雅實(shí)現(xiàn)持久化云下應(yīng)用帶數(shù)據(jù)自動(dòng)遷移云上能力。PX 可以獨(dú)立部署,并不強(qiáng)依賴(lài) Kubernetes 的容器網(wǎng)絡(luò)。
Portworx 的一些基本功能/性能特征:
彈性擴(kuò)展, PX 自動(dòng)識(shí)別服務(wù)器節(jié)點(diǎn)的能力,可動(dòng)態(tài)調(diào)度 IO
控制面
支持主流容器編排工具:Kubernetes、Mesos、Swarm 等
支持 IO 級(jí)別的性能監(jiān)控
IO面
數(shù)據(jù)塊和元數(shù)據(jù)打散到不同的節(jié)點(diǎn)
使用了緩存和高性能RPC
QOS隔離:不支持
根據(jù)底層存儲(chǔ)的特性IOPS(4k) 768 - 65024
時(shí)延(4k): 0.58ms - 23ms
增值特性
加密(三方秘鑰托管,傳輸加密,落盤(pán)加密),支持云廠商KMS集成和Vault
快照(ROW),多云管理,同步復(fù)制(RTO,秒級(jí)),異步復(fù)制(RPO<=15min)
可擴(kuò)展性 >1000個(gè)節(jié)點(diǎn),>10000個(gè)Volume
支持拓?fù)涓兄?jì)算
OpenEBS
OpenEBS 基于 Kubernetes 構(gòu)建的開(kāi)源版 EBS,軟件定義 PV:將各種介質(zhì),包括本地磁盤(pán)、云等各種存儲(chǔ)統(tǒng)一池化和管理。使用 iSCSI 作為存儲(chǔ)協(xié)議。沒(méi)有綁定某一個(gè)廠商的存儲(chǔ),可以靈活的接入各種存儲(chǔ)的一個(gè)原因。從某種意義上也是更加靈活,輕量。但是強(qiáng)依賴(lài)容器網(wǎng)絡(luò),增加了抽象層 OpenEBS layer, 寫(xiě)入操作要通過(guò)抽象層,并且每個(gè)卷 PV 都有獨(dú)立的 controller,增加了額外的開(kāi)銷(xiāo),雖然可以做到更靈活,但相比于 Portworx、Ceph 來(lái)說(shuō),其在性能上有比較大的劣勢(shì)。
OpenEBS 的一些基本功能/性能特征:
控制面:擴(kuò)展容器編排系統(tǒng),支持超融合。相比塊而言,卷的數(shù)量多且卷的大小任意配置,更加靈活;
高可用:每個(gè)卷可以有多副本,數(shù)據(jù)實(shí)時(shí)同步,數(shù)據(jù)同步是在不同的存儲(chǔ)池間進(jìn)行同步;
快照、備份、監(jiān)控存儲(chǔ)性能功能;
和 Cloud-Native Tools 有很好的集成:可以使用云原生工具(如 Prometheus,Grafana,F(xiàn)luentd,Weavescope,Jaeger 等)來(lái)配置,監(jiān)控和管理存儲(chǔ)資源。
理解云存儲(chǔ)
盤(pán)古 vs RADOS
對(duì)比以上三種開(kāi)源/企業(yè)存儲(chǔ),為了更容易的理解云存儲(chǔ)架構(gòu),我們把盤(pán)古的分層架構(gòu)和 Ceph 存儲(chǔ)的分層做一個(gè)對(duì)比。
可以把 CS(Chunk Server)類(lèi)比 Ceph OSDs 服務(wù)進(jìn)程,把盤(pán)古的 Master 進(jìn)程類(lèi)比于 Ceph MDSs 進(jìn)程。
把云產(chǎn)品塊存儲(chǔ)類(lèi)比于 Ceph RBD, 文件存儲(chǔ)類(lèi)別于 CephFS, 對(duì)象存儲(chǔ)類(lèi)比于 RADOSGW,本地塊存儲(chǔ)/高性能文件存儲(chǔ) CPFS 產(chǎn)品暫沒(méi)有對(duì)應(yīng)。
隨著盤(pán)古架構(gòu)的演進(jìn),和盤(pán)古 2.0 的全面推廣、用戶(hù)態(tài) TCP 網(wǎng)絡(luò)協(xié)議棧的推廣、全面的 RDMA 存儲(chǔ)網(wǎng)絡(luò)、全面優(yōu)化的 RPC 性能,上層產(chǎn)品存儲(chǔ)也享受到了底層存儲(chǔ)變革的巨大紅利,進(jìn)入了亞毫秒級(jí)別時(shí)延,和百萬(wàn) IOPS 的時(shí)代,云原生存儲(chǔ)也必然是要在產(chǎn)品存儲(chǔ)層次之上,能夠繼承這些能力。
云原生存儲(chǔ)在公有云和專(zhuān)(私)有云中的差異
通過(guò)分析了市場(chǎng)上云原生存儲(chǔ),我們可以發(fā)現(xiàn)這些存儲(chǔ)都有共同的特征就是支持聲明化的 API,可以實(shí)現(xiàn)對(duì)性能、容量、功能等方面的度量和聲明,或多或少對(duì)質(zhì)量/穩(wěn)定/安全都有不同支持。
進(jìn)一步來(lái)說(shuō),云原生負(fù)載可以直接通過(guò)數(shù)據(jù)平面無(wú)損耗的使用產(chǎn)品存儲(chǔ)在容量、性能、可訪問(wèn)性的能力,在控制平面繼續(xù)提升面向用戶(hù)應(yīng)用的 IO 可觀測(cè)性、應(yīng)用級(jí)的 QoS、多租戶(hù)的隔離能力,通過(guò)控制平面接口實(shí)現(xiàn) CSI/Flexvolume 等可聲明的存儲(chǔ)接口,并提供對(duì)部分存儲(chǔ)生命周期的 Operator,容器編排把業(yè)務(wù)應(yīng)用和存儲(chǔ)粘合成為實(shí)際的負(fù)載聲明,可能是更加正確使用云存儲(chǔ)的姿勢(shì)。
由于公有云的基礎(chǔ)設(shè)施產(chǎn)品存儲(chǔ)的完備,可以使用更加輕量化的數(shù)據(jù)平面(virtio, nfs-utils, cpfs-sdk, oss-sdk)來(lái)訪問(wèn)產(chǎn)品存儲(chǔ)。
專(zhuān)有云環(huán)境差異較大,部分虛擬化或者無(wú)虛擬化環(huán)境,SAN 和裸盤(pán)是主要存儲(chǔ)方式,需要通過(guò)類(lèi)似構(gòu)建 ceph RADOS 或者盤(pán)古實(shí)現(xiàn) SDS,然后通過(guò)數(shù)據(jù)平面(librados/px/pv-controller)實(shí)現(xiàn)存儲(chǔ)的訪問(wèn)。
針對(duì) vSphere,OpenStack,飛天所構(gòu)建的專(zhuān)有云,有接近于公有云的存儲(chǔ)提供方式,但因?yàn)椴渴鹉K的差異,也存在不同的控制/數(shù)據(jù)平面支持能力的差異。
簡(jiǎn)單來(lái)說(shuō)就是:
公有云 ?Cloud Native Storage = Declarative API + Cloud Storage
專(zhuān)有云? Cloud Native Storage = Declarative API + Native Storage
公有云中的云原生存儲(chǔ)
存儲(chǔ)分層,重用基礎(chǔ)設(shè)施紅利,不重新發(fā)明輪子。
云原生存儲(chǔ)
提升數(shù)據(jù)平面的一致性(kernel/OS/net/client/sdk 優(yōu)化參數(shù)和版本控制);
構(gòu)建統(tǒng)一的控制平面 CSI/Flexvolume/Operator, 提供面向客戶(hù)聲明 API;
在調(diào)度編排層面實(shí)現(xiàn)拓?fù)涓兄?,?shí)現(xiàn)云盤(pán)的 zone awareness, 本地盤(pán)的 node awareness。
塊存儲(chǔ)
在控制平面通過(guò)與 Aliyun Linux 2 OS 結(jié)合使用 Kernel Cgroup blkio 實(shí)現(xiàn)進(jìn)程級(jí)別的 buffer IO 控制,提升了在應(yīng)用層對(duì)本地盤(pán)、云盤(pán)的 QoS 控制的粒度。通過(guò)對(duì)本地盤(pán)的 LVM 切分可以實(shí)現(xiàn)對(duì)單機(jī)云盤(pán)的密度提升。通過(guò)對(duì)掛載點(diǎn)/設(shè)備 IO 指標(biāo)測(cè)采集能力,實(shí)現(xiàn) IO 的可觀測(cè)性。
云原生存儲(chǔ)- 塊存儲(chǔ)的主要特征指標(biāo):
容量: 單盤(pán) 32TB
時(shí)延:0.2ms – 10ms
IOPS: 5K – 1M
吞吐: 300Mbps - 4Gbps (本地 NvME ESSD: 2GBps)
可訪問(wèn)性: 單可用區(qū)獨(dú)占
QoS:?jiǎn)伪P(pán)隔離,進(jìn)程隔離
多租戶(hù): 單盤(pán)隔離
詳情見(jiàn):云盤(pán)性能
文件存儲(chǔ)
在控制平面可以通過(guò)對(duì) Pod Security Policy 和 SecuritContext 的控制,實(shí)現(xiàn)應(yīng)用的強(qiáng)制 UID/GID 控制,實(shí)現(xiàn)應(yīng)用對(duì)文件系統(tǒng)的 ACL 控制。控制平面實(shí)現(xiàn)對(duì)文件系統(tǒng)生命周期的控制,通過(guò)對(duì)掛載點(diǎn) IO 指標(biāo)測(cè)采集能力,實(shí)現(xiàn) IO 的可觀測(cè)性。
云原生存儲(chǔ)- 文件存儲(chǔ)的主要特征指標(biāo):
容量:?jiǎn)挝募到y(tǒng) 10PB
時(shí)延:100 微妙 – 10ms
IOPS: 15K – 50K
吞吐: 150Mbps - 20GBps
可訪問(wèn)性: 多集群多可用區(qū)共享
QoS:IO 爭(zhēng)搶
多租戶(hù): PSP ACL (namespace)
CPFS 并行文件系統(tǒng)
在控制平面實(shí)現(xiàn)對(duì)文件系統(tǒng) ACL 控制,對(duì) QoS 提供客戶(hù)端限速的可配置性,文件系統(tǒng)提供生命周期的聲明式管理能力 Operator,再進(jìn)一步,在云原生環(huán)境內(nèi)實(shí)現(xiàn) CPFS 文件系統(tǒng)的聲明式部署。
云原生存儲(chǔ)- 高性能文件存儲(chǔ)的主要特征指標(biāo):
容量:?jiǎn)挝募到y(tǒng) 100PB
時(shí)延:0.5ms – 10ms
IOPS: 50K – 1M
吞吐: 10Gbps - 1000GBps
可訪問(wèn)性: 多集群多可用區(qū)共享
QoS:支持客戶(hù)端限速
多租戶(hù): PSP ACL (namespace)
總結(jié):云原生存儲(chǔ) v1 – 功能性
今天的云原生存儲(chǔ)已經(jīng)實(shí)現(xiàn)了在控制平面/控制平面接口對(duì)阿里云產(chǎn)品存儲(chǔ)的全品類(lèi)支持,在數(shù)據(jù)平面也完成了大部分系統(tǒng)級(jí)和客戶(hù)端層的優(yōu)化。但隨著大量的持久化企業(yè)應(yīng)用和智能化應(yīng)用的容器化遷移,我們依然面臨著更多的問(wèn)題和挑戰(zhàn)。
在整個(gè)云原生存儲(chǔ) v1 的開(kāi)發(fā)過(guò)程中,感謝阿里云存儲(chǔ)團(tuán)隊(duì),在文件存儲(chǔ)、塊存儲(chǔ)和對(duì)象存儲(chǔ)的通力合作和幫助,共同打造的云原生時(shí)代的存儲(chǔ)。
隨著云原生應(yīng)用對(duì)可遷移性,擴(kuò)展性和動(dòng)態(tài)特性的需求,對(duì)云原生存儲(chǔ)也帶來(lái)了相應(yīng)的密度,速度,混合度的要求,所以對(duì)云存儲(chǔ)基本能力之上又提出了在效率,彈性,自治,穩(wěn)定,應(yīng)用低耦合,GuestOS優(yōu)化,安全等方面的訴求。新的企業(yè)負(fù)載/智能工作負(fù)載容器化,遷云,存儲(chǔ)方面遇到的性能,彈性,高可用,加密,隔離,可觀測(cè)性,生命周期等方面的問(wèn)題,不但是需要存儲(chǔ)產(chǎn)品層次的改進(jìn),更需要在云原生的控制/數(shù)據(jù)平面的改進(jìn),推進(jìn)云原生存儲(chǔ)和云存儲(chǔ)的演進(jìn),這是對(duì)云原生存儲(chǔ)v2的展望和規(guī)劃,我們會(huì)在后續(xù)文章進(jìn)一步揭示這些新的場(chǎng)景,需求,方案以及發(fā)展方向。
原文鏈接
本文為云棲社區(qū)原創(chuàng)內(nèi)容,未經(jīng)允許不得轉(zhuǎn)載。
評(píng)論