《Ceph新長支持穩定版本Luminous(12.x.x)有哪些新功能》要點:
本文介紹了Ceph新長支持穩定版本Luminous(12.x.x)有哪些新功能,希望對您有用。如果有疑問,可以聯系我們。
原文來自微信公眾號:云技術實踐
Web管理界面,直接管理裸盤,加密存儲,Ceph新版本的功能激動人心,并且這個版本有很多代碼是中國人貢獻的.
本文翻譯自Ceph官方博客,Ceph新長支持穩定版本Luminous(12.x.x),已經出RC版了,有那些激動人心的功能,讓我們先睹為快.
翻譯的過程是譯者和作者思想溝通的過程,也是一個學習的過程,中間充滿艱辛,也充滿快樂,歡迎大家加入云技術社區翻譯小組,一起交流、學習、提高,加入請聯系群主(群主微信:xiaolikvm),也歡迎大家推薦好的英文技術資料到云技術社區,由社區會組織翻譯,一起共同學習.
翻譯 云技術社區首席金牌翻譯?武楠
校對 云技術社區 肖力
通用功能:
目前,Ceph擁有一個操作簡單,基于Web的內置儀表板,用于監控群集狀態.
(Ceph Dashboard具體可以參閱Ceph官網中文文檔:Ceph luminous 新功能之內置dashboard)
RADOS:
BlueStore:
- ceph-osd的新后端存儲BlueStore已經穩定,是新創建的OSD的默認設置. BlueStore通過直接管理物理HDD或SSD而不使用諸如XFS的中間文件系統,來管理每個OSD存儲的數據,這提供了更大的性能和功能.
- BlueStore支持Ceph存儲的所有的完整的數據和元數據校驗.
- BlueStore內嵌支持使用zlib,snappy或LZ4進行壓縮.(Ceph還支持zstd進行RGW壓縮,但由于性能原因,不為BlueStore推薦使用zstd).
- 擦除編碼池現在完全支持覆蓋,允許它們與RBD和CephFS一起使用.
ceph-mgr:
- ceph-mgr是一個新的后臺進程,這是任何Ceph部署的必須部分.雖然當ceph-mgr停止時,IO可以繼續,但是度量不會刷新,并且某些與度量相關的請求(例如,ceph df)可能會被阻止.我們建議您多部署ceph-mgr的幾個實例來實現可靠性.
- ceph-mgr后臺進程包括一個基于REST的管理API. API仍然處于實驗階段,有一定的限制,但未來將成為Ceph基于API管理的基礎.
- 集群的總體可擴展性有所提高.我們已經成功測試了多達10,000個OSD的集群.
- 目前,每個OSD都具有與其相關聯的設備類(例如,hdd或ssd),允許CRUSH規則將數據簡單地映射到系統中的設備的子集.通常不需要手動編寫CRUSH規則或手動編輯CRUSH.
- 可以優化CRUSH權重,以保持OSD之間數據的近乎完美的分布.
- 還有一個新的upmap異常處理機制,允許單個PG移動以實現完美的分發(這需要客戶端).
- 每個OSD目前可以根據后端設備是HDD還是SSD來調整其默認配置.一般不需要手動調整.
- 原型mclock QoS排隊算法現在是可用的;
- 現在有一種退出機制,可以防止OSD出現對當前不能處理IO對象或PG的請求過載情況.
- OSD更換過程簡化,變得更加強大了.
- 您可以使用ceph功能來查詢所有連接的后臺程序和客戶端的支持功能和版本.
- 通過ceph osdset-require-min-compat-client連接到集群,您可以配置最舊的Ceph客戶端版本,但 Ceph將阻止您啟用會破壞與這些客戶端的兼容性的功能.
- 包括osd_recovery_sleep,osd_snap_trim_sleep和osd_scrub_sleep的幾個睡眠設置,已經被重新實現,并且可以有效地工作.(這些在某些情況下用于解決問題,限制后臺工作.)
RGW:
- 目前,RGW支持最終用戶請求服務,通過ElasticSearch進行RGW元數據搜索,并且還支持自定義元數據字段.查詢語言是一組RESTful API,用戶可以通過其元數據來搜索對象.還添加了允許自定義元數據字段控制的新API.
- RGW支持動態存儲桶索引分片.隨著桶中的對象數量的增加,RGW將自動重新構建桶索引.不需要用戶干預或桶大小容量規劃.
- RGW引入了上傳對象的服務器端加密,用于管理加密密鑰的三個選項有:自動加密(僅推薦用于測試設置),客戶提供的類似于Amazon SSE-C規范的密鑰,以及通過使用外部密鑰管理服務 OpenstackBarbician)類似于Amazon SSE-KMS規范.
- RGW具有初步的類似AWS的存儲桶策略API支持.現在,策略是一種表達一系列新授權概念的方式.未來,這將成為附加身份驗證功能的基礎,例如STS和組策略等.
- RGW通過使用rados命名空間合并了幾個元數據索引池.
RBD:
- RBD目前通過新的–data-pool選項來創建rbd,對擦除編碼池具有完整的,穩定的支持.
- RBD鏡像的rbd-mirror后臺進程是可用的.我們建議您多部署幾個rbd鏡像來實現可靠性.
- 在創建集群期間,不再自動創建默認的“rbd”池.另外,當沒有指定池時,rbd CLI使用的默認池的名稱可以通過新的rbd default pool = <pool name>配置選項來覆蓋.
- 通過新的rbd trash CLI命令初始支持延遲映像刪除.鏡像,即使是由克隆主動使用的鏡像,也可以移動到垃圾桶,并在以后刪除.
- 新的管理池級別的rbd mirror poolpromote和rbd mirror pool demote命令可以批量提升/降級池內所有的鏡像文件.
- 鏡像現在可以通過rbd mirroringreplay delay = <seconds>配置選項支持可配置的復制延遲.
- 當對象映射功能啟用時,可改進丟棄處理功能.
- rbd CLI導入和復制命令現在可以檢測稀疏并保留稀疏區域.
- 快照可以包含創建時間戳.
CephFS:
- 現在,多個活動的MDS后臺程序是穩定的.活動的MDS服務器的數量可以基于活動的CephFS文件系統進行上下調整.
- CephFS目錄分片現在是穩定的,默認情況下在新的文件系統上啟用.要使其在現有的文件系統上啟動,要使用“ceph fs set<fs_name> allow_dirfrags”.大型或非常繁忙的目錄被分割并(可能)自動分布在多個MDS后臺駐留程序中.
- 在不需要自動負載均衡的情況下,目錄子樹可以明確固定到特定的MDS后臺程序.
Miscellaneous:
- Debian Stretch現在正在構建版本包.我們現在構建的發行版包括:
- CentOS 7 (x86_64and aarch64)
- Debian 8 Jessie(x86_64)
- Debian 9 Stretch(x86_64)
- Ubuntu 16.04 Xenial(x86_64 and aarch64)
- Ubuntu 14.04Trusty (x86_64)
- 注意 QA 僅限于 CentOS 和 Ubuntu (xenialand trusty).
CLI 變更:
- ceph -s 或者 ceph status 命令煥然一新.
- ceph {osd,mds,mon}版本總結了運行后臺進程的版本.
- ceph {osd,mds,mon} count-metadata <property>類似地列出通過ceph {osd,mds,mon}元數據命令可見的任何其他守護進程元數據.
- ceph功能總結了連接的客戶端和后臺程序的功能和版本.
- ceph osd require-osd-release <release>替換舊的require_RELEASE_osds標識.
- ceph osd pg-upmap,ceph osdrm-pg-upmap,ceph osd pg-upmap-items,ceph osdrm-pg-upmap-items可以明確地管理upmap項目.
- ceph osdgetcrushmap在stderr上返回一個crush map版本號,如果版本匹配,ceph osdsetcrushmap [version]將只會注入更新的crush map.這允許crush map進行離線更新,然后重新注入到群集中,而不用擔心變化(例如,通過新添加的osds或其他管理員的更改).
- ceph osd的創建已被ceph osd替換為新的.大多數用戶應該使用像ceph-disk這樣面向用戶的工具來隱藏這個.
- ceph osd destroy將標記一個已毀壞的OSD,并刪除其cephx和lockbox秘鑰.但是,OSD ID和CRUSH映射條目將保持原樣,允許使用最少數據重新平衡的替換設備重新使用該ID.
- ceph osd清除將從集群中刪除OSD的所有痕跡,包括其cephx加密密鑰,dm-crypt lockbox秘鑰,OSD ID和crush map條目.
- ceph osd ls-tree<name>將在給定的CRUSH名稱(如主機或機架名稱)下輸出OSD id列表.這對于為整個子樹應用更改信息非常有用.例如,ceph osd down`cephosd ls-tree rack1`.
- ceph osd {add,rm} – {noout,noin,nodown,noup}允許noout,nodown,noin和noup標識應用于特定的OSD.
- ceph log last [n]將輸出集群日志的最后n行.
- ceph mgr dump將轉儲MgrMap,包括當前活動的ceph-mgr后臺程序和任何備用程序.
- ceph osd crushswap-bucket <src> <dest>將交換層次結構中兩個CRUSH桶的內容,同時保留存儲桶的id.這允許替換整個設備子樹(例如,用新成像的BlueStore OSD替換整個主機的FileStore OSD),而不會中斷跨越相鄰設備的數據分布.
- ceph osdset-require-min-compat-client <release>可以配置支持群集的最舊的客戶端版本.其他更改,如CRUSH可調參數,如果違反此設置,將會失敗并顯示錯誤.如果當前連接到集群的客戶端版本比指定版本還老舊,則更改此設置也將失敗.
- ceph config-keydump轉儲配置密鑰條目及其內容.(已有的ceph config-keyls僅轉儲密鑰名稱,而不是值.)
- ceph osd set-{full,nearfull,backfillfull}-ratio將集群范圍的比例設置為各種全閾值(例如:當集群拒絕IO時,當集群警告接近滿時,當OSD延遲PG重新平衡到本身時).
- ceph osdreweightn將在單個命令中指定多個OSD的reweight值.這相當于一系列ceph osd rewight命令.
- ceph crush class {create,rm,ls}管理新的CRUSH設備類功能. ceph crushset-device-class <osd> <class>將為特定設備設置clas.
- ceph mon featurels將列出MonMap中記錄的監視功能.ceph monfeature set將設置一個可選功能(這些功能尚未存在).
轉載請注明本頁網址:
http://www.snjht.com/jiaocheng/2377.html