CEPH 13.2.4 Mimic釋出

weixin_33968104發表於2019-01-09

這是Mimic v13.2.x長期穩定版本系列的第四個修正版本。此版本包括v13.2.3頂部的兩個安全修復程式。我們建議所有模仿使用者升級。 如果您已經 升級到v13.2.3,那麼從v13.2.2到v13.2.3的相同限制也適用於此 。

值得注意的變化

  • CVE-2018-16846:rgw:對max-keys / max-uploads / max-parts強制執行邊界(問題#35994

    • 新引數rgw max listing results 控制max-keysBucket列表操作的上限(ListBucket,ListBucketVersions,ListBucketMultipartUploads(max-uploads),ListMultipartUploadParts(max-parts
  • CVE-2018-14662:mon:允許訪問配置儲存的限制上限

v13.2.3中的顯著的變化

  • mons的預設記憶體利用率有所增加
    。Rocksdb現在預設使用512 MB的RAM,這
    對於中小型叢集應該足夠了; 大型叢集
    應該調整它。此外,<cite style="box-sizing: border-box;">mon_osd_cache_size</cite>已經
    從10個OSDMap增加到500個,這將為
    大型叢集轉換為額外的500 MB到1 GB的RAM,而
    對於小型叢集則更少。
  • Ceph v13.2.2包含一個錯誤的反向埠,這可能會導致mds在
    從先前版本升級Ceph叢集時進入“損壞”狀態。
    該錯誤已在v13.2.3中修復。如果您已在執行v13.2.2,則
    升級到v13.2.3不需要特殊操作。
  • 不再需要bluestore_cache_ *選項。它們被
    osd_memory_target 取代,預設為4GB。BlueStore將擴充套件
    和收縮其快取以嘗試保持在此
    限制內。使用者升級時應注意,這是一個
    比之前的1GB bluestore_cache_size 更高的預設值,因此使用
    BlueStore的OSD 預設會使用更多記憶體。
    有關更多詳細資訊,請參閱BlueStore文件
  • 此版本包含升級錯誤http://tracker.ceph.com/issues/36686
    因為在恢復/回填期間升級會導致OSD失敗。
    可以通過在升級後重新啟動所有OSD
    或在所有PG處於“活動+清除”狀態時進行升級來解決此錯誤。如果您已
    成功升級到13.2.2,則此問題不會對您造成影響。展望
    未來,我們正在為此功能開發一個乾淨的升級路徑。

更新日誌

  • CVE-2018-16846:rgw:對max-keys / max-uploads / max-parts強制執行邊界(問題#35994
  • CVE-2018-14662:mon:允許訪問配置儲存的限制上限

相關文章