Harbor對接Ceph S3推映象retry的問題

雲原生小白發表於2020-10-12

小白之前用Ceph S3在為Harbor的Registry做後端儲存時,不管是在1.x還是最新的2.1版本都會遇到docker push較大塊映象時不斷重試的情況。
在這裡插入圖片描述

按照以往的經驗,小白只能將Ceph的S3改為相容Swift協議才能成功push映象。

不過最近有了新的解決方案,引起該問題的似乎跟registry服務的配置multipartcopythresholdsize有關

https://github.com/goharbor/harbor/issues/12317

harbor-helm裡面關於multipartcopythresholdsize的預設值是32M,顯然在一個內網映象倉庫,並且docker映象層沒優化的前提下,這個值很容易超過。當前multipartcopythresholdsize最大支援5G,所以修改helm配置後重新部署服務即可解決該問題。

s3:
  region: default
  bucket: <your-bucket>
  accesskey: <your-accesskey>
  secretkey: <your-secretkey>
  regionendpoint: <your-endpoint>
  #encrypt: false
  #keyid: mykeyid
  #secure: true
  #skipverify: false
  #v4auth: true
  #chunksize: "5242880"
  #rootdirectory: /s3/object/name/prefix
  #storageclass: STANDARD
  #multipartcopychunksize: "33554432"
  #multipartcopymaxconcurrency: 100
  multipartcopythresholdsize: "5368709120"  \\改為最大值5G

關於雲原生小白

雲原生小白的創號目的是將平日裡離大家較遠雲原生應用以實用的角度展現出來,站在小白的角度來看待和使用雲原生,並以每篇文章解決一個實際問題的出發點帶領大家走進雲原生。
[外鏈圖片轉存失敗,源站可能有防盜鏈機制,建議將圖片儲存下來直接上傳(img-N7XdpifH-1602517968533)(media/16008718478624/16008786224315.jpg)]

相關文章