因為組裡k8s大佬濃度不夠,最後用了Nomad來做容器編排。開個文章記錄一下踩過的坑:
network allocation配額沒有明確的提示
Nomad的文檔以及各種Grafana dashboard都沒有提到node上的network allocation其實是有上限的,雖然metrics里是有這一項的(nomad_client_allocated_network/nomad_client_unallocated_network)。具體如何計算尚不明確,可能需要看代碼。我們的EC2上有看到500Mb和1000Mb的上限。
如果不指定,默認每個task佔用100Mb的速度(見文檔),這是一個硬上限,如果node完全被allocate的時候,超過這個限制的容器會被限速。個人覺得Nomad的這個設計是坑爹的,網速這類資源相比於CPU和內存是更加體現突發的特性的,如果只能設置硬性上限,利用率顯然會非常低。這個是上個世紀的QoS了吧。
allocation啟動時的template re-render
這是一個bug:https://github.com/hashicorp/nomad/issues/5459。如果用了集成的consul-template來做服務發現,某些情況下可能在allocation啟動過程中觸發re-render,從而nomad client向容器發送信號;但當容器還沒起來的時候,nomad client會拒絕發送信號並且把這個容器幹掉,並且不會嘗試重新啟動。
也不知道是哪個神仙想出來的這種奇葩設計。
system類型的task
如果一個task是system類型, 那它會在所有滿足條件的node上運行。但是它默認的restart參數很容易會因為一些臨時性的錯誤讓整個task掛掉,我們重新設置了restart參數
1 2 3 4 5 6 |
restart { attempts = 60 # attempts no more than interval / delay mode = "delay" delay = "5s" interval = "5m" } |
容器里的單個埠無法映射成多個埠
docker里我們可以把容器里的一個埠映射成任意多個埠;但是nomad無法做到,看起來像是處理job definition時的一個bug(issue鏈接)。
下面的配置,只有8001埠會被映射;http1這個埠在port_map里被http2覆蓋了。
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 |
job "test" { group "test" { task "test" { driver = "docker" config { image = "nginx:latest" port_map = { http1 = 80 http2 = 80 } } resources { network { port "http1" { static = 8000 } port "http2" { static = 8001 } } } } } } |
下面的配置不會報錯,但是仍然只有8001會被映射。
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 |
job "test" { group "test" { task "test" { driver = "docker" config { image = "nginx:latest" port_map = { http1 = 80 } } resources { network { port "http1" { static = 8000 static = 8001 } } } } } } |
解決的辦法是在容器內開多個埠,分別映射到不同的外部埠。
terraform provider無法檢查nomad job的更改
遠古bug: https://github.com/hashicorp/terraform-provider-nomad/issues/1
如果在terraform外部修改了nomad的job定義,在terraform provider里是無法檢測到的。
不是很懂那我有它何用?