TerraformでElastiCache(Redis)を管理している時にはまった罠
Your Amazon ElastiCache node(s) listed below are scheduled for replacement due to maintenance, which includes mandatory patches to improve security, reliability and operational performance. The maintenance will occur during the time range provided for each node. Please note that this is mandatory maintenance that will begin in your cluster’s maintenance window but may finish outside the window depending on the data and the load on the node(s).
というメールがAWS様から来たの何とかしないといけなくなった。
そして、その時に色々な地雷にはまったのでまとめておく。
replication_group_idを17文字以上にするとノード追加ができなくなる
ノード追加時(number_cache_clustersを増やす)にエラーになった。
error creating Elasticache Cache Cluster (adding replica): InvalidParameterValue: The parameter CacheClusterIdentifier is not a valid identifier because it is longer than 20 characters.
しかし、新規立ち上げの時は怒られないのがタチが悪い…。
幸い、開発用のRedisクラスターだったので作り直す事で解決。
AWSのコンソールからノードを消すとTerraform適用できなくなる
1台追加して、プライマリーにして、既存の2台を消してみた。
差分をとって実は良い感じに動くかな?と思ったが…。
planしてみると
snapshot_retention_limit
が
0 => 3
みたいな謎の差分が出る。
applyすると…。Node Not Found!
refreshとかしても改善しないので詰んだ。
プライマリは何が何でも1番目のノードに割り当てられる
001 -> primary
002 -> replica
001 -> primary
002 -> replica
という状態で2台とも作り直したかったので
- リードレプリカ追加(003)
- 003のノードをプライマリーに昇格
- number_cache_clustersを1にする
という手順を考えていた。
003はプライマリーだから、001/002が殺されるだろうと…。
しかし…。現実はもっと残酷だった…。
- 001がプライマリーに昇格
- 002/003が削除される
という結果に…。
↑こいつがサポートされていればこんな事にはならなかったのに…。
結局どうするか?
- リードレプリカ追加(003)
- 003のノードをプライマリーに昇格
- AWSのメンテを待つ
- 終わったら001をプライマリーに昇格
- 003引退
で行くしかないかなぁと…。これから試すから結果はどうなるか…。
Author And Source
この問題について(TerraformでElastiCache(Redis)を管理している時にはまった罠), 我々は、より多くの情報をここで見つけました https://qiita.com/taka0125/items/4f24a86daafa2bc15ee0著者帰属:元の著者の情報は、元のURLに含まれています。著作権は原作者に属する。
Content is automatically searched and collected through network algorithms . If there is a violation . Please contact us . We will adjust (correct author information ,or delete content ) as soon as possible .