cgroupsを利用したリソースコントロール(RHEL7)
cgroupsを利用したリソースコントロール(RHEL7)
cgroupsとは
cgroups(Control Groups)とは、「プロセスをグループ化して、
リソースの利用をコントロール」するカーネル機能で、
Linux 2.6.24からマージされています。
具体的には、グループ単位でリソースの割り当て、
優先度、管理、モニタリングなどが設定できます。
cgroupsそのものはプロセスを「コントロールグループ」
と呼ばれる単位にまとめるだけで、リソースコントロールを
行うにはコントロールグループに「サブシステム」
と呼ばれる抽象化されたリソース群をつなげる必要があります。
主なサブシステムには、次のようなものがあります。
・cpu CPUへのアクセス
・cpuacct CPUについての自動レポートを生成
・cpuset マルチコアCPUのコア単位およびメモリノードを割り当て
・memory メモリに対する制限設定とメモリリソースについての自動レポートの生成
・blkio ブロックデバイスの入出力アクセス
・devices デバイスへのアクセス
・net_cls ネットワークパケットへのタグ付け
・net_prio ネットワークトラフィックの優先度を動的に設定
・freezer タスクを一時停止または再開
「コントロールグループ」自体は、あくまで名前だけなので
1つの「コントロールグループ」で複数のリソースをコントロールすることも可能です。
cgroupsのインストール
cgroupsのインストール
# yum install libcgroup libcgroup-tools
cgroupsの起動設定
# /usr/bin/systemctl enable cgconfig
# /usr/bin/systemctl enable cgred
コマンドによる設定方法
まずはグループ作成
対象をCPUとメモリとした[CPU75_Mem_Group]というコントロールグループを作成する。
# sudo cgcreate -g cpu,memory:/CPU75_Mem_Group
制限値を設定
作成したコントロールグループにリソースの制限値を設定する。
CPUを使用率75%に制限する場合は、1000000マイクロ秒(1秒)あたり
75000マイクロ秒(0.75秒)間だけ、単一のCPUを使用するよう
に指定したいので以下のようになる。と思いがちですが
「単一のCPU」というのがネックで複数コアを搭載している場合は
制限したい使用率75%×コア数(4コアの場合)
[cpu.cfs_quota_us]を計算すると
[cpu.cfs_quota_us]= 0.75 x 4core x 100000(sをµsに変換) = 300000 となる。
以下のように設定したい。
# cgset -r cpu.cfs_quota_us=300000 CPU75_Mem_Group
# cgset -r cpu.cfs_period_us=1000000 CPU75_Mem_Group
メモリの割り当て制限する場合は、
memory.limit_in_bytes(ユーザーメモリの上限)とmemory.memsw.limit_in_bytes(ユーザーメモリ+スワップの上限)の値を設定する必要がある。
例えばユーザーメモリ(物理メモリ)を100MB、スワップを500MBに制限するとした場合は
# cgset -r memory.limit_in_bytes=100M CPU75_Mem_Group
# cgset -r memory.memsw.limit_in_bytes=500M CPU75_Mem_Group
その他のcgroupsに関連するコマンド
コマンド 機能
・cgcreate コントロールグループの作成
・cgdelete コントロールグループの削除
・cgset サブシステムのパラメーター設定
・cgget コントロールグループのパラメーター表示
・cgclassify コントロールグループのタスク移動
・cgexec コントロールグループ内のプロセス開始
・cgsnapshot 既存サブシステムから設定ファイルを生成
・cgconfigparser 設定ファイルを解析して階層をマウント
・cgclear コントロールグループのアンロード
・lscgroup コントロールグループの確認
・lssubsys サブシステムのマウントポイント表示
設定ファイルによる設定方法
設定ファイルによる設定
cgconfigサービスが参照している[/etc/cgconfig.conf]を編集し設定する方法です。
コマンドと同じ条件で制限する場合は、以下のようにファイルに編集する必要がある。
[/etc/cgconfig.conf]
group CPU75_Mem_Group {
cpu {
cpu.cfs_quota_us = 300000;
cpu.cfs_period_us = 1000000;
}
memory {
memory.limit_in_bytes = 100M
memory.memsw.limit_in_bytes = 500M
}
}
特定ユーザのみ制限をかける方法
cgredサービスが参照している[/etc/cgrules.conf]に下記の設定を行い、
[/etc/cgconfig.conf]で設定したコントロールグループを特定ユーザに関連づける。
[/etc/cgrules.conf]
hoge_user cpu CPU75_Mem_Group
設定を反映するには、サービスの再起動が必要となる。
特定プロセスを制限をかけて起動
cgroup経由でSofteterを起動
[/etc/cgconfig.conf]で設定したコントロールグループ
# cgexec -g cpu:CPU75_Mem_Group <プロセス起動コマンド>
特定ユーザの特定プログラムだけに制限をかける方法
[/etc/cgrules.conf]に下記の設定を行い、[/etc/cgconfig.conf]で設定した
コントロールグループを特定ユーザ、特定プログラムに関連づける。
[/etc/cgrules.conf]
hoge_user:<プログラム名> cpu CPU75_Mem_Group
制限をかけた特定プログラムを他コントロールグループに移す方法
ユーザ単位で制限したときのタスク(プロセス)は、CPU利用率が制限され
実行時点では、コントロールグループの管理下となる。
そのため、psコマンドを実行すると管理下にあるタスク(プロセス)の
PIDが出力される。
例えばpsコマンド実行時、[hoge_user]のPID[3333]だったとしよう
[/sys/fs/cgroup/cpu/CPU75_Mem_Group/tasks]にPIDが格納されているので
[CPU75_Mem_Group]から[CPU25_Mem_Group]へコントロールグループを
移すのは、以下のように実施する。
# sh -c "echo 3333 >> /sys/fs/cgroup/cpu/CPU25_Mem_Group/tasks"
ディスクI/O帯域制限する方法
以下のパラメータを変更するとディスクI/O制限することが可能となる。
・特定のデバイスに対するアクセス速度の上限をByte/Sec単位で指定。
0を指定すると制限を解除。
指定方法は"Major:Minor 設定値"(例"8:0 1048576")
・blkio.throttle.read_bps_device
・blkio.throttle.write_bps_device
・特定のデバイスに対するアクセス速度の上限をIO/Sec単位で指定。
0を指定すると制限を解除。
指定方法は"Major:Minor 設定値"(例"8:0 2048")
・blkio.throttle.read_iops_device
・blkio.throttle.write_iops_device
※Minor番号の指定がありますが、実際にはディスクパーティション単位での
指定はできない場合があるようです。
パーティション/dev/sda1, /dev/sda2・・などを使用している場合は、
/dev/sdaに対して指定すること。
まずは、対象となるブロックデバイスのメジャー番号の確認
以下の場合、[/dev/sda]は[8:0]となる。
# lsblk -p
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
/dev/fd0 2:0 1 4K 0 disk
/dev/sda 8:0 0 40G 0 disk
├/dev/sda1 8:1 0 1G 0 part /boot
└/dev/sda2 8:2 0 39G 0 part
├/dev/mapper/centos-root 253:0 0 37G 0 lvm /
└/dev/mapper/centos-swap 253:1 0 2G 0 lvm [SWAP]
/dev/sr0 11:0 1 1024M 0 rom
書き込みの上限を1MB/Secに指定した場合、[/etc/cgconfig.conf]に
以下のように設定する。
[/etc/cgconfig.conf]
group DiskIO_Group {
blkio {
blkio.throttle.read_bps_device = "8:0 1048576";
blkio.throttle.write_bps_device = "8:0 1048576";
}
}
同様にIOPSの上限を999IOPSに制限する場合は、[/etc/cgconfig.conf]に
以下のように設定する。
[/etc/cgconfig.conf]
group DiskIO_Group {
blkio {
blkio.throttle.read_iops_device = "8:0 999";
blkio.throttle.write_iops_device = "8:0 999";
}
}
CPU、メモリ同様にプロセス毎、ユーザ毎にディスクも制限可能だ。
ネットワーク帯域制限する方法
プロセスごとのネットワーク帯域制限は、[cgroups]の[net_cls]と[tc]もしくは[netfilter]を使うことで実現可能です。
net_cls サブシステムは、Linux トラフィックコントローラー (tc) が
特定の cgroup から発信されるパケットを識別できるようにし、
クラス識別子 (classid) を使用して、ネットワークパケットをタグ付けします。
トラフィックコントローラーは、異なる cgroup からのパケットに
異なる優先順位を割り当てるように設定できます。
送出するネットワークパケットに『帯域クラスラベル』を付与します。帯域クラスは、別途 tc コマンドで設定しておく必要があります。tc コマンドは、送出パケットに対するネットワーク帯域を制御する機能を提供します。
なお、tc コマンドは受信パケットに対する帯域制御はできません。
まずは、ネットワーク制限するグループを作成し
[/etc/cgconfig.conf]
group Network_Group1 {
net_cls {
net_cls.classid = 0x100001;
}
}
group Network_Group2 {
net_cls {
net_cls.classid = 0x100002;
}
}
tcコマンドで制限値を設定し、cgroupのclassidと紐づける
# <Network I/F>を除外
tc qdisc del dev <Network I/F①> root
tc qdisc del dev <Network I/F②> root
# <Network I/F>を追加
tc qdisc add dev <Network I/F①> root handle 1: htb default 1
tc qdisc add dev <Network I/F②> root handle 1: htb default 1
# <Network I/F①>を10MBに制限
tc class add dev <Network I/F①> parent 1: classid 10:1 htb rate 1000Mbit ceil 1000Mbit burst 10MB cburst 10MB
# <Network I/F①>を5MBに制限
tc class add dev <Network I/F②> parent 1: classid 10:2 htb rate 500Mbit ceil 500Mbit burst 5MB cburst 5MB
# tc filterに<Network I/F①>を追加
tc filter add dev <Network I/F①> parent 1: protocol ip prio 1 handle 1 cgroup
tc filter add dev <Network I/F②> parent 1: protocol ip prio 1 handle 1 cgroup
# プロセスに帯域制限を付与して実行
cgexec --sticky -g net_cls:Network_Group1 ./scp_test.sh
ネットワーク帯域制限の設定確認するには
tc qdisc show dev <Network I/F①>
qdisc tbf 1: root refcnt 2 rate 1000Mbit burst 10MB lat 36.9ms
qdisc netem 10: parent 1:1 limit 1000 delay 50.0ms 10.0ms
ネットワーク帯域制限がかかっている状態か確認するには
tc -s qdisc show dev <Network I/F①>
qdisc tbf 1: root refcnt 2 rate 1000Mbit burst 10MB lat 36.9ms
qdisc netem 10: parent 1:1 limit 1000 delay 50.0ms 10.0ms
また、tcコマンドでは、帯域幅だけでなく、以下オプションによりデータキュー、パケットのサイズに制限をかけることも可能です。
limit 500Kb … データキューのサイズを 500KByte に設定。
buffer 100Kb … パケットのサイズを 100KByte に設定。
rate 500Kbps … 帯域幅を 200KBps に設定。
注意点として、[tc]での[b]表記は「ビット」ではなく「バイト」であること。
tcの詳しい説明は以下を参考にするといいだろう。
http://labs.gree.jp/blog/2014/10/11266/
https://qiita.com/hana_shin/items/d9ba818b49aca87b2314
cgroupsの用途
・KVM仮想マシンのIO帯域を制限
・Dockerのコンテナ毎にCPU,メモリ制限
・アンチウィルスソフトウェアへのCPU制限
・業務に影響を与えないためにscp等のファイル転送時に帯域制限
・AWS等のクラウド環境で課金対象を低減させるための、リソース制限等々
参考
Author And Source
この問題について(cgroupsを利用したリソースコントロール(RHEL7)), 我々は、より多くの情報をここで見つけました https://qiita.com/legitwhiz/items/72ead813f5be784534e5著者帰属:元の著者の情報は、元のURLに含まれています。著作権は原作者に属する。
Content is automatically searched and collected through network algorithms . If there is a violation . Please contact us . We will adjust (correct author information ,or delete content ) as soon as possible .