re:Invent 2021 コンピューティング関連の新サービス、アップデートまとめ


re:Invent 2021で発表されたコンピューティング関連のアップデートをまとめました

Amazon EC2

Graviton3

Graviton2 と比較して

  • コンピューティングパフォーマンスが最大 25% 向上
  • 浮動小数点と暗号化のパフォーマンスが最大 2 倍向上
  • 機械学習のパフォーマンスが最大 3 倍向上(bfloat16 データをサポート)

bfloat16は、米Google(グーグル)が独自に定義したディープラーニング向けの浮動小数点フォーマット。同社のディープラーニングアクセラレーター「TPU」で採用されている形式

参考: https://xtech.nikkei.com/atcl/nxt/mag/ne/18/00007/00091/

  • セキュリティを向上させるために設計された新しいポインタ認証機能

Amazon EC2 C7g インスタンス(Preview)

  • Graviton3 プロセッサを搭載
  • DDR5 メモリを搭載(DDR4 メモリよりも 50% 高い帯域幅を提供)
  • 最大 30 Gbps のネットワーク帯域幅と Elastic Fabric Adapter (EFA) のサポート
  • コンピューティング集約型のワークロードに最適

適用範囲
HPC、バッチ処理、Electronic Design Automation (EDA)、メディアエンコーディング、科学モデリング、広告配信、分散型分析、CPU ベースの機械学習推論など

第2世代の AWS Nitro SSD

I3 インスタンスと比較して

  • 最大 60% 低いレイテンシー
  • 最大 75% 低いレイテンシー変動

ユースケース

  • リレーショナルデータベース (MySQL、MariaDB、PostgreSQL など)
  • NoSQL データベース (KeyDB、ScyllaDB、Cassandra など)
  • 検索エンジン
  • ローカルストレージ上のデータセットに対して、非常に高速なアクセスを必要とするデータ分析ワークロード

Amazon EC2 Im4gn インスタンス

  • 第二世代の AWS Nitro SSD が使えるインスタンス
  • 高密度のローカル SSD ストレージと高いコンピューティングパフォーマンスを必要とする MySQL、NoSQL、ファイルシステムなどのアプリケーションを実行
  • Amazon EC2 のストレージを大量に使用するワークロードに最高の価格性能比を提供
  • 高レベルのノード間通信を必要とするアプリケーション向けの Elastic Fabric Adapter (EFA) をサポート
  • 最大 64 個の vCPU、30 TB の SSD ストレージ、256 GB のメモリ、100 Gbps のネットワーク帯域幅、38 Gbps の Amazon EBS 帯域幅を提供
  • I3インスタンスと比較し、ストレージ TB あたりのコストパフォーマンスが最大 40% 向上
  • I3インスタンスと比較し、コストが最大 44% 低減
  • 利用可能リージョン:米国西部 (オレゴン)、米国東部 (オハイオ)、米国東部 (バージニア北部)、および欧州 (アイルランド)

Amazon EC2 Is4genインスタンス

  • 第二世代の AWS Nitro SSD が使えるインスタンス
  • ストリーム処理とモニタリング、リアルタイムデータベース、ログ分析など、大量のローカル SSD データへの高ランダム I/O アクセスを必要とするアプリケーション向け
  • SSD ストレージ TB あたりのコストを最小限に抑えながら、vCPU あたりの密度を最大にします。
  • 最大 32 個の vCPU、30 TB の SSD ストレージ、192 GB のメモリ、50 Gbps のネットワーク帯域幅、19 Gbps の Amazon EBS 帯域幅を提供
  • I3en インスタンスと比較し、ストレージ TB あたりのコストが 15% 低減
  • I3en インスタンスと比較し、コンピューティングパフォーマンスが最大 48% 向上
  • 利用可能リージョン:米国西部 (オレゴン)、米国東部 (オハイオ)、米国東部 (バージニア北部)、および欧州 (アイルランド)

Amazon Ec2 I4i インスタンス(Preview)

  • 第二世代の AWS Nitro SSD が使えるインスタンス
  • 最大 128 個の vCPU、最大 30 TiB の SSDストレージ、最大 1 TiB のメモリ、75 Gbps のネットワーク帯域幅
  • i3インスタンスと比較し、最大55%のコストパフォーマンス向上
  • i3インスタンスと比較し、I/Oレイテンシを最大60%低減

その他の新インスタンスタイプ

Amazon EC2 M6a インスタンス

  • 第 3 世代 AMD EPYC プロセッサを搭載
  • 最大 3.6 GHz の周波数で動作
  • M5a インスタンスと比較し、vCPU あたりの料金パフォーマンスが最大 35% 向上
  • ネットワーク速度は最大 50 Gbps、Amazon EBS の帯域幅は最大 40 Gbps で、M5a インスタンスの 2 倍以上
  • 常時オンのメモリ暗号化と、暗号化および復号アルゴリズムを高速化する新しい AVX2 命令のサポート
  • 利用可能リージョン:米国東部 (バージニア北部)、米国西部 (オレゴン)、および欧州 (アイルランド)

Amazon EC2 G5g インスタンス

  • 最大 8 つの NVIDIA A10G Tensor Core GPU と第 2 世代 AMD EPYC プロセッサを搭載
  • 最大 192 個の vCPU、最大 100 Gbps のネットワーク帯域幅、最大 7.6 TB のローカル NVMe SSD ストレージ
  • G4dn インスタンスと比較し、グラフィックスを集約型アプリケーションや機械学習の推論において最大 3 倍のパフォーマンスを実現
  • シンプルな機械学習モデルから中程度の複雑な機械学習モデルのトレーニングでは最大 3.3 倍のパフォーマンスを発揮
  • 利用可能リージョン:米国東部 (バージニア北部)、米国西部 (オレゴン)、アジアパシフィック (東京)、アジアパシフィック (ソウル)、アジアパシフィック (シンガポール)

Amazon EC2 Trn1 インスタンス (Preview)

  • 自然言語処理、オブジェクト検出、画像認識、レコメンデーションエンジン、インテリジェント検索向け
  • クラウドで深層学習モデルをトレーニングするための優れたコストパフォーマンスを提供
  • 最大 16 個の Trainium アクセラレーター
  • 最大 800 Gbps の EFA ネットワークスループット (GPU ベースのインスタンスで利用可能なネットワーク帯域幅の 2 倍)、および Amazon EC2 で最速の機械学習トレーニングを実現するためにインスタンス内の超高速接続をサポート
  • EC2 UltraClusters にデプロイされ、ペタビットスケールのノンブロッキングネットワークを備えた数万個の Trainium アクセラレーターにスケーリング可能
  • 前世代の EC2 UltraCluster の 2.5 倍 のクラスターサイズ

Amazon EC2 M1 Mac インスタンス (Preview)

  • M1チップのMACインスタンス
  • x86 ベースの EC2 Mac インスタンスと比較して最大 60% 高い料金パフォーマンス
  • 8 つの CPU コア、8 つの GPU コア、16 GiB のメモリ、16 コアの Apple Neural Engine を搭載した M1 SoC を利用する Mac mini
  • 最大 10 Gbps の VPC ネットワーク帯域幅と 8 Gbps の EBS ストレージ帯域幅を提供

AWS OutPosts

AWS OutPosts Servers

  • 1U及び2Uサーバータイプの OutPosts が利用可能になりました
  • 1U サーバー 幅 19 インチ、奥行き 24 インチ
  • 2U サーバー 幅 19 インチ、奥行き 30 インチ
  • 使用可能な全体的な処理とストレージの範囲内にある限り、インスタンスサイズの任意の組み合わせを起動可能
  • Amazon Elastic Container Service(Amazon ECS)クラスターを作成でき(Amazon Elastic Kubernetes Service(EKS)は間もなく登場
  • パブリックインターネットまたはプライベートAWS DirectConnect回線を介してクラウドに接続

価格

参考 EC2インスタンスタイプ

EC2 インスタンスタイプの選択に迷ったらここを見ましょう!