DeepLearning用途での、AWSのP2インスタンスについてのまとめ

はじめに

AWS(Amazon Web Service)にP2インスタンスという、GPUが搭載されているインスタンスが利用できるようになったみたいです。
New P2 Instance Type for Amazon EC2 – Up to 16 GPUs
AWS、GPUベースの「P2インスタンス」を提供開始--AIやビッグデータ向け

P2インスタンスの紹介

従来のAWSのGPUインスタンスで単一GPUが搭載されているインスタンスでは、g2.2xlargeがありますが、g2.2xlargeではNVIDIA Tesla K10が搭載されていたと記憶しています。

今回のP2インスタンスの中で、単一GPUが利用可能なものはp2.xlargeです。

比較

小規模にDeepLearningでプロトタイプを作るとなると、これら2つどちらがいいかで迷うかと思います。 そこで、両者のGPUに関する性能及び価格を比較すると、

g2.2xlargep2.xlarge
GPUK10K80
FLOPS(float32)2.29TFLOPS4.365TFLOPS
GPUメモリサイズ4GB12GB
GPUメモリ転送幅160GB240GB
値段/1時間$0.0736$0.141


価格は、2016年10月9日現在のスポットインスタンスでそれぞれの最安値を参照しており、g2.2xlargeはAsia Pacific(Tokyo)のもの、p2.xlargeはUS West(Oregon)のものを参照しています。

また、NVIDIA公式ドキュメントでもTesla K10と比較して、TeslaK80は2.5倍速いと言及されています。

まとめ

 まとめると、g2.2xlargeと比べてp2.xlargeは約1.9倍ほどコストが掛かるが、FLOPSだけみて約1.9倍、GPUメモリサイズは3倍の12GB、GPUメモリ転送幅1.5倍である。 また、NVIDIAのレポートに記載されているベンチマークでは、約2.5倍の性能であるとされる。 

個人的には、大規模データセットを学習させる際やResNetの大規模なモデルを学習させる際等はGPUメモリや、GPUメモリ転送幅が極めて重要になると思いますが、それ以外の用途でもp2.xlargeは割りとコスパの良い選択なのでは無いかと思います。

0 件のコメント :

コメントを投稿