TensorFlowでGPUが利用可能か確認する
利用可能なGPUを確認する方法は2つあります。
1. 認識されているGPUが存在するか確認する
tensorflowで利用できるGPUが存在する場合にはTrueが返ってくる関数です。
import tensorflow as tf
tf.test.is_gpu_available()
True
2. 認識されているリソースの一覧を表示
認識されているCPUとGPUの一覧を表示する関数です。
from tensorflow.python.client import device_lib
device_lib.list_local_devices()
この例では、CPUとGPUが1つずつ認識されています。
実用的なGPU利用のコード例
紹介した2つのGPU確認方法を利用して、実用的なコードを作成しました。
tensorflowでGPUを利用する場合はこのようにすると便利になると思います。
import tensorflow as tf
from tensorflow.python.client import device_lib
if tf.test.is_gpu_available():
gpus = tf.config.experimental.list_physical_devices('GPU')
for gpu in gpus:
tf.config.experimental.set_memory_growth(gpu, True)
print("GPUの読み込みが完了しました")
else:
print("GPUが存在していません")
device_lib.list_local_devices()
まとめ
GPUの確認方法は2種類あります。
存在するかどうかの確認には、tf.test.is_gpu_available()を使います。
認識されているリソースの確認にはdevice_lib.list_local_devices()を使うことができます。
参考文献
tf.test.is_gpu_available | TensorFlow v2.16.1
Returns whether TensorFlow can access a GPU. (deprecated)
https://www.dan-myblog.com/post/52/
コメント