我之前用keras 调用 tf 后端训练的时候,经常出现显存分配错误的问题。保险的方法是手动指定显存分配。
import tensorflow as tf
from keras.backend.tensorflow_backend import set_session
config = tf.ConfigProto()
config.gpu_options.allocator_type = 'BFC' #A "Best-fit with coalescing" algorithm, simplified from a version of dlmalloc.
config.gpu_options.per_process_gpu_memory_fraction = 0.3
config.gpu_options.allow_growth = True
set_session(tf.Session(config=config))
原文:https://blog.csdn.net/leo_xu06/article/details/82023330
本站文章如无特殊说明,均为本站原创,如若转载,请注明出处:keras 或 tensorflow 调用GPU报错:Blas GEMM launch failed - Python技术站