[深度学习]Ubuntu16.04运行Python程序时会黑屏

时间:2024-04-01 12:53:47

[深度学习]Ubuntu16.04运行Python程序时会黑屏

我在Ubuntu16.04上调用Tensorflow_GPU运行CNN卷积神经网络时候,电脑并没有发生黑屏的情况,但是最近心血来潮,做了一个GAN的入门模型跑,电脑却黑屏了,而且显卡的风扇声音很大。谷歌百度了一圈,也没有找到合适的解决办法,想要请假下各路大神,有什么好的办法吗?
电脑环境配置:
系统:Ubuntu16.04
GPU: Geforce GTX TITAN
NVIDIA_Driver_Version: 390.87
Cuda_Version: 9.0.176.2
Cudnn_Version: 7.0.5

运行CNN

运行CNN后的结果,并没有黑屏,所以我认为环境配置应该是没问题了。[深度学习]Ubuntu16.04运行Python程序时会黑屏

运行GAN

我尝试了下用Teamviewer去远程控制程序运行,发现最后程序会卡在这里,负责运行程序的工作站也黑屏了。可以看到这里是有计算Loss值的,但是貌似只计算了一次,屏幕就开始黑屏,系统也卡死了。

[深度学习]Ubuntu16.04运行Python程序时会黑屏

代码段

调用GPU的程序段:

import os
os.environ["CUDA_VISIBLE_DEVICES"] = "0"
config = tf.ConfigProto()
config.gpu_options.per_process_gpu_memory_fraction = 0.5 # 占用GPU50%的显存
sess = tf.Session(config=config)

卡在这个循环了,按道理说应该打印3次输出的。

for i in range(300):
    z_batch = np.random.normal(0, 1, size=[batch_size, z_dimensions])
    real_image_batch = mnist.train.next_batch(batch_size)[0].reshape([batch_size, 28, 28, 1])
    _, __, dLossReal, dLossFake = sess.run([d_trainer_real, d_trainer_fake, d_loss_real, d_loss_fake],
                                           {x_placeholder: real_image_batch, z_placeholder: z_batch})
    if(i % 100 == 0):
        print("dLossReal:", dLossReal, "dLossFake", dLossFake)