发新帖

一个GPU上如何加载两个模型

[复制链接]
112 2

快来加入 TensorFlowers 大家庭!

您需要 登录 才可以下载或查看,没有帐号?加入社区

x
我想在一个GPU上加载两个模型,分别做两个inference任务,这两个任务在应用程序中会顺序执行。我的应用程序独占两块GPU太奢侈了,所以希望用一块搞定。听说tensorflow加载一个模型会独占整个显存,请问是这样吗?有什么办法能实现我的请求呢?多谢!!
libertatis已获得悬赏 10 金币

最佳答案

这里说的有呀: https://tensorflow.google.cn/programmers_guide/using_gpu 默认,tensorflow会占用所有GPU资源的。不过可以指定占用哪个gpu,占用多少比例显存。 import os import tensorflow as tf # 指定在哪 ...
本楼点评(0) 收起

精彩评论4

libertatis  TF荚荚  发表于 2018-4-16 19:35:04 | 显示全部楼层
这里说的有呀:
https://tensorflow.google.cn/programmers_guide/using_gpu

默认,tensorflow会占用所有GPU资源的。不过可以指定占用哪个gpu,占用多少比例显存。

import os       
import tensorflow as tf
# 指定在哪个GPU运行,如'gpu:1'
os.environ["CUDA_VISIBLE_DEVICES"] = "1"
config = tf.ConfigProto()
# 设置占用多少显存,比如50%
config.gpu_options.per_process_gpu_memory_fraction = 0.5
sess = tf.Session(config=config)
本楼点评(1) 收起
M丶Sulayman  TF豆豆  发表于 2018-4-28 12:15:55 | 显示全部楼层
=,=问题解决了,麻烦设置成已解决,方便大家阅读,谢谢
本楼点评(1) 收起
您需要登录后才可以回帖 登录 | 加入社区

本版积分规则

快速回复 返回顶部 返回列表