Tensorflow可以多张显卡共享显存吗?模型太大跑不动

由于模型比较大,调到一个batch都不够,手里一张2080s,但最近矿潮你也懂得,所以打算购入一张tesla k80 有24g显存,能否和2080s共享显存使得代码能跑通呢? 网上说的都是一张显卡一个模型,不是真正意义上的显存共享,是否属实? 还有k80会不会拖累2080s的算力呢?谢谢老铁们

应该是可以共享显存,不过建议使用相同型号的显卡。建议你可以开个云主机之类的先试一下,见 在云端使用TensorFlow — 简单粗暴 TensorFlow 2 0.4 beta 文档

1 Like