热门标签 | HotTags
当前位置:  开发笔记 > 运维 > 正文

CUDA编程:占用是在不同进程之间实现GPU切片的方式吗?

如何解决《CUDA编程:占用是在不同进程之间实现GPU切片的方式吗?》经验,为你挑选了1个好方法。

有一些方法可以实现GPU共享.我遇到了入住.我是否可以使用它在共享GPU的进程(例如tensorflow)中切片GPU?这里的切片意味着GPU资源始终专用于该过程.使用占用率我将了解GPU和SM的详细信息,并基于此我启动内核,说明为这些GPU资源创建块.
我正在使用安装了cuda 9工具包的NVIDIA公司的GK210GL [特斯拉K80]
请建议.谢谢!



1> talonmies..:

有一些方法可以实现GPU共享.

不,没有.一般来说,没有你想象的GPU共享类型.有用于MPI样式多进程计算的MPS服务器,但这在运行Tensorflow的上下文中是无关紧要的(请参阅此处了解无法使用MPS的原因).

我遇到了入住.我是否可以使用它在共享GPU的进程(例如tensorflow)中切片GPU?

不,你不能.占用率是一种绩效指标.它与在不同进程之间共享GPU资源的能力无关,

请建议

购买第二个GPU.


推荐阅读
author-avatar
金爽20111018
这个家伙很懒,什么也没留下!
PHP1.CN | 中国最专业的PHP中文社区 | DevBox开发工具箱 | json解析格式化 |PHP资讯 | PHP教程 | 数据库技术 | 服务器技术 | 前端开发技术 | PHP框架 | 开发工具 | 在线工具
Copyright © 1998 - 2020 PHP1.CN. All Rights Reserved | 京公网安备 11010802041100号 | 京ICP备19059560号-4 | PHP1.CN 第一PHP社区 版权所有