如何解决使用 python、tensorflow 和 GPU 的非连续子阵列的效率
我自己研究了一些关于 CUDA C 和编码内核以在 GPU 上运行的知识。从我学到的几件事中,我记得数据的内存布局对于最大程度地利用缓存的不同层是多么重要。从加载的 256 位数据中使用的数组中的单个未对齐会导致每个线程进行加载调用,而不是对所有线程进行一次加载调用,从而导致加载下一条指令所需的所有数据的时间很长。我错了吗?
我正在用 Tensorflow 和 Keras 制作一个简单的神经网络。我用 python 精心制作的大块图像喂养这个 Ai。现在的块不是连续的,比如 2x2 chunk=[[0,1],[4,5]] from an image 4x4 [0,1,...,14,15]
。这个数组,从 python 到 tensorflow,再到 Nvidia 驱动程序和实际的 GPU VRAM,它会被复制、详细说明或以某种方式连续,还是数组的内存布局将完全相同,不连续?
我知道有不同的选项可以使子数组块连续,但我想知道这是否是我真正应该担心和注意的事情,以及性能会降低多少。有人测量过吗?
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。