上下文:我有一个模型(编译的 FORTRAN 代码),一个二进制/可执行文件,我需要使用遗传算法等算法进行校准。因此,该模型需要运行数千次。
我现在在做什么:我正在使用 subprocess
(Python 中的一个模块)及其 Popen
方法,因此我可以同时(并行)在多个 CPU 内核上运行二进制文件。
我的问题:从技术上讲,通常可以在 GPU 内核上运行二进制文件吗?因为它有更多的处理单元/内核。
如果是,最好和最常用的方法是什么,我也愿意学习/使用其他语言。从长远来看,享受 GPU 计算的好处。
(最好是不依赖于 Nvidia GPU 的解决方案)