我正在尝试运行 MiME 算法(多级嵌入)(链接:https://github.com/mp2893/mime)我尝试以 TF2.0 格式设置代码,但无论我尝试什么,它都无法在GPU(尝试过 colab pro、kaggle)。它有时会抛出一个错误,说 OOM。任务是转换此代码,使其在多个 GPU 上运行
我知道我在这里问了很多问题,但谁能帮我找出问题所在?我为 10k 用户的示例序列运行它。如果我减少这个数字,它就会运行,但我想以 100k 的速度运行它,因此需要一个 GPU。
我基本上必须在多个 GPU 上运行它,目前我很难单独解决这个问题。如果有人可以通过它真的很感激 代码有点复杂但是路径是:https://colab.research.google.com/drive/1qZ_Qt3JxC59J60iThEqEctJhnumE3WmL?usp=sharing
我有一个 EC2 实例,它有两个 GPU