为什么用手工编写的ResNet50会出现Keras资源用尽错误,而用预构建的却不会呢?

[在带有GPU的Google colab上使用基于Tensorflow 1.x的Keras]

我使用尺寸为50x500x1的自定义图片训练了tf.keras.applications.resnet50模型(没有预先训练的权重),并且效果很好。现在,我尝试按照本教程重新实现Resnet50:https://github.com/priya-dwivedi/Deep-Learning/blob/master/resnet_keras/Residual_Networks_yourself.ipynb

即使参数的数量应该完全相同,但是只要在任何Conv2D层(GPU内存已满)中使用128个以上的过滤器,我就会立即收到Resource-Exhaust-Error。

有没有解释为什么tf.keras.applications中的许多模型都不会抛出Resource-Exhaust-Errors,尽管有些模型比Resnet50复杂得多?

zfw19900506159 回答:为什么用手工编写的ResNet50会出现Keras资源用尽错误,而用预构建的却不会呢?

暂时没有好的解决方案,如果你有好的解决方案,请发邮件至:iooj@foxmail.com
本文链接:https://www.f2er.com/3057238.html

大家都在问