[在带有GPU的Google colab上使用基于Tensorflow 1.x的Keras]
我使用尺寸为50x500x1的自定义图片训练了tf.keras.applications.resnet50
模型(没有预先训练的权重),并且效果很好。现在,我尝试按照本教程重新实现Resnet50:https://github.com/priya-dwivedi/Deep-Learning/blob/master/resnet_keras/Residual_Networks_yourself.ipynb
即使参数的数量应该完全相同,但是只要在任何Conv2D层(GPU内存已满)中使用128个以上的过滤器,我就会立即收到Resource-Exhaust-Error。
有没有解释为什么tf.keras.applications
中的许多模型都不会抛出Resource-Exhaust-Errors,尽管有些模型比Resnet50复杂得多?