-
Keras中的CuDNNLSTM的辍学
我们知道<code>CuDNNLSTM</code>不支持<code>dropout</code>。另外,我们知道<code>LSTM</code>层在KERAS中具有两种类型 -
LSTM之前或之后的辍学层。有什么区别?
假设我们有一个LSTM模型用于时间序列预测。另外,这是一个多变量情况,因此我们使用了多个功能来训 -
辍学如何工作(使用多个GPU)?
假设我正在使用多个GPU,并且正在训练一个使用辍学的神经网络。我知道,对于每个训练样本,辍学随 -
为什么在测试模式下在tf.keras.layers.Dropout中设置training = True会导致较低的训练损失值和较高的预测准确性?
我正在使用在Tensorflow中实现的模型上的辍学层(tf.keras.layers.Dropout)。我在训练期间设置“ training = True -
在反向传播过程中应在何处添加反向辍学?
我在前进道具时添加了倒置的辍学层。我想知道反向传播期间应该在哪里添加反向辍学吗? 我的 -
R Keras:在输入层和隐藏层上都应用dropout正则化
我正在R中学习Keras,并且想在输入层上应用辍学正则化,因为它很大(20000个变量),并且在中间层(100 -
如何在Pytorch中实现辍学以及在何处应用
我不确定这是否正确。我找不到关于如何参数化NN的很多很好的例子,这真让我很难过。 您对在 -
为什么Pytorch Dropout层会影响所有值,而不仅仅是设置为零的那些值?
来自Pytorch的辍学层更改未设置为零的值。使用Pytorch的文档示例:(<a href="https://pytorch.org/docs/stable/nn.html -
辍学可以提高训练数据的性能吗?
我正在训练带有辍学的神经网络。碰巧,当我将辍学率从0.9降低到0.7时,训练数据数据的损失(交叉验 -
张量流中未计算出辍学
我正在尝试设置一个实例,以便仅在训练期间计算辍学率,但是不知何故该模型似乎看不到辍学层,因 -
在keras中实现交换层
我目前正在尝试在keras中实现交换层(例如:<a href="http://papers.nips.cc/paper/6205-swapout-learning-an-ensemble-of-deep -
SpatialDropout2D,BatchNormalization和激活函数的正确顺序是什么?
对于CNN架构,我想使用SpatialDropout2D层而不是Dropout层。 另外,我想使用BatchNormalization。 到目前为止,我 -
GridSearchCV-CNN中的EarlyStopping有哪些耐心?
我想在GridSearchCV中使用EarlyStopping,因为我在搜索中具有不同的学习率和不同的辍学率。 我没有使用EarlyS -
MaxPooling会减少过度拟合吗?
我已经用较小的数据集训练了以下CNN模型,因此确实过拟合: <pre><code>model = Sequential() model.add(Conv2D(3 -
我不了解Dropout存在时Keras的表现
我在Python中使用Keras使用Dropout构建了一个神经网络。我想找出这个网络如何更新权重。为简单起见,只 -
AWD-LSTM中的辍学
我正在尝试实施AWD-LSTM,因此想确保我正确理解辍学技术。我已经阅读了文章和fastai文档,但仍然怀疑我 -
如何在验证/测试阶段关闭droput?
我是神经网络的新手。我知道,在验证/测试期间,必须将其关闭,因为该退出会使神经元故意输出“错 -
AWD-LSTM辍学
我正在尝试实施AWD-LSTM,因此想从[here] [1]了解所应用的辍学技术。我没有清楚地意识到参数<code>input_p</co -
如何将Pytorch模块(通过就地操作)更改为可区分的?
我的层是这样的(我正在制作一个LSTM层,每个时间步都应用了dropout,输入经过10次,然后返回输出的平 -
为什么在辍学期间我们需要预先设定“预期的输出”?
我对执行辍学正则化时为什么需要保留预期输出的值感到非常困惑。在训练和测试阶段,如果<em> l层</em> -
将辍学添加到Keras模型
我想在隐藏层中添加一个辍学者。我不知道是否应该在每个隐藏层的定义之前或之后执行该句子。 <p -
对于Pytorch中的许多数据点(例如hugginface BERT),相同的删除掩码
让我们假设我有一个训练有素的神经网络(比方说,使用拥抱面库基于BERT的文本情感分类模型),在这 -
为什么我们必须退出Tensorflow?
我已阅读本文<a href="https://www.tensorflow.org/api_docs/python/tf/keras/layers/Dropout" rel="nofollow noreferrer">https://www.tens -
在Tensorflow中训练多个模型时如何避免过多的内存使用
我目前正在编写一段代码,旨在解释应用不同的辍学率如何影响跨多个数据集的通用CNN模型的性能 -
编译时会清除添加到tensorflow 2中的自定义层的损失
我正在尝试将<a href="https://github.com/yaringal/ConcreteDropout/blob/master/concrete-dropout-keras.ipynb" rel="nofollow noreferrer -
ResNet连接中应该使用Dropout吗?
在构建具有Resnet连接的人工神经网络时, 应该将辍学应用于Resnet连接吗? 如果未应用Dropout,则 -
添加辍学后,为什么CNN程序的准确性没有提高?
我正在使用CNN来识别CiFar10数据集中的图像,并且在添加滤镜之前,cnn的准确性达到了58%,但添加后下 -
添加Dropout后,运行时间从每个时期〜10秒增加到每个时期〜120秒?
我正在训练一个如下所示的简单神经网络; <pre><code>model = Sequential() model.add(layers.GRU(32, -
如果批量归一化是模型的一部分,如何在张量流中对LSTM应用Monte Carlo Dropout?
我有一个模型,该模型由3个LSTM层,一个批处理规范层以及最后一个致密层组成。这是代码: <pre><code>d -
PyTorch非确定性辍学
我正在尝试使BLSTM的输出具有确定性,在调查了它的出现似乎表明我的辍学层创建的不是确定性的辍学蒙