-
张量流DNNCalssifier的隐藏层的激活功能
可以为tensorflow的DNNClassifier固定估计器自定义输出层的激活功能,但是没有有关隐藏层默认激活功能的文 -
为什么Sigmoid函数的输出层获取值0或1 {0,1}而不是获取[0,1]中的值
我正在通过遵循本教程(<a href="https://www.youtube.com/watch?v=GJJc1t0rtSU" rel="nofollow noreferrer">https://www.youtube.com/ -
什么是用于时间序列预测的最佳激活函数
我使用的是Keras的序列模型,具有DENSE层类型。我编写了一个递归计算预测的函数,但是预测远未完成。 -
梯度下降本身可以解决ANN中的非线性问题吗?
我最近正在研究有关神经网络的理论。我对ANN中梯度下降和激活函数的作用有些困惑。 据我了解 -
神经网络中的激活功能
我有一些问题与神经网络中使用的各种激活函数的使用有关?如果有人能给出很好的解释性答案,我将 -
如何在R中的Keras中的输出层中使用不同的激活
我想在Keras界面的输出层中为R组合更多类型的激活。而且,我想对不同的输出使用不同的损失函数。可 -
用于AI玩连接四的AI的神经网络:如何对输入和输出进行编码,以及哪种NN设置?
试图了解如何构建和训练基于神经网络的游戏AI,并努力获得一些细节。 甚至不关心是否使用Tenso -
查找导致特定决策张量流/角膜的神经元激活并将常见激活聚类
我已经建立了一个使用keras的分类网络,现在正处于一个阶段,我想看看不同层的激活是如何发生的。目 -
当结合使用非线性激活功能和softmax时,Autoencoder的结果较差
我正在对数据进行自动编码器训练,其中每个观察值都是<code>p=[p_1, p_2,...,p_n]</code>,其中<code>0<p_i<1< -
假设Conv2d-> ReLU-> BN的顺序,Conv2d层是否应具有偏置参数?
如果要使用<code>Conv2d</code>,然后是<code>Conv2d</code>,然后是<code>ReLU</code>,是否应该在<code>batch norm (bn)</co -
确定神经网络内参数的总数
如果我们有一个包含20个节点+ 2个隐藏层(大小分别为10和5)的输入层的神经网络,我们如何计算这种网 -
神经网络中改变S型激活函数斜率的方法-MATLAB
我目前正在尝试确定一种方法,可以通过一些标量值来调整MATLAB中神经网络内S型激活函数的斜率。例如 -
cudnnSetActivationDescriptor中的“剪切阈值”与“上限”
<a href="https://docs.nvidia.com/deeplearning/sdk/cudnn-api/index.html#cudnnSetActivationDescriptor" rel="nofollow noreferrer">cuDNN doc -
是否了解深度自动编码器中丢失和激活的选择?
我正在按照这个keras教程来使用MNIST数据集创建自动编码器。这是本教程:<a href="https://blog.keras.io/building- -
SpatialDropout2D,BatchNormalization和激活函数的正确顺序是什么?
对于CNN架构,我想使用SpatialDropout2D层而不是Dropout层。 另外,我想使用BatchNormalization。 到目前为止,我 -
如何实现包含具有不同激活功能的神经元的单个隐藏层?
我正在尝试在TensorFlow 2.0中创建自定义神经网络模型。我知道,在TF2.0社区中曾多次建议,应尽可能使用F -
Keras自定义图层输入形状兼容性问题
我正在尝试在keras中编写一个自定义激活层。问题是,我尝试使用S型和relu激活功能来实现。这些示例在 -
限制神经网络回归中的输出总和(Keras)
我要预测7个目标,这是一个值的比率,因此对于每个样本,所有预测值的总和应为1。 除了在输出端使 -
softmax导数的实现
我知道那里已经有多个类似的问题,但仍然不是很了解softmax函数的派生形式。这就是我在Java中实现softma -
SeLU激活函数的x参数导致typeError
我正在构建一个CNN,并使用SeLU作为其激活和AlphaDropout(0.5)定义一个完全连接的层。我正在尝试使用<cod -
为什么香草RNN使用tanh?
许多博客文章提到,对于DNN模型,ReLu比tanh更好,因为tanh会遇到消失的梯度问题。香草RNN使用tanh代替ReLu -
在LSTM网络中使用S形进行多步预测
我正在尝试使用LSTM Network开发多步预测模型。该模型以三步作为输入,并预测两个time_step。输入和输出 -
非二进制步进函数如何在神经网络中用作激活函数?
几天前,我开始更深入地研究神经网络研究,所以我是一个初学者。我不知道网络如何决定何时激活神 -
如何修改keras的激活功能?
我想使用激活函数<code>relu</code>,并将其参数<code>alpha</code>设置为0.2,但是我不知道该如何为我的模型完 -
神经网络中的所有神经元都不会总是启动/激活吗?
激活功能和博客/帖子让我有些困惑,他们不断提到神经元<strong>未激活</strong>或<strong>未触发</strong>。</p -
当用户在Laravel中更新电子邮件地址时发送电子邮件激活(确认)链接
用户更新电子邮件地址后,如何将激活帐户电子邮件重新发送给用户。 在用户单击确认链接之前 -
为什么SELU激活函数保留均值为0?
摘自Aurelien Geron的书“使用Scikit-Learn,Keras和Tensorflow进行动手机器学习”,第7页。 337: <blockquote> < -
keras-在序列模型上添加LeakyrRelu会引发错误
second_fashion_model.add(LeakyReLU(alpha = 0.05)) 将错误抛出为: 添加的层必须是类Layer的实例。发现: -
线性回归模型的R平方负数-Tensorflow
我建立了一个没有激活函数的神经网络,因此它是线性回归模型: <pre><code>def build_model(): model = tf.k -
通过使用GRAD_CAM可视化类激活来了解CNN
我关注了博客<a href="https://www.hackevolve.com/where-cnn-is-looking-grad-cam/" rel="nofollow noreferrer">Where CNN is looking</a>