-
对数回归损失的梯度
我正在尝试为日志回归编写小批量梯度下降。 <img src="https://chart.googleapis.com/chart?cht=tx&chl=%5Cnabl -
在python中实现负对数似然函数
我在用python实现负对数似然函数时遇到了一些困难 我的负对数似然函数为: <img src="https://i -
TypeError:minimum()缺少1个必需的位置参数:'var_list'
我正在尝试使用SGD来最大程度地减少损失,但是我在使用SGD时会出现抛出错误,我正在tensorflow 2.0中尝试 -
是否有任何特定的数据行为导致过拟合和过拟合?
由于我是数据科学的新手,我只想知道是否有任何特定的数据行为导致过拟合和/或欠拟合?因为如果要 -
如果我们可以在WGAN中裁剪渐变,为什么还要麻烦WGAN-GP?
我正在研究WGAN,并希望实施WGAN-GP。 在其原始论文中,由于1-Lipschitiz约束,WGAN-GP以梯度代价实现 -
如何使用matplotlib
我正在使用numpy在线性回归上练习梯度下降。这是我的梯度下降过程: <pre><code>def batch_gradient_descent(d -
这些代码中的权重在哪里更新?
我想在分布式系统中训练模型。我在github中找到了用于分布式训练的代码,其中工作程序节点将梯度发 -
在Python中控制梯度下降类的输出
作为作业问题的一部分,我创建了LinearRegression类,但是得到的输出显示出疯狂的小数点以及科学计数法 -
需要帮助了解python中的矩阵函数乘法
我正在尝试使用Python从Andrew Ng机器学习课程中找到优化的theta值以最小化成本函数。我的程序中的theta值 -
梯度下降本身可以解决ANN中的非线性问题吗?
我最近正在研究有关神经网络的理论。我对ANN中梯度下降和激活函数的作用有些困惑。 据我了解 -
使用tf.GradientTape()
我正在尝试遵循<a href="https://cs.stanford.edu/people/jcjohns/papers/eccv16/JohnsonECCV16.pdf" rel="nofollow noreferrer">this pape -
实施梯度下降
我正在尝试在Go中实现梯度下降。我的目标是根据行驶里程来预测汽车的成本。 这是我的数据集: <p -
我已经为每个训练示例计算了权重的梯度,如何使用它们来更新权重?
我正在从头开始编码神经网络,设置了随机权重后,我做了一次正向传播,然后使用均方误差计算了网 -
有人可以检查我的Xor神经网络代码有什么问题吗
我一直在尝试创建XOR神经网络,但对于所有输入,输出始终会收敛到某个值(例如1、0或0.5)。这是我最 -
具有softmax数学偏导数的交叉熵损失函数的反向传播
我正在尝试使用输出层中的交叉熵代价/损失函数和softmax激活函数来解决反向传播算法的数学问题。 -
向后倾斜时梯度均为0,并且参数完全没有变化
我实现了策略梯度方法来学习未知函数(此处为10循环求和函数),但模型未更新。输入学习数据和目标 -
针对批次大小的每个值,将训练误差作为“挂钟时间”的函数进行绘制
我不确定如何计算不同批次大小值的挂钟时间,并将其与训练误差绘制在同一张图上。请通过以下代码 -
Logistic梯度下降算法
我一直在尝试实现它。我猜我的损失函数f是错误的。我不知道该为f做些什么。另外,我不确定我的梯度 -
使用梯度下降实现线性回归
我正在尝试实现具有梯度下降的线性回归,如本文(<a href="https://towardsdatascience.com/linear-regression-using-grad -
为什么梯度下降不能在后续输入中收敛?
此代码正在使用“梯度下降”,并且其输入不收敛。为什么会这样? <pre><code>import numpy as np inputs = n -
迭代次数>批处理大小时代码崩溃
<pre><code>class MiniBatch: def __init__(self, batch_size): self.batch_size = batch_size def get_batches(self,X,y,batch_si -
ValueError:形状(20,14)和(13,1)不对齐:14(dim 1)!= 13(dim 0)
<pre><code>def cal_cost(theta,X,y): m = len(y) predictions = X.dot(theta) cost = (1/2*m) * np.sum(np.square(predictions-y)) -
PyTorch中特定于参数的学习率
如何为网络中的每个特定参数(权重和偏差)设置学习率? 在<a href="https://pytorch.org/docs/1.1.0/optim.h -
梯度下降线性回归后的thetas归一化
我有以下数据集: <pre><code>km,price 240000,3650 139800,3800 150500,4400 185530,4450 176000,5250 114800,5350 166800,5800 890 -
为什么梯度下降法无法训练网络以预测时间表?
我正在训练使用梯度下降<code>traingd</code>的前馈作为反向传播算法来预测时间表。 <pre class="lang-matlab -
防止梯度下降距离局部最小值过远
我正在Python中实现一种算法,以使用<a href="https://en.wikipedia.org/wiki/Gradient_descent" rel="nofollow noreferrer">gradie -
向量化梯度下降函数
我对线性代数还很陌生,目前正在参加Andrew Ng的机器学习课程。我正在努力了解以下两个功能是如何相 -
如何改善向量化梯度下降线性回归模型?
我写了线性回归模型的向量化梯度下降实现。数据集看起来像:<a href="https://i.stack.imgur.com/pb7p4.png" rel="no -
如何减少训练过程中模型损失的差异?
我知道随机梯度下降总是会产生不同的结果。今天有什么最佳实践来减少这种差异? 我试图用两种不同 -
Yolo网络在线学习?
我想使用Yolo Network v3来检测5个自定义对象类,对此我已经有数据。 因此,我将使用这些课程的训练数据