-
对数回归损失的梯度
我正在尝试为日志回归编写小批量梯度下降。 <img src="https://chart.googleapis.com/chart?cht=tx&chl=%5Cnabl -
SGDClassifierpartial_fit精度不适用于简单问题
我正在将SGDClassifier用于大型数据集。我使用了带有partial_fit方法的迷你批处理训练模式。但是我看到的 -
我的人工神经网络有时会忽略某个类,可能的解决方法
我的人工神经网络有两个输入和16个输出,有时它会忽略某些类,即使我的数据集按类显示的样本数几乎 -
使用SGD使用L2正则化实现Logistc回归:不使用sklearn
我是python和ML的新手。我必须使用SGD使用L2正则化实现LR。 我想在不使用sklearn库的情况下实现。 SG -
值错误:训练次数只有2个班级,而整个数据集中只有1个班级。折叠不平衡的Decision_function不支持此功能
我正在学习机器学习并在#mnist数据集上创建我的第一个模型。 有人可以在这里帮助我吗?我尝试 -
用python实现resource_apply_keras_momentum?
我正在寻找<code>tensorflow.python.training_ops.resource_apply_keras_momentum</code>的实现。通常在NAg动量中使用: < -
SGD优化图
我只是想问一个简单的问题。我知道val_loss和train_loss不足以判断模型是否过拟合。但是,我希望通过监 -
NaN by Matrix Factorization
我使用SGD算法实现了矩阵分解,但是在运行预测矩阵时经常得到NaN。当我在非常小的(6 x 7)矩阵上运行 -
了解CNN训练结果
感谢您对以下内容的解释:) 我训练了CNN网络,该网络对两个图像类别进行了分类。 我使用了“ -
尝试使用SGD代码更改Zebra打印机上的IP配置
我正在尝试使用SGD命令在zebra ZT410打印机上配置IP,子网和网关地址。<br/> 我正在使用“ Zebra设置实用程 -
具有Logloss和L2正则化的SGD分类器使用SGD而不使用sklearn python
我正在处理有关使用python的SGD手动实现的分配问题。我陷于dw导数函数。 <pre><code>import numpy as np impo -
每次重启后降低最大学习率
我正在训练神经网络来完成基于计算机视觉的任务。对于优化器,我发现在整个培训过程中使用单个学 -
SGD适用于每个迭代或每个时期
我有一个带有优化器SGD的CNN模型,该模型有助于更快地收敛。我对每个时代都感到怀疑,我们在每个时 -
pytorch是否在SGD计算中使用训练样本的平均值?
我很难理解简单线性模型中的梯度结果。 让我们考虑两个点X = [1,2]和y = [1,2]。让我们考虑一个简单 -
在SGDClassifier参数调整期间,BayesSearchCV无法正常工作
我正在尝试使用BayesSearchCV进行SGDClassifier的参数调整。下面是我尝试过的代码。 <pre><code>import seaborn fr -
评估主动学习(SGD)错误图
我通过与sgd分类器一起使用主动学习生成了错误图。 请参见下图。 在第50次查询后,训练误 -
在不使用sklearn的情况下使用SGD(LogLoss随每个时期增加)
<pre><code>def train(X_train,y_train,X_test,y_test,epochs,alpha,eta0): w,b = initialize_weights(X_train[0]) loss_test=[] N=len(X -
无法设置优化器的动量
我正在使用SGD优化器,并且希望在初始化后通过使用<code>tf.keras.backend.set_value(optimizer.momentum, momentumValue)< -
实现SGD分类器[错误:只能将size-1数组转换为Python标量]
<pre><code>def gradient_dw(x,y,w,b,alpha,N): '''In this function, we will compute the gardient w.r.to w ''' -
为什么在此示例中,keras(SGD)Optimizer.minimize()不能达到全局最小值?
我正在通过DataCamp完成TensorFlow教程,并且正在转录/复制我在自己的Jupyter笔记本中正在处理的代码示例。 -
对于大型数据集,我是否将sklearn与SGDRegressor和Nystroem方法正确使用?
就我而言,我想使用带有RBF内核的SVR来训练我的模型,但是我的训练集太大,其中包含约1600万个样本, -
为什么SGDClassifier中的partial_fit会逐渐降低模型精度
我正在使用<code>SGDClassifier</code>中的<code>sklearn</code>训练<strong>在线学习</strong> SVM分类器。我了解到可以 -
如何在TensorFlow联合SGD中操纵客户端梯度
我正在关注<a href="https://www.tensorflow.org/federated/tutorials/federated_learning_for_image_classification" rel="nofollow norefer -
从python中的多个向量中随机采样
所以我分配了Stoachastic梯度像样的代码,基本上我发现从多个向量中随机采样同时保持顺序不变是一个问 -
如何在SGD中指示我的因变量
这是我第一次在R中执行随机梯度下降,我知道这是一个愚蠢的问题,但我似乎无法弄清楚。我正在使用I -
RMSprop优化器不会改变精度和损耗
数据集为CIFAR10。我创建了一个类似于VGG的网络: <pre><code>class FirstModel(nn.Module): def __init__(self): -
强化学习:序列中样本的 SGD 使用和独立性
我正在学习强化学习课程,很多时候,学习价值函数权重的策略参数基本上归结为使用随机梯度下降 (SGD -
sklearn.linear_model.SGDClassifier.coef_ 字段对特征重要性的意义是什么?
我想弄清楚如何解释二进制文本情感 SGD 分类器的权重。分类器在负情绪为 0 和正情绪为 1 上进行训练。 -
在 Keras 中使用 SGD 优化器的 NAN 值用于回归神经网络
朋友, 我尝试训练神经网络进行回归。在使用 Keras 的 SGD 优化器类时,我突然在第一步后从我的网 -
关于 tf.keras SGD 批次
我想在 tf.keras 中使用 SGD 优化器。 但是SGD细节说 <块引用> 梯度下降(带动量)优化器。 </blockqu