-
如何从GA超参数调整中获得RMSE值?
我找到了使用GA进行超参数调整的R代码。以下是代码,但未显示预期结果,这将是预测准确性吗?我已 -
设置hyperopt-sklearn的计分方法
将hyperopt-sklearn用于分类器时,是否可以定义评分方法? 默认情况下,它似乎是sklearn的model.score方 -
R中的自适应重采样如何工作?
如果必须在R中使用超参数调整,还有什么比网格和随机搜索更好的呢?我正在使用插入号并尝试在火车 -
差分演化函数中找不到数据错误
我正在使用以下代码,并且在最后一行给出了错误:训练数据(在我的情况下为“ tr”)和train_settings未 -
Python:Hypteropt-函数输入
我试图阻碍多维hypterparamter优化。我有一个带有很多参数的函数,但是只有4个参数需要优化。 我 -
为什么我不能在Caret包中获取n.tree参数值
我有一个关于Caret软件包的问题,以优化超参数,例如用于调整随机森林参数的随机搜索。我运行以 -
Xgboost算法的超参数
我正在使用xgboost超参数调整rmse的值。我用了 以下方法返回两个值;意思是-1200.12 和最佳值-960。我猜第一 -
Keras-通过测试所有可能的超参数来调整顺序模型
我正在研究一个简单的Keras顺序模型,并试图测试超参数的不同组合,但是有没有一种方法可以自动尝试 -
何时在Keras模型中使用偏差?
我是Keras建模的新手。我正在尝试评估用于设置模型的适当参数。我怎么知道何时使用偏置与何时关闭偏置? -
训练香草nn时强调功能
我在训练神经网络模型时具有360种奇特特征。 我得到的准确性太差了。 360中有一个功能比其他功能更重 -
火车函数中未使用的参数
大家好! 使用RF超参数调整时,我在代码中遇到问题。该算法(模拟退火)为我提供了4000的RMSE值 -
ValueError:learning_rate必须大于0但为0
我尝试使用Hyperopt优化器调整scikit GradientBoostingRegressor模型的超参数。我通过多种方式将learning_rate参数的搜 -
模拟退火算法中mtry的上/下值
我从网上获得了这段代码。它使用网格搜索和模拟退火来调整R.Forest的参数。我的疑问是代码中的模拟退 -
如何更正网格搜索?
尝试使用网格搜索为我的svm模型找到最佳超参数,但它只会为超参数返回1。 <pre><code>Failed to load resou -
我可以将早期停止纳入keras网格搜索中吗?
我正在对多个超参数执行网格搜索,这可能会花费很长时间。可能会有几种组合远非有效,如果可能的 -
使用AI Platform超参数调整功能时如何强制参数依赖性?
我有一个<code>scikit-learn</code>模型,可以使用<code>GCP</code>在<code>AI Platform training</code>上进行训练。我也想 -
如何在python中为PMML模型进行超参数调整?
我正在使用Python中的以下代码创建RandomForest PMML模型 <pre><code>from sklearn2pmml.pipeline import PMMLPipeline from -
在scikit-learn的网格搜索过程中,是否可以计算每个模型的大小?
我正在寻找进行超参数优化的方法,以找出模型准确性和尺寸(MB)的最佳组合。 -
在sci-kit优化中保存和加载模型
我在skopt包中使用了带gp_minimize的贝叶斯优化和带dummy_minimize的随机搜索。 我想通过scikit-opt中的loa -
R-MLR:为包装好的学习者调整超参数
我正在使用<code>xgboost</code>包在R中构建<code>mlr</code>分类任务: <pre><code># define task Task <- mlr::makeClas -
R-MLR:使用“ makeTuneControlRandom”为包装的学习者调整超参数
在<a href="https://stackoverflow.com/questions/59458529/r-mlr-get-tuned-hyperparameters-for-a-wrapped-learner/59460181#59460181">my prev -
网格搜索的超参数优化:效率,搜索空间,迭代
我试图理解Bengio和Bergsta的<a href="http://www.jmlr.org/papers/volume13/bergstra12a/bergstra12a.pdf" rel="nofollow noreferrer">Ran -
寻找最佳的超级参数
我正在使用sklearn libary的RandomsearchCV在MultinomialNB中搜索最佳alpha。当我通过<code>rand_search.best_params_['alph -
Python 3.7:GridSearchCV和RandomizedSearch CV上的ValueError-输入包含NaN,无穷大或对于dtype('float32')而言太大的值。-
我一直在尝试调整XGBoost回归器,但我一直在获得 <blockquote> ValueError:输入包含NaN,无穷大或值 -
在Keras包装器中运行TensorFlow分类器时出现TypeError
尝试将动态生成的TensorFlow网络(MLP)放入keras包装器中,以使用RandomizedSearchCV进行优化。正在获取TypeErro -
如何确定最佳超参数以从多个ANN模型获得最佳ANN模型
我有三层神经网络模型的多个训练结果文件,这些模型具有minibatch随机梯度下降优化算法,它们是由许 -
如何手动将超参数分配给LGBM
<pre class="lang-py prettyprint-override"><code>from selenium.webdriver.support.ui import WebDriverWait from selenium.webdriver.common.by im -
自动为DBSCAN选择eps,而无需在python中可视化距离图?
我已经绘制了这样的距离图。现在,通过可视化此图,我知道治愈的位置介于0到250之间,可能是90,但 -
Tensorflow 2.0 hparams如何定义连续的超参数?
我对使用hparams和tensorboard进行超参数调整感兴趣。我想使用hparams调整连续正则化参数,但令人惊讶的是 -
我无法将sklearn.model_selection.GridSearchCV与tf.estimator.BoostedTreesClassifier一起使用
<strong>这是“型号”的代码:</strong> <pre><code>n_batches = 1000 model = tf.estimator.BoostedTreesClassifier(feat_cols,