-
如何使用贝叶斯超参数优化和TimeSeriesSplit执行嵌套的交叉验证(LightGBM回归)?
我想用回归模型进行预测。 我尝试针对最佳超参数优化LightGBM模型,同时针对最低的通用RMSE得分, -
我如何使用hyperopt优化总和为1的向量?
我正在使用hyperopt搜索算法的超参数。有三个数字需要优化:<code>w1</code>,<code>w2</code>和<code>w3</code>。这 -
使用Hyperopt进行贝叶斯优化时出错
当我使用Hyperopt进行贝叶斯优化时,以下代码中出现值错误: <pre><code>from hpsklearn import HyperoptEstimator, -
Hyperopt每个超参数的值列表
我正在尝试在回归模型上使用<a href="https://github.com/hyperopt/hyperopt" rel="nofollow noreferrer">Hyperopt</a>,以便为 -
Hyperopt可以用于贝叶斯优化吗?
互联网上的几个示例显示了如何使用<a href="https://blog.dominodatalab.com/hyperopt-bayesian-hyperparameter-optimization/" r -
Hyperas是否运行Parrelel?
使用sklearn超参数调整工具,您可以使用n_jobs参数指定要使用的线程数。我正在使用hyperas优化神经网络的 -
将hyperopt与功能性api tensorflow一起使用
我正在尝试将hyperopt与功能性api tensorflow一起使用。 我的代码: <pre><code>import tensorflow as tf import pandas -
我们可以用Sparktrials保存Hyperopt试用版的结果吗
我目前正在尝试使用hyperopt库优化梯度提升方法的超参数。当我在自己的计算机上工作时,我使用了<code> -
为非hp.choice选择器设置Hyperopt条件空间
我在keras模型上使用hyperopt模块。我以编程方式构建净层深度和每个深度的数量节点。每个深度的节点数 -
H2OTypeError:参数应为?integer,得到int64 [3.30.1.1]
我正在尝试在H2O XGBoost中简单地使用hyperopt,为此我正在从numpy数组中取出元素作为参数,但是我遇到了H2 -
Hyperopt quniform(label,low,high,q)在内部如何工作?
我正在翻阅Hyperopt的文档,在quniform(label,low,high,q)中,我对它的工作原理感到困惑?在docs中,它 -
当我们在vw-hyperopt中指定“ --algorithms = sgd”时,它是否与自适应,规范化和不变更新一起运行?
混淆是因为当我们在vw命令行中指定--sgd时,它将运行经典sgd,而没有自适应,规范化和不变的更新。因 -
要优化20个参数,应该使用哪种最佳算法?
我有20个可以取二进制值的参数,这些参数被传递给函数以返回分数。 <pre><code>score = fmin( para 1, para 2 -
hyperopt 0.2.4中的嵌套参数
我想搜索一个参数,其中一个参数依赖于另一个参数,与所描述的<a href="https://stackoverflow.com/questions/53041 -
如何在Google Collab中安装HyperOpt-Sklearn库?
每次尝试在Google Collab中安装HyperOpt-Sklearn库时,都会出现以下错误: <pre><code>fatal: destination path 'hyp -
在单台计算机上使用pyspark设置任务插槽
我正在尝试使用<code>SparkTrials</code>库中的<code>hyperopt</code>运行ML模型的优化。我在具有16个内核的单台计 -
PySpark无法在hyperopt SparkTrials中评估keras神经网络
我有一个奇怪的虫子,我被困了几天,无法解决。 我的目标是在hyperopt中评估几个keras nns。为了提 -
使用带有约束的 hyperopt
要为 hyperopt 创建搜索空间,我们可以简单地执行以下操作: <pre><code>space = { 'x': hp.uniform(' -
Hyperopt:返回布尔值而不是 int
在 <code>space</code> 参数中,我将其声明为: <pre><code>"langevin": hp.choice("langevin", [True, False]) -
hyperopt 中存储的每次运行的损失在哪里?
我使用 hyperopt 进行强化学习算法优化,使用 mongo-db 存储轨迹结果。但是我找不到每组超参数的损失存储 -
如何在 Python 中使用 Hyperopt 为搜索提供初始值
我正在尝试使用 Python 中的 Hyperopt 模块调整给定设置的参数。我已经为这些参数设置了一些不错的值, -
hyperopt中的N个目标函数参数
我正在尝试使用 hyperopt 来优化 SVC 模型的超参数。 这是空间的定义: <pre><code>gty= { 'C': hp. -
使用 SparkTrials 进行 hyperopt 并行化
我需要优化模型的超参数,并且希望并行化代码以使其更快。 运行此代码: <pre><code>from hyperopt import -
Hyperopt spark 3.0 问题
我正在运行运行时 8.1(包括 Apache Spark 3.1.1、Scala 2.12)试图让 hyperopt 像定义的那样工作 <a href="https -
如何使用 hyperopt 在 python 中为内核 PCA 选择超参数?
我正在研究应用内核主成分分析 (KPCA) 来降低特征矩阵集的维数,以获得一组数据点。我浏览了 scikit 学 -
为什么最好的损失不更新?
我正在尝试使用 HYPEROPT 运行参数优化,但我没有看到最佳损失值的打印有任何变化。 我尝试更改 -
使用 Hyperopt 禁用自动记录标签到 MLflow
我目前正在尝试在 Azure Databricks 上使用 Hyperopt 和 MLflow 进行超参数调整。在 Databricks 中使用默认跟踪 URI -
Hyperopt:当我为 sklearn 加载保存的模型时,如何知道为最佳模型选择了哪些变量?
我训练了一个 sklearn Gradient Boosting 分类器并使用 Hyperopt 进行了优化。 Hyperopt 仅从 769 个变量中选择了 20 -
如何使用 mlrMBO 和 mlr 进行超参数优化和调整
我正在尝试在 R 中在目标是多类分类的数据集上训练 ML 算法(rf、adaboost、xgboost)。对于超参数调整, -
使用 Optuna 进行微调时使超参数加起来为 1
我有一个看起来像这样的函数: <pre><code>def fine_tuning(x,y,model1,model2,model3,trial): pred1 = model1.predict(x)