-
Tensorflow.keras的项目组织。应该是一个子类tf.keras.Model吗?
我正在使用Tensorflow 1.14和<code>tf.keras</code> API来构建许多(> 10)的differnet神经网络。 (我也对使用Tensorfl -
张量流DNNCalssifier的隐藏层的激活功能
可以为tensorflow的DNNClassifier固定估计器自定义输出层的激活功能,但是没有有关隐藏层默认激活功能的文 -
如何使用在ParameterServerStrategy中大规模嵌入的估计器导出SavedModel?
我发现<code>tf.estimator</code>需要从检查点文件中将整个模型加载到评估器中,以导出SavedModel。但是,当我 -
为具有特征列和预处理的Tensorflow 2 Keras模型提供服务(从tf 1.x估算器迁移)
我正在将使用估算器构建的当前Tensorflow 1.x模型迁移到Tensorflow 2.0 Keras。在涉及序列化服务模型之前,迁 -
如何使用Estimator API启用GNMT TF代码自动混合精度以进行评估
我正在尝试在裸机系统上运行GNMT TF代码,并且已经设置了CUDA堆栈和<code>tensorflow-gpu</code> v1.15。 Tensorflow -
使用tf.contrib.predictor来预测TF 1.13的tf.estimator.export_savedmodel中的批次。
我找到了几个示例来加载我保存的估算器<code>my_estimator.export_savedmodel(export_dir, export_input_fn)</code>模型, -
Tensorflow estimator API中检查点和导出器之间有什么区别
在训练期间,Tensorflow估计器将检查点存储在输出目录中以进行预测,并且还可以保存具有服务输入功能 -
Tensorflow预测变量:指定serving_input_receiver_fn
我想从tf.estimator.Estimator模型构建预测变量。因此,我需要指定一个input_receiver_fn,以指定从接收方张量 -
如何在张量流估计器中获得张量值?
有问题的代码太长了,所以我不会发布它,但是我认为它仍然无济于事。 tensorflow估计器包裹在它 -
Tensorflow estimator.export_savedmodel为以int()为底的10提供无效文字:colab中TPU的'images'错误
我对Tensorflow估算器非常陌生。我正在尝试在训练后保存<strong> pix2pix </strong>模型。使用Estimators以后如何 -
tf.estimator.LatestExporter应该如何保存模型,我们可以手动设置时间间隔吗?
我在我的tensorflow作业中使用<code>tf.estimator.LatestExporter</code>方法,并注意到5次导出在下一次导出的30秒内 -
如何在Tensorflow 2.0中连接到远程集群?
在Tensorflow 1.x中,有一种使用tf.contrib.distribute.DistributeConfig将Estimator连接到远程集群的方法,如Tensorflow生 -
在估算器model_fn中使用keras模型API时出现无效的参数错误
我构建的<code>model_fn</code>自定义估算器如下所示, <pre class="lang-py prettyprint-override"><code>def _model_fn(fea -
使用Keras API和验证集进行Tensorflow分布式培训
我曾经使用<em> Estimator API </em>使用<em> MultiWorkerMirroredStrategy </em>在集群上训练模型。在那里,将评估器添 -
当我使用tf.Estimator和tf.Session用于同一模型,相同的损耗计算和相同的学习率时,损耗是不同的
我需要在张量流中使用分布式策略训练模型。我用<code>tf.Estimator</code>实现了<code>tf.distribute.experimental.Mult -
tensorflow.estimator.Estimator的validate()的行为是什么?
张量流估计器的validate()方法的预期行为是什么?例如,我的评估指标仅仅是模型的损失。设置步骤数 -
我可以扩展Tensorflow Estimator来返回说明值吗? 更改export_saved_model导出的签名仅使用eval_savedmodel?将估算器归类将BoostedTrees模型拉出估算器
我有一个模型,大致遵循文档中为<code>tf.estimator.BoostedTreesClassifier</code>提供的<a href="https://www.tensorflow.org -
TensorFlow v2:替换tf.contrib.predictor.from_saved_model
到目前为止,我正在使用<code>tf.contrib.predictor.from_saved_model</code>来加载<code>SavedModel</code>(<code>tf.estimator< -
如何使用张量流估计器训练生成对抗网络?
同时对抗生成对抗网络(GAN)本身是不稳定的。各种GAN模型的代码是通过<code>Session.run</code>实现的,以 -
服务输入fn的训练过的张量流模型
我想导出模型以进行推断。我已经做了,但是问题是我在导出它时做错了。当它真正开始预测事物时, -
[Tensorflow 1.x]使用BERT的multi_label分类,无效参数:断言失败:[`predictions`包含负值]
我正在尝试微调BERT以进行多标签分类。我有自己的数据处理器,并且使用了预训练的BERT。我为我的任务 -
Tensorflow估计器分发评估器不会建立模型目录下的评估和导出文件,例如在tensorboard中
我的TFCONFIG就是这样 <pre><code>def parse_argument(): if FLAGS.job_name is None or FLAGS.job_name == "": raise Val -
将Tensorflow估算器转换为SavedModel时出错
我成功地训练了TensowFlow增强树估计器。现在,我想将其另存为SavedModel。问题是我得到下面的错误。 <code -
将TensorFlow估算器导出为单个.pb文件吗?
现在,我像这样导出我的张量流估计器: <pre><code>def receiver(): shape = (None, estimator.params['n_channel -
从检查点加载BERT时,评估准确性不同
由于某种原因,在训练后立即评估BERT测试集与从已保存的检查点加载时,我得到的BERT和测试集会有很大 -
Dropout和BatchNormalization层抛出TypeError:不兼容的类型:<dtype:'variant'>与int32。值是1,没有他们的模型就行了
在Tensorflow 2中使用自定义估算器时,如果模型包含BatchNorm或Dropout层,则在构建图形时tf会失败,并出现 -
不保存即可恢复Tensorflow模型
在Tensorflow中,我注意到如果要保存模型,可以使用tf.Saver函数或其他函数。当我们必须加载模型时,我 -
张量流排名模块的慢速预测
我当前正在使用<a href="https://github.com/tensorflow/ranking" rel="nofollow noreferrer">TensorFlow Ranking module</a>进行推荐 -
estimator.train抛出ValueError:model_fn应该返回EstimatorSpec
这是我正在使用的代码... 我在适合我的304行上安装了一个断点... estimator.train(input_fn = tra -
资源项目上的权限被拒绝仅在tpu_cluster_resolver中的1个线程上没有
我正在通过Compute Engine在云TPU上运行BERT预训练代码。 每次运行它时,我都会在1个线程上遇到此错