-
分割seq2seq时间序列的数据
我不太清楚如何为seq2seq模型拆分时间序列数据。数据如下所示- <pre><code># Encoder encoder_inputs = tf.keras. -
对于Tensorflow 2.0上基于LSTM的Seq2Seq,推断期间解码器模型上的InvalidArgumentError
<blockquote> <strong>版本</strong>:Python 3.6.9,Tensorflow 2.0.0,CUDA 10.0,CUDN 7.6.1,Nvidia驱动程序版本410.78。< -
如何使用tf2为seq2seq构建自定义双向编码器?
<pre><code>class Encoder(tf.keras.Model): def __init__(self, vocab_size, embedding_dim, enc_units, batch_sz): super(Encoder, self).__i -
如何为seq2seq模型准备数据?
我正在使用序列到lstm模型的序列构建机器翻译(Eng-French)。 我看过keras <a href="https://github.com/keras -
训练seq2seq模型时出现InvalidArgumentError
我正在尝试使用序列对单词进行序列化模型,但是在训练过程中,我不断收到无效的参数错误。我不知 -
训练Seq2Seq模型时出现尖峰
我正在尝试使用keras的机器翻译代码和reddit数据集为seq2seq聊天机器人模型构建模型,但要进行一些修改 -
tf2无法从检查点还原
我正在构建seq2seq模型,并使用检查点保存编码器和解码器: <pre><code>checkpoint_dir = './training_checkpoi -
如何在Keras中使用带有双向LSTM的seq2seq模型预测多个句子?
我使用正常的seq2seq模型/编码器-解码器模型预测了一个输出,我得到了一个完美的句子,我想从同一模 -
FairSeq-样本损失加权
我正在尝试使用fairseq学习seq2seq模型。我希望每个样本具有不同的损失加权,因此将有一些示例,这些模 -
Tensorflow seq2seq模型,损失值不错,但预测错误
我正在尝试训练Seq2Seq模型。它应该将句子从source_vocabulary转换为target_vocabulary中的句子。损失值为0.28, -
Keras LSTM,用于将句子转换为文档上下文向量
我阅读了以下博客文章,并尝试通过Keras实施它: <a href="https://andriymulyar.com/blog/bert-document-classification" re -
为什么在此seq2seq模型中添加输入?
我一直试图在keras上了解有关seq2seq2的示例代码。 链接:<a href="https://blog.keras.io/a-ten-minute-introductio -
具有sequence_loss的Tensorflow Keras LSTM
我正在使用<code>tensorflow.keras</code>构建一个简单的LSTM模型,并想使用<code>sequence_loss</code>,但不适用于当 -
如何向用户输入keras模型以获取输出?
我有一个seq2seq模型,该模型将英语句子作为输入并给出法语句子。现在我希望能够在保存的模型上为用 -
解码器不接受双向编码器的输出
我正在尝试使用Tensorflow实现编码器解码器模型。编码器是双向单元。 <pre><code>def encoder(hidden_units, en -
ValueError:检查目标时出错:预期density_22具有3个维度,但数组的形状为(1600,2)
我是DL的新手,我一直在尝试使用seq2seq模型对该<a href="https://github.com/richliao/textClassifier/blob/master/textClassi -
Tensorflow keras双向LSTM,用于文本摘要
我正在尝试为文本摘要实现双向LSTM。我对推理部分有疑问。尺寸不匹配。这是我的模型: <pre><code>la -
所有序列步骤的解码器关注层模型
在正式的tensorflow页面上,有一个解码器(<a href="https://www.tensorflow.org/tutorials/text/nmt_with_attention#next_steps" -
如何从多个单匝参考中选择合理的答案?
我有这样的数据 <code> index speaker reference1 reference2 reference3 reference4 reference5 id_1 XXXXX -
基于RNN的交叉对齐自动编码器
我一般对神经网络和Keras还是陌生的。我一直在尝试实现交叉对齐的自动编码器,以将样式从一个文本转 -
seq2seq模型:“单词不在词汇表中”
我正在尝试遵循以下习俗:<a href="https://colab.research.google.com/drive/1FKhOYhOz8d6BKLVVwL1YMlmoFQ2ML1DS#scrollTo=a5AD9ooQK -
使用BERT嵌入进行Seq2Seq模型构建
之前,我曾使用Glove嵌入来构建seq2seq模型以进行文本汇总,现在我想用BERT更改Glove以查看模型的 -
微调任务的想法仅在拥抱面部变压器中初始化解码器
我发现拥抱中的PretrainedEncoderDecoder类<a href="https://github.com/huggingface/transformers/blob/master/src/transformers/modelin -
Tensorflow图像字幕/ seq2seq解码器作为模型
我正在使用一种模型来进行序列预测,该模型从编码输入的潜在表示开始,这形成了解码器的初始状态。 -
如何在PyTorch的Pointer Generator模型中确定LSTM之后的尺寸数?
我不明白为什么在编码类中应用了完全连接的层时输入输出维度的数量<code>2 * config.hidden_dim</code>(在最 -
Seq2Seq中的解码器输入-时间序列分析
我正在使用MxNet,正在弄清楚Seq2Seq模型。假设每个批次将处理32个序列,每个序列的长度为20(时间步长 -
弃用警告:调用弃用的__getitem__
我已经尝试解决此错误已有几天了,但我只是无法找到原因,我尝试将cod从embedding_matrix [i] = model [vocab [i -
如何将序列的输出表示为有问题的序列模型?
我正在研究一个序列到问题回答的序列模型, <ul> <li>我使用词嵌入使用手套来编码上下文和问题,</ -
TensorFlow中的ChatBot:TypeError
我正在尝试使用miniconda3环境训练seq2seq模型以创建聊天机器人。下面是我用来训练它的代码,但是当我到 -
Keras-为seq2seq问题选择正确的批/历元大小
基于<a href="https://github.com/LukeTonin/keras-seq-2-seq-signal-prediction" rel="nofollow noreferrer">this repository</a>(Keras对