-
LSTM自动编码器在测试数据中产生不良结果
我正在将LSTM自动编码器用于异常检测。由于异常数据与正常数据相比非常少,因此仅将正常实例用于训 -
(无状态的)变压器的困惑-为什么与RNN相比仍然比较公平?
我很清楚如何计算RNN的困惑度,因为RNN是有状态的模型。 通常,给定一个很长的文档,我认为我 -
如何在LSTM RNN
我有一个数据集,其中包含1000个用户的活动数据。由于一个用户的活动不同于另一用户,因此我希望将 -
逐步训练Keras LSTM(有状态)
使用Keras + TF 1.14(不急于使用)时,是否可以逐步训练LSTM以提高存储效率? 来自PyTorch,我可以 -
Keras中共享LSTM层中的状态持久性
我正在尝试在Keras模型中使用具有状态的共享LSTM层,但是似乎内部状态是通过每次并行使用来修改的。 -
如何用LSTM预测未来60天的股价?
<pre><code>df = df['Close'].values df = df.reshape(-1,1) dataset_train = np.array(df[:int(df.shape[0]*0.8)]) dataset_test = np.array -
用于下一个单词预测的LSTM:何时重置状态?
我对机器学习和NLP还是很陌生,我正在探索<a href="https://www.tensorflow.org/tutorials/text/image_captioning" rel="nofoll -
使用RNN / LSTM检测速度变化(给定当前xy位置)
在给定连续数据的x,y坐标的情况下,如何使用RNN / LSTM来学习速度变化? (我必须使用循环层,因为这 -
有状态LSTM中的batch_input_shape
我对状态LTSM Python代码有疑问。 <pre><code>def fit_lstm(train, batch_size, nb_epoch, neurons): X = [] y = [] f -
有没有办法将时间权重传递给损失函数? 简化模型:丢失功能
<h2>背景</h2> 当前,我正在使用LSTM进行回归。我正在使用较小的批处理量,并且具有相当大的时间步长( -
keras / R
我对Keras / Tensorflow中的LSTM网络有问题,这使我感到困惑,这可能是由于我的知识有限。我正在尝试进行 -
对于有状态LSTM,Keras中有没有办法使y大小不等于X批处理大小?
我只尝试在批次结束时更新重量,我知道这是默认行为,但是我不明白为什么您需要将X和y设置为相同的 -
有状态LSTM的迭代时间序列的回归预测
我试图围绕Keras中的有状态LSTM进行研究,所以我想到了以下示例: 我想对序列Y(n)= X(n)+ Y(n- -
使用LSTM有状态传递上下文黑白批处理;可能是上下文传递过程中出现了一些错误,没有得到很好的结果? 使用LSTM并传递上下文黑白批处理。 per_class_accuracy正在更改,但损失并未减少。卡了很长时间,不确定代码中是否有错误?
我已经检查了数据,然后再将其提供给网络。数据正确。 <h3>使用LSTM并传递上下文黑白批处理。 per_cl -
多步向前预测的KERAS有状态单变量LSTM错误ValueEor:无法将输入数组从形状(180,1)广播到形状(1,1)
我有一个简单的时间序列数据集,其中包含网站的天数和相关访问,我想创建一个流量预测。 <a href="http -
LSTM(Keras)中批次大小,时间步长和错误之间的关系是什么?
让我们 <code>Sample Size = 100</code>(X1,X2,...,X100) <code>Timesteps = 5</code> <code>Input Featur -
LSTM忘记并记得层吗?为什么两者都需要?
当我阅读文档时,LSTM单元已经忘记并记住了门。 但是,当我看一下架构时,为什么我们需要忘记和记住 -
如何在Keras的LSTM中修复以下错误?如果RNN是有状态的,请指定`batch_input_shape`
在Keras中运行LSTM时出现以下错误: <pre><code>ValueError: If a RNN is stateful, it needs to know its batch size. Specify t -
在训练和预测期间保存Keras RNN层状态的最佳方法是什么?
我有一个LSTM处理来自多个用户的无限事件流。因此,事件在到达时每次处理一个时间步。每个用户的行 -
为什么Keras MAPE指标在训练过程中呈爆炸性增长,而MSE损失却没有?
我在Keras中实施了LSTM,以重制<a href="https://arxiv.org/abs/1704.02971" rel="nofollow noreferrer">this paper</a>。奇怪的行 -
有状态LSTM Tensorflow无效的Input_h形状错误
我正在通过使用TensorFlow在时间序列回归问题上进行有状态LSTM实验。抱歉,我无法共享数据集。 下面是 -
如何训练一个以上训练数据集的keras lstm模型而又不忘记它先前的训练结果?
通常我只有一个训练数据,所以我只做<code>model.fit(x_train1, y_train1)</code>。 如果我想使用两组训练数 -
为一个inupt和两个输出建立LSTM模型
我想用一个输入和两个输出构建一个LSTM模型。 我的数据和图一样。 我的模型如下。 但是它只能预测一 -
对于LSTM变量,出现错误“ tensorflow:变量不存在渐变”
嗨,我有一个<strong>双向LSTM层:</strong> <pre><code>class BiDirLSTMInput(Layer): def __init__(self): self.bidir_ls -
LSTM的数据集大小-无状态或有状态,用于时间序列预测
我有40年产品和3年的每周销售数据。因此,将是40 * 52 * 3 = 6240个数据点。我大约有20个功能可用于预测一 -
如果我用于训练有状态或无状态lstm的数据点较少,则批量大小较小或历时较大会起作用吗
我大约有1000个数据点(过去5年中4种产品的每周销售额),每个数据点都有10个左右的独立功能。 -
Keras Lstm预测下一项,采用整个序列或滑动窗口。滑动窗口是否需要状态LSTM?
我有一个序列预测问题,其中给定序列中的最后<code>n</code>个项目,我需要预测下一个项目。 我有 -
如何将(多元)时间序列加载到神经网络/ LSTM中
如何加载以下时间序列: <a href="https://i.stack.imgur.com/mhVUx.png" rel="nofollow noreferrer"><img src="https://i.sta -
ValueError:维度必须相等,但分别为 256 和 64;序列到序列 LSTM
我正在尝试构建一个序列到序列模型,但我不太确定如何解决我在解码器 LSTM 中不断出现的错误。 -
LSTM随着输入数据长度的变化做出不同的预测
<em><strong>注意</strong>:以下所有数字仅供参考。</em> 我使用以下参数训练了我的 LSTM 模型: <pre>