-
大于记忆嵌入数据集的社区检测
我目前有一个文本嵌入数据集(768 维)。当前的记录数约为 100 万。我希望通过社区检测算法来检测相 -
我们如何使用随机森林使用词嵌入进行句子分类
当我们有一个随机森林时,我们有 n 个输入和 m 个特征,例如我们有 3 个观察和 2 个特征 <pre class="lan -
in_channels 和 kernel_size 用于使用 Conv1d (Pytorch) 进行字嵌入
我真的在为 Conv1D 的输入苦苦挣扎 - 我已经阅读了几个指南/解释,但有些东西仍然不完全...... 我有 -
使用 word2vec 进行文档聚类
我正在使用 Word2vec(genism 库)进行文档聚类 我正在做的以下步骤, <ol> <li>清理和标记数据,假 -
使用 Tensorboard 投影仪可视化嵌入
我正在尝试使用 Tensorboard 投影仪在 tensorflow 中可视化多个嵌入,但不能(我只看到嵌入 2 的可视化)。 -
NLP ELMo 模型修剪输入
我正在尝试根据 tensorflow hub 上可用的预训练 ELMo 模型检索词的嵌入。我使用的代码是从这里修改的:<a h -
如何用单词解释 doc2vec 分类器?
我在 <code>gensim</code> 中针对属于几类的文档训练了一个 doc2vec (PV-DM) 模型。由于实际原因,我在非语言环 -
计算 elmo 模型的余弦相似度
我正在尝试使用 Elmo 模型计算 wordsim 集的余弦相似度。这可能没有意义,因为它是为句子词嵌入而设计 -
诸如 GloVe 之类的词表示也可以表示具有相似阅读/难度级别的词吗?
我对 GloVe 和词嵌入比较陌生,我了解这些向量如何表示意义的相似性。我想知道是否可以超越单词的含 -
在线训练如何使用 Genism 在 Word2vec 模型中工作
使用 Genism 库,我们可以加载模型并在添加新句子时更新词汇表。这意味着如果您保存模型,您可以稍后 -
如何在词嵌入中找到性别偏见?
我有 <code>glove.twitter.27B.200d.txt</code> 个词嵌入。 <code>GloVe</code> 格式的这些嵌入。我使用此代码将其传输 -
使用 keras
我有一个包含许多分类特征和许多特征的数据集。我想应用嵌入层将分类数据转换为数值数据以供其他 -
在 google colab 中下载“glove.6B.100d”。 - 火炬
Forks,我正在尝试使用 google colab 下载 <code>"glove.6B.100d"</code> 词向量。我正在研究这个简单的情绪 -
将 word2vec 模型文件转换为文本
想将 gensim word2vec 文件转换为 txt 文件,但出现此错误:<br/> <strong>UnicodeDecodeError: 'utf-8' 编解码器无法解 -
使用 Keras 嵌入层的词嵌入情感分析
我需要对我的模型结果进行一些说明。 <strong>这是我的用例:</strong> <ul> <li>决定标准普尔 500 指 -
创建嵌入矩阵时如何确定 num_words 变量?
我一直在关注教程笔记本,在这一点上我们必须创建一个使用以下代码的嵌入矩阵 <pre><code># prepare emb -
标记列中的单词并创建嵌入向量
我需要你的帮助。 对于神经网络,我需要将单词更改为 word_index(例如 <code>company</code> --> 34、<code> -
如何绘制以“HE”和“SHE”结尾的嵌入图表?
我有词嵌入。如何绘制这样的图形?我可以使用 PCA 进行降维,但不确定如何绘制这样的图形。 <a h -
无效参数:reshape 的输入是具有 14155776 个值的张量,但请求的形状具有 262144
我正在尝试使用 ELMO 嵌入来用 LSTM 训练我的网络,但我对张量的形状有疑问 <strong>y-train with shape (67689, 5) -
ULMFiT 如何做初始词嵌入?
在训练开始时,模型是如何取一个字符串并转换为向量的? 词嵌入有特定的方式吗? -
BioSentVec 嵌入未在 Linux 服务器上加载
trial.py 中的 Python 代码: <pre><code>import sent2vec model_path = 'BioSentVec/BioSentVec_PubMed_MIMICIII-bigram_d700.bin& -
如何将新向量连接到现有的 Bert 向量中?
对于一个句子,我可能会提取一些实体,每个实体都嵌入了 256 个维度向量。然后我将这些实体的平均值 -
K-Means 聚类如何帮助分析 word2vec 嵌入?
我是 NLP 的新手。我有一个 yelp-review 数据集。我在 yelp-review 的文本列上使用了 word2vector 嵌入。我使用 K- -
是否可以将位置嵌入添加到多个嵌入层?
我正在尝试创建多头注意,它具有组合令牌和该令牌类型的输入,但我在嵌入部分遇到了问题。我不能 -
来自 Gensim KeyedVector most_similar 的参数 restrict_vocab 未按预期工作
我正在使用 Gensim KeyedVector most_similar 函数来查找与其他词向量子集相似的前 N 个词向量。我的模型 -
训练 SVM 分类器(词嵌入与句子嵌入)
我想尝试不同的嵌入,例如 Word2Vec、ELMo 和 BERT,但我对是使用单词嵌入还是句子嵌入以及原因有点困惑 -
以实际例子设置Word2Vec的参数
我有一个包含大约 280 万条文本的数据库(更准确地说是推文,所以它们是短文本)。我将干净的推文( -
对齐词嵌入的 numpy 数组
我想比较来自两个不同语料库的两个不同词嵌入。问题是向量没有对齐到相同的坐标轴。我想到的一种 -
'KeyedVectors' 对象没有属性 'wv' / 在 Gensim 4.0.0 中从 KeyedVector 中删除了 vocab 属性
<pre><code>word2vec = KeyedVectors.load_word2vec_format('GoogleNews-vectors-negative300.bin', binary=True) print('Found %s word -
从预训练检查点 (.bin)
我有一个 PyTorch 模型,其架构如下:<code>BERT -> dropout -> classifier -> loss_function</code>。我已经在我的