-
是否可以使用Google BERT对文档进行矢量化处理?
我想使用BERT将我的文档转换为矢量,每个文档一个矢量。可能吗?如何使用标准库或流行库进行编程? -
如何在keras中使用Bert作为长文本分类中的段落编码器来实现网络?
我正在做一个长文本分类任务,该文档中的文档超过10000个单词,我计划使用Bert作为段落编码器,然后 -
过度拟合训练数据,但仍在测试数据上进行改进
我的机器学习模型大大适合了训练数据,但在测试数据上仍然表现良好。使用神经网络方法时,每次迭 -
如何在具有不同形状的Bert输出上构建keras模型
我正在尝试使用bert和keras为我的研究构建分类器。 当X是句子中单词和空格的数量时,我得到了bert -
建立数据集-np数组上的异常行为
我正在尝试从“ cls_encoding”对象(bert输出)构建数据集。 <pre><code>print (cls_encoding.shape) (1, 768) </code> -
基于语法正确性和语义一致性的BERT模型评估方法
例如,我有一个原始句子。 <strong>吠叫</strong>一词对应于缺少的单词。 <pre><code>Original Sentence : The dog -
Python-BERT用于MultiClass文本分类
<pre><code>task = args['task_name'] processor = processors[task]() label_list = processor.get_labels() num_labels = len(label_list) -
用于测试分类时,ktrain软件包是否将输入嵌入与bert嵌入结合在一起?
我正在运行下面链接中给出的代码。 python的ktrain软件包用于bert文本分类的嵌入方式是什么。我相信代码 -
从BERT运行Excel宏
我正在尝试在BERT中运行Excel 2016宏。在电子表格中,我可以将宏作为名为“ Button_To_Click”的按钮进行操 -
如何使用Clinical BERT为我的语料库在tensorflow和keras中创建文本嵌入?
我收集了熊猫系列的所有笔记。我想获取笔记的特征向量。 我最近遇到<a href="https://github.com/EmilyAl -
结合RoBERTa和BiLSTM时获得F分数为0
我正在尝试将LSTM堆叠在RoBERTa模型之上以解决二进制分类问题 我尝试配置: -冻结RoBERTa嵌入 -
NLP-最佳文档嵌入库
早上好,同胞(?)。 我有一个方法论上的问题,在很短的时间内就被深入的研究所迷惑。 <p -
BertTokenizer-编码和解码序列时会出现多余的空格
使用HuggingFace的《变形金刚》时,我遇到了编码和解码方法的问题。 我有以下字符串: <pre><cod -
FileNotFoundError:[错误2]没有这样的文件或目录:'pybert / output / checkpoints / bert'
我正在使用google colab运行bert示例。当我尝试在正常运行时下运行时,我没有收到任何错误。但是当我将 -
在Google Colab中运行python参数
我正在Google Colab中运行python文件,并出现错误。我正在通过此链接跟踪一个bert文本分类示例; <pre>< -
我可以使用高棉语言的标记化输入文件和自定义词汇文件从头开始对BERT模型进行预训练吗?
我想知道是否可以将自己的标记化/分段文档(以及我自己的vocab文件)用作<code>create_pretraining_data.py</code -
如何使用BERT使用Hugging Face变压器进行多类别分类
我从一个示例中看到,可以通过调整label_list参数来使用Hugging Face转换器库创建多类分类器。 <pre><code -
获取MASK位置中多令牌词的概率
根据语言模型,获得代币的概率相对容易,如下面的代码片段所示。您可以获取模型的输出,将自己限 -
如何从BertForSequenceClassification获取hidden_states?
我阅读了官方教程(<a href="https://huggingface.co/transformers/model_doc/bert.html" rel="nofollow noreferrer">https://huggingfac -
预测文本中的单词遗漏
当您掩盖一些单词并尝试预测它们时,我对BERT和其他解决方案有所了解。 但可以说我有一段文字: -
记不清;伯特
我是这个领域的新手,正在尝试通过下面的Github链接进行学习。 但是,我遇到了运行时错误。尽管将批 -
如何从TF Hub获取Bert标记程序的vocab文件
我正在尝试使用TensorFlow Hub中的Bert并构建令牌生成器,这就是我正在做的事情: <pre class="lang-py pretty -
用BERT标记单词位置的序列
如果我有一组句子,并且在这些句子中,单词之间存在一些依存关系。 我想训练BERT来预测哪些词与他人 -
如何设置将BERT作为服务运行的最大CPU /内核数?
我可以按照<a href="https://github.com/hanxiao/bert-as-service" rel="nofollow noreferrer">https://github.com/hanxiao/bert-as-service< -
BERT令牌生成器和模型下载
我是初学者。。我正在与Bert合作。但是,由于公司网络的安全性,以下代码无法直接接收bert模型。 -
删除Bert中的SEP令牌以进行文本分类
鉴于情感分类数据集,我想微调Bert。 您知道BERT创建的是根据给定的当前句子来预测下一个句子。 -
RuntimeError:cuda运行时错误(100):在.. \ aten \ src \ THC \ THCGeneral.cpp:50处未检测到具有CUDA功能的设备
我试图使用以下命令在<strong> test </strong>模式下运行BERTSUM程序(<a href="https://github.com/nlpyang/PreSumm/tree/mast -
尝试简化BERT架构
我对BERT有一个有趣的问题。 我能否通过说两个单词在不同上下文中的相似性取决于组成不同上下 -
如何在Tensorflow Hub中使用自定义模型?
我的目标是在Google Colab中测试Google的BERT算法。 我想对芬兰语(<a href="https://github.com/TurkuNLP/FinBERT" -
Huggingface Bert TPU微调可在Colab上使用,但不能在GCP中使用
我正在尝试微调TPU上的Huggingface变压器BERT模型。它可以在Colab中工作,但是当我切换到GCP上的付费TPU时失