Numpy串联中的内存错误(np.concatenate)

我正在使用TfidfVectorizer,为此,我需要连接我的训练和测试数据,这会给我带来内存错误。

train_text = data['comment_text'].values.astype(str)
test_text = test_data['comment_text'].values.astype(str)
all_text = np.concatenate([train_text,test_text])

上面是代码段,下面是错误。

Traceback (most recent call last):
File "Model.py",line 68,in <module>
  EasyEnsembleclassfier(data,test_data)
File "Model.py",line 30,in EasyEnsembleclassfier
  all_text = np.concatenate([train_text,test_text])
MemoryError

关于如何解决此问题的任何建议?

zhongquanming 回答:Numpy串联中的内存错误(np.concatenate)

我认为这可能是由于内存不足或数据量很大。您可以通过减小数据大小来重试吗?您还可以考虑杀死计算机上正在运行的一些不必要的进程(在Windows上,您可以通过访问控制面板来执行此操作)以释放一些内存。让我知道它是否有效。

本文链接:https://www.f2er.com/3066416.html

大家都在问