无法连接到辅助节点上的Localhost

我在从计算群集上的一个工作程序节点连接到本地主机时遇到一些问题。我正在使用HDFS文件系统运行Spark进程,因此hadoop也正在集群上运行。集群利用SLURM作业调度程序进行并行处理,因此我试图提交一个调用Spark和Hadoop的SLURM作业,但是我收到的扩展错误消息已保存到文件并附加。

Call From greg-n1/172.16.1.2 to localhost:9000 failed on connection exception:java.net.connectexception: Connection refused; For more details see: http://wiki.apache.org/hadoop/ConnectionRefused

我还附加了我要提交给SLURM的文件(标头包含一些特定于SLURM的规范)。我相信问题可能出在我在本地调用hadoop / spark(它仅安装在群集上的目录中)的事实上。

无法连接到辅助节点上的Localhost

无法连接到辅助节点上的Localhost

感谢您的帮助。

liulity5201314 回答:无法连接到辅助节点上的Localhost

暂时没有好的解决方案,如果你有好的解决方案,请发邮件至:iooj@foxmail.com
本文链接:https://www.f2er.com/3085051.html

大家都在问