启动了spark dir正常工作,但spark-shell没变,无法识别错误'spark-shell'

cmd screenshot我已经按照指示完成了所有操作,但仍然无法启动spark-shell

目录正在运行

我已按照说明放置了所有下载的文件,但spark-shell无法正常工作。

C:\ Users \ admin> cd c:\ spark

c:\ spark> dir  驱动器C中的卷没有标签。  卷序列号是BCEB-22EE

c:\ spark的目录

11/05/2019 05:19 PM。 11/05/2019 05:19 PM .. 11/05/2019 04:59 PM 230,091,034 spark-2.4.4-bin-hadoop2.7.tgz                1个文件230,034字节                2个可用的目录180,582,641,664字节

c:\ spark>火花壳 无法将“ spark-shell”识别为内部或外部命令, 可操作的程序或批处理文件。

C:\ Users \ admin> cd c:\ spark

c:\ spark> dir  驱动器C中的卷没有标签。  卷序列号是BCEB-22EE

c:\ spark的目录

11/05/2019 05:19 PM。 11/05/2019 05:19 PM .. 11/05/2019 04:59 PM 230,664字节

c:\ spark>火花壳 无法将“ spark-shell”识别为内部或外部命令, 可操作的程序或批处理文件。cmd image

wwyfendou 回答:启动了spark dir正常工作,但spark-shell没变,无法识别错误'spark-shell'

  1. 提取 spark-2.4.4-bin-hadoop2.7.tgz 的内容。 (也许使用winzip?)
  2. 这将导致目录可能类似于 spark-2.4.4-bin-hadoop2.7 。在该目录中,还将有一个名为 bin 的CD进入其中
  3. 在bin中,您会找到spark-shell脚本
本文链接:https://www.f2er.com/3158102.html

大家都在问