如何使用Apache Spark读取来自公式的Excel文件列数据

我正在尝试读取Spark中的一个excel文件。我为此使用crealytics库。

但是我的代码失败了,因为其中一列正在引用工作表以通过 VLOOKUP 公式填充其值。

我一直在尝试使用“ crealytics”库,但是没有运气。

val df = spark.read.format("com.crealytics.spark.excel")
        .option("sheetName","Final_Output")
        .option("useHeader","true")
        .option("treatEmptyValuesAsnulls","false")
        .option("inferSchema","false")
        .option("addColorColumns","false")
        .option("location",input_path)
        .load()

df.show(5,false)
  

java.lang.RuntimeException:VLOOKUP的未知单元格类型2。

h5531856138 回答:如何使用Apache Spark读取来自公式的Excel文件列数据

暂时没有好的解决方案,如果你有好的解决方案,请发邮件至:iooj@foxmail.com
本文链接:https://www.f2er.com/3159156.html

大家都在问