我有一个文件夹,该文件夹以前具有基于ingestiontime
的子文件夹,这也是其配置单元表中使用的原始PARTITION
。
所以文件夹看起来像-
s3://MyDevBucket/dev/myStreamingData/ingestiontime=20200712230000/....
s3://MyDevBucket/dev/myStreamingData/ingestiontime=20200711230000/....
s3://MyDevBucket/dev/myStreamingData/ingestiontime=20200710230000/....
s3://MyDevBucket/dev/myStreamingData/ingestiontime=20200709230000/....
........
在每个摄入时间文件夹中,数据以ParqUET
格式显示。
现在,在同一myStreamingData
文件夹中,我要在另一个名为businessname的文件夹中添加另一个保存相似数据的文件夹。
所以我的文件夹结构现在看起来像-
s3://MyDevBucket/dev/myStreamingData/businessname=007/ingestiontime=20200712230000/....
s3://MyDevBucket/dev/myStreamingData/businessname=007/ingestiontime=20200711230000/....
s3://MyDevBucket/dev/myStreamingData/businessname=007/ingestiontime=20200710230000/....
s3://MyDevBucket/dev/myStreamingData/ingestiontime=20200712230000/....
s3://MyDevBucket/dev/myStreamingData/ingestiontime=20200711230000/....
s3://MyDevBucket/dev/myStreamingData/ingestiontime=20200710230000/....
s3://MyDevBucket/dev/myStreamingData/ingestiontime=20200709230000/....
........
所以我也需要将businessname
分区中的数据添加到当前配置单元表中。
为此,我运行了ALTER
查询-(在Databricks上)
%sql
alter table gp_hive_table add partition (businessname=007,ingestiontime=20200712230000) location "s3://MyDevBucket/dev/myStreamingData/businessname=007/ingestiontime=20200712230000"
但是我收到此错误-
Error in SQL statement: AnalysisException: businessname is not a valid partition column in table `default`.`gp_hive_table`.;
我在哪里做错了什么?
预先感谢。