将输入的H3 单元格 ID集合解压缩到指定分辨率。 支持 Spark Connect。
有关相应的 Databricks SQL 函数,请参阅 h3_uncompact 函数。
Syntax
from pyspark.databricks.sql import functions as dbf
dbf.h3_uncompact(col1=<col1>, col2=<col2>)
参数
| 参数 | 类型 | Description |
|---|---|---|
col1 |
pyspark.sql.Column 或 str |
H3 单元格 ID(表示为整数或字符串)的数组,用于取消编译。 |
col2 |
pyspark.sql.Column、str 或 int |
未压缩的 H3 单元格 ID 的分辨率。 |
例子
from pyspark.databricks.sql import functions as dbf
df = spark.createDataFrame([([599686030622195711, 599686015589810175, 599686014516068351,599686034917163007, 599686029548453887, 599686032769679359, 599686198125920255,599686023106002943, 599686027400970239, 599686013442326527, 599686012368584703,599686018811035647, 595182446027210751], 5,)], ['h3l_array', 'res'])
df.select(dbf.h3_uncompact('h3l_array', 'res').alias('result')).collect()
[Row(result=[599686030622195711, 599686015589810175, 599686014516068351, 599686034917163007, 599686029548453887, 599686032769679359, 599686198125920255, 599686023106002943, 599686027400970239, 599686013442326527, 599686012368584703, 599686018811035647, 599686038138388479, 599686039212130303, 599686040285872127, 599686041359613951, 599686042433355775, 599686043507097599, 599686044580839423])]
df.select(dbf.h3_uncompact('h3l_array', 5).alias('result')).collect()
[Row(result=[599686030622195711, 599686015589810175, 599686014516068351, 599686034917163007, 599686029548453887, 599686032769679359, 599686198125920255, 599686023106002943, 599686027400970239, 599686013442326527, 599686012368584703, 599686018811035647, 599686038138388479, 599686039212130303, 599686040285872127, 599686041359613951, 599686042433355775, 599686043507097599, 599686044580839423])]