指定された解像度の六角形または五角形に対応する長整数として表される H3 セル ID の配列を返します。それは入力された線状または面状の地理情報を最小限にカバーします。 この式は、geography が線形 (linestring または multilinestring)、areal (polygon または multipolygon) でない場合、または入力の解析時にエラーが見つかった場合に、 None を返します。 入力解決が無効な場合、式はエラーを返します。 地理の表現。
許容される入力表現は、WKT、GeoJSON、WKB です。 最初の 2 つのケースでは、入力は文字列型であることが想定されますが、最後のケースでは、入力は BINARY 型であることが予想されます。
対応する Databricks SQL 関数については、 h3_try_coverash3 関数を参照してください。
構文
from pyspark.databricks.sql import functions as dbf
dbf.h3_try_coverash3(col1=<col1>, col2=<col2>)
パラメーター
| パラメーター | タイプ | Description |
|---|---|---|
col1 |
pyspark.sql.Column または str |
WKT 形式または GeoJSON 形式の WGS84 座標参照システムの線形または等値地理を表す文字列、または WKB 形式の WGS84 座標参照システムの線形または等値地理を表す BINARY。 |
col2 |
pyspark.sql.Column、 str、または int |
地理をカバーする H3 セル ID の解像度。 |
例示
from pyspark.databricks.sql import functions as dbf
df = spark.createDataFrame([('POLYGON((-122.4194 37.7749,-118.2437 34.0522,-74.0060 40.7128,-122.4194 37.7749))', 1),],['wkt', 'res'])
df.select(dbf.h3_try_coverash3('wkt', 'res').alias('result')).collect()
[Row(result=[581650447186526207, 581672437419081727, 581698825698148351, 581707621791170559, 581716417884192767, 582248581512036351, 581637253046992895, 581641651093503999, 581646049140015103])]
df_invalid = spark.createDataFrame([('invalid input', 1),], ['wkt', 'res'])
df_invalid.select(dbf.h3_try_coverash3('wkt', 'res').alias('result')).collect()
[Row(result=None)]