Partilhar via


h3_try_coverash3string

Devolve um array de IDs de célula H3 representados como cadeias, que correspondem a hexágonos ou pentágonos na resolução especificada e que cobrem de forma mínima a geografia linear ou areal fornecida. A expressão retorna None se a geografia não for linear (cadeia de linhas ou multilinhas), areal (polígono ou multipolígono) ou se for encontrado um erro ao analisar a entrada. A expressão devolve um erro se a resolução de entrada for inválida. As representações de entrada aceitáveis são WKT, GeoJSON e WKB. Nos dois primeiros casos, espera-se que a entrada seja do tipo string, enquanto no último caso a entrada é do tipo BINARY.

Para a função SQL do Databricks correspondente, veja h3_try_coverash3string função.

Sintaxe

from pyspark.databricks.sql import functions as dbf

dbf.h3_try_coverash3string(col1=<col1>, col2=<col2>)

Parâmetros

Parâmetro Tipo Description
col1 pyspark.sql.Column ou str Uma cadeia que representa uma geografia linear ou areal no sistema de referência de coordenadas WGS84 em formato WKT ou GeoJSON, ou um BINARY que representa uma geografia linear ou areal no sistema de referência de coordenadas WGS84 em formato WKB.
col2 pyspark.sql.Column, str ou int A resolução dos IDs das células H3 que cobrem a geografia.

Examples

from pyspark.databricks.sql import functions as dbf
df = spark.createDataFrame([('POLYGON((-122.4194 37.7749,-118.2437 34.0522,-74.0060 40.7128,-122.4194 37.7749))', 1),],['wkt', 'res'])
df.select(dbf.h3_try_coverash3string('wkt', 'res').alias('result')).collect()
[Row(result=['8126fffffffffff', '81283ffffffffff', '8129bffffffffff', '812a3ffffffffff',     '812abffffffffff', '8148fffffffffff', '81263ffffffffff', '81267ffffffffff', '8126bffffffffff'])]
df_invalid = spark.createDataFrame([('invalid input', 1),], ['wkt', 'res'])
df_invalid.select(dbf.h3_try_coverash3string('wkt', 'res').alias('result')).collect()
[Row(result=None)]