Partilhar via


h3_try_coverash3

Devolve um array de IDs de célula H3 representados como inteiros longos, correspondentes a hexágonos ou pentágonos da resolução especificada que cobrem minimamente a geografia linear ou areal de entrada. A expressão retorna None se a geografia não for linear (cadeia de linhas ou multilinhas), areal (polígono ou multipolígono) ou se for encontrado um erro ao analisar a entrada. A expressão devolve um erro se a resolução de entrada for inválida. representação da geografia.

Representações de entrada aceitáveis são WKT, GeoJSON e WKB. Nos dois primeiros casos, espera-se que a entrada seja do tipo string, enquanto no último caso a entrada é do tipo BINARY.

Para a função SQL do Databricks correspondente, veja h3_try_coverash3 função.

Sintaxe

from pyspark.databricks.sql import functions as dbf

dbf.h3_try_coverash3(col1=<col1>, col2=<col2>)

Parâmetros

Parâmetro Tipo Description
col1 pyspark.sql.Column ou str Uma cadeia que representa uma geografia linear ou areal no sistema de referência de coordenadas WGS84 em formato WKT ou GeoJSON, ou um BINARY que representa uma geografia linear ou areal no sistema de referência de coordenadas WGS84 em formato WKB.
col2 pyspark.sql.Column, str ou int A resolução dos IDs das células H3 que cobrem a geografia.

Examples

from pyspark.databricks.sql import functions as dbf
df = spark.createDataFrame([('POLYGON((-122.4194 37.7749,-118.2437 34.0522,-74.0060 40.7128,-122.4194 37.7749))', 1),],['wkt', 'res'])
df.select(dbf.h3_try_coverash3('wkt', 'res').alias('result')).collect()
[Row(result=[581650447186526207, 581672437419081727, 581698825698148351, 581707621791170559,     581716417884192767, 582248581512036351, 581637253046992895, 581641651093503999,     581646049140015103])]
df_invalid = spark.createDataFrame([('invalid input', 1),], ['wkt', 'res'])
df_invalid.select(dbf.h3_try_coverash3('wkt', 'res').alias('result')).collect()
[Row(result=None)]