Observação
O acesso a essa página exige autorização. Você pode tentar entrar ou alterar diretórios.
O acesso a essa página exige autorização. Você pode tentar alterar os diretórios.
Retorna uma matriz de IDs de célula H3 representadas como cadeias de caracteres, correspondentes a hexágonos ou pentágonos da resolução especificada que abrangem minimamente a geografia linear ou areal de entrada. A expressão retornará None se a geografia não for linear (linestring ou multilinestring), areal (polígono ou multipolígono) ou se um erro for encontrado ao analisar a entrada. A expressão retornará um erro se a resolução de entrada for inválida. As representações de entrada aceitáveis são WKT, GeoJSON e WKB. Nos dois primeiros casos, espera-se que a entrada seja do tipo cadeia de caracteres, enquanto no último caso, espera-se que a entrada seja do tipo BINARY.
Para consultar a função SQL correspondente do Databricks, veja h3_try_coverash3string função.
Sintaxe
from pyspark.databricks.sql import functions as dbf
dbf.h3_try_coverash3string(col1=<col1>, col2=<col2>)
Parâmetros
| Parâmetro | Tipo | Description |
|---|---|---|
col1 |
pyspark.sql.Column ou str |
Uma cadeia de caracteres que representa uma geografia linear ou areal no sistema de referência da coordenada WGS84 no formato WKT ou GeoJSON, ou um BINARY que representa uma geografia linear ou areal no sistema de referência de coordenadas WGS84 no formato WKB. |
col2 |
pyspark.sql.Column, str ou int |
A resolução dos identificadores de células H3 que cobrem a região geográfica. |
Exemplos
from pyspark.databricks.sql import functions as dbf
df = spark.createDataFrame([('POLYGON((-122.4194 37.7749,-118.2437 34.0522,-74.0060 40.7128,-122.4194 37.7749))', 1),],['wkt', 'res'])
df.select(dbf.h3_try_coverash3string('wkt', 'res').alias('result')).collect()
[Row(result=['8126fffffffffff', '81283ffffffffff', '8129bffffffffff', '812a3ffffffffff', '812abffffffffff', '8148fffffffffff', '81263ffffffffff', '81267ffffffffff', '8126bffffffffff'])]
df_invalid = spark.createDataFrame([('invalid input', 1),], ['wkt', 'res'])
df_invalid.select(dbf.h3_try_coverash3string('wkt', 'res').alias('result')).collect()
[Row(result=None)]