Remarque
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de vous connecter ou de modifier des répertoires.
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de modifier des répertoires.
Retourne un tableau d’ID de cellule H3 représenté sous forme de chaînes, correspondant à des hexagones ou à des pentagones de la résolution spécifiée qui couvrent minimalement le linéaire d’entrée ou la zone géographique. L’expression émet une erreur si la zone géographique n’est pas linéaire (linestring ou multilignestring), areal (polygone ou multipolygon), ou si une erreur est trouvée lors de l’analyse de la représentation d’entrée de la zone géographique.
Les représentations d’entrée acceptables sont WKT, GeoJSON et WKB. Dans les deux premiers cas, l’entrée est censée être de type chaîne, tandis que dans le dernier cas, l’entrée est censée être de type Binaire. Prend en charge Spark Connect.
Pour la fonction SQL Databricks correspondante, consultez h3_coverash3string.
Syntaxe
from pyspark.databricks.sql import functions as dbf
dbf.h3_coverash3string(col1=<col1>, col2=<col2>)
Paramètres
| Paramètre | Type | Descriptif |
|---|---|---|
col1 |
pyspark.sql.Column ou str |
Chaîne représentant une zone géographique linéaire ou areale dans le système de référence de coordonnées WGS84 au format WKT ou GeoJSON, ou binaire représentant une géographie linéaire ou areale dans le système de référence de coordonnées WGS84 au format WKB. |
col2 |
pyspark.sql.Column, str ou int |
Résolution des ID de cellule H3 qui couvrent la zone géographique. |
Examples
from pyspark.databricks.sql import functions as dbf
df = spark.createDataFrame([('POLYGON((-122.4194 37.7749,-118.2437 34.0522,-74.0060 40.7128,-122.4194 37.7749))', 1),],['wkt', 'res'])
df.select(dbf.h3_coverash3string('wkt', 'res').alias('result')).collect()
[Row(result=['8126fffffffffff', '81283ffffffffff', '8129bffffffffff', '812a3ffffffffff', '812abffffffffff', '8148fffffffffff', '81263ffffffffff', '81267ffffffffff', '8126bffffffffff'])]