Important
この機能は パブリック プレビュー段階です。
指定した係数を使用して、入力ジオメトリを X、Y、Z (省略可能) 方向にスケーリングします。
対応する Databricks SQL 関数については、 st_scale 関数を参照してください。
構文
from pyspark.databricks.sql import functions as dbf
dbf.st_scale(col1=<col1>, col2=<col2>, col3=<col3>, col4=<col4>)
パラメーター
| パラメーター | タイプ | Description |
|---|---|---|
col1 |
pyspark.sql.Column または str |
Geometry の値。 |
col2 |
pyspark.sql.Column またはフロート |
X スケール ファクターを表す DOUBLE の値。 |
col3 |
pyspark.sql.Column またはフロート |
Y スケールファクターを表すDOUBLEの値。 |
col4 |
pyspark.sql.Column または float、省略可能 |
Z 倍率を表す DOUBLE の値(省略可能)。 既定値の は 1 です。 |
例示
from pyspark.databricks.sql import functions as dbf
df = spark.createDataFrame([('MULTIPOINT ZM (1 2 3 -4,5 6 7 -8,EMPTY)',)], ['wkt'])
df.select(dbf.st_asewkt(dbf.st_scale(dbf.st_geomfromtext('wkt', 4326), 10.0, 20.0)).alias('result')).collect()
[Row(result='SRID=4326;MULTIPOINT ZM ((10 40 3 -4),(50 120 7 -8),EMPTY)')]
from pyspark.databricks.sql import functions as dbf
df = spark.createDataFrame([('MULTIPOINT ZM (1 2 3 -4,5 6 7 -8,EMPTY)',)], ['wkt'])
df.select(dbf.st_asewkt(dbf.st_scale(dbf.st_geomfromtext('wkt', 4326), 10.0, 20.0, 3.0)).alias('result')).collect()
[Row(result='SRID=4326;MULTIPOINT ZM ((10 40 9 -4),(50 120 21 -8),EMPTY)')]