Freigeben über


PySpark-Datentypen

Diese Seite enthält eine Liste der auf Databricks verfügbaren PySpark-Datentypen mit Links zu entsprechenden Referenzdokumentationen.

Datentyp Description
ArrayType(elementType[, containsNull]) Array-Datentyp
BinaryType() Binärdatentyp (Bytearray)
BooleanType() Boolescher Datentyp
ByteType() Byte-Datentyp, der signierte 8-Bit-Ganzzahlen darstellt
CalendarIntervalType() Kalenderintervalle
CharType(length) Char-Datentyp
DataType() Basisklasse für Datentypen
DateType() Datentyp "Datetime.date" (Datetime.date)
DayTimeIntervalType([startField, endField]) DayTimeIntervalType (datetime.timedelta)
DecimalType([precision, scale]) Decimal-Datentyp (decimal.Decimal)
DoubleType() Datentyp "Double", der Gleitkommazahlen mit doppelter Genauigkeit repräsentiert
FloatType() Float-Datentyp, der Fließkommazahlen mit einfacher Genauigkeit darstellt
Geography (Nur Databricks) geography-Datentyp
Geometry (Nur Databricks) geometry-Datentyp
IntegerType() Int-Datentyp, der signierte 32-Bit-Ganzzahlen darstellt
LongType() Langer Datentyp, der signierte 64-Bit-Ganzzahlen darstellt
MapType(keyType, valueType[, valueContainsNull]) Map-Datentyp
NullType() Nulltyp
ShortType() Kurzer Datentyp, der signierte 16-Bit-Ganzzahlen darstellt
StringType([collation]) String-Datentyp
StructField(name, dataType[, nullable, metadata]) Ein Feld in StructType
StructType([fields]) Strukturtyp, bestehend aus einer Liste von StructField
TimestampType() Datentyp "Timestamp" (datetime.datetime)
TimestampNTZType() Datentyp Timestamp (datetime.datetime) ohne Zeitzoneninformationen
VarcharType(length) Varchar-Datentyp
VariantType() Variant-Datentyp, der halbstrukturierte Werte darstellt
YearMonthIntervalType([startField, endField]) YearMonthIntervalType, stellt Jahresmonatsintervalle des SQL-Standards dar.