Partager via


Types de données PySpark

Cette page fournit la liste des types de données PySpark disponibles sur Databricks avec des liens vers la documentation de référence correspondante.

Type de données Descriptif
ArrayType(elementType[, containsNull]) Type de données de tableau
BinaryType() Type de données binaire (tableau d’octets)
BooleanType() Type de données de valeur booléenne
ByteType() Type de données Byte, représentant des entiers signés sur 8 bits
CalendarIntervalType() Intervalles de calendrier
CharType(length) Type de données Char
DataType() Classe de base pour les types de données
DateType() Type de données Date (datetime.date)
DayTimeIntervalType([startField, endField]) DayTimeIntervalType (datetime.timedelta)
DecimalType([precision, scale]) Type de données décimal (decimal.Decimal)
DoubleType() Type de données double, représentant des flotteurs de double précision
FloatType() Type de données float, représentant des floats de précision uniques
Geography (Databricks uniquement) Type de données geography
Geometry (Databricks uniquement) Type de données geometry
IntegerType() Type de données int, représentant des entiers 32 bits signés
LongType() Type de données long, représentant des entiers 64 bits signés
MapType(keyType, valueType[, valueContainsNull]) Type de données mappé
NullType() Type Nul
ShortType() Type de données court, représentant des entiers 16 bits signés
StringType([collation]) Type de données chaîne
StructField(name, dataType[, nullable, metadata]) Champ dans StructType
StructType([fields]) Type de struct, constitué d’une liste de StructField
TimestampType() Type de données Timestamp (datetime.datetime)
TimestampNTZType() Type de données Timestamp (datetime.datetime) sans informations de fuseau horaire
VarcharType(length) Type de données Varchar
VariantType() Type de données variant, représentant des valeurs semi-structurées
YearMonthIntervalType([startField, endField]) YearMonthIntervalType, représente les intervalles de mois d’année de la norme SQL