Notitie
Voor toegang tot deze pagina is autorisatie vereist. U kunt proberen u aan te melden of de directory te wijzigen.
Voor toegang tot deze pagina is autorisatie vereist. U kunt proberen de mappen te wijzigen.
Configuratieopties die specifiek zijn voor de cloudFiles bron, worden voorafgegaan door cloudFiles , zodat ze zich in een afzonderlijke naamruimte bevinden van andere opties voor gestructureerd streamen.
- Algemene opties voor automatisch laden
- Opties voor adreslijstvermelding
- Opties voor bestandsmeldingen
- Opties voor bestandsindeling
- Cloudspecifieke opties
Algemene opties voor automatisch laden
U kunt de volgende opties configureren voor Auto Loader-streams.
| Opties |
|---|
cloudFiles.allowOverwritesTyp: BooleanOf wijzigingen in invoerbestanden bestaande gegevens mogen overschrijven. Voor aandachtspunten bij de configuratie, zie Wordt het bestand opnieuw verwerkt door Auto Loader wanneer het bestand wordt toegevoegd of overschreven?. Standaardwaarde: false |
cloudFiles.backfillIntervalTyp: Interval StringAuto Loader kan asynchrone backfills activeren op een bepaald interval. Bijvoorbeeld 1 day om dagelijks in te vullen of 1 week wekelijks in te vullen. Zie Reguliere backfills activeren met behulp van cloudFiles.backfillInterval voor meer informatie.Niet gebruiken wanneer cloudFiles.useManagedFileEvents is ingesteld op true.Standaard: Geen |
cloudFiles.cleanSourceTyp: StringOf verwerkte bestanden automatisch uit de invoermap moeten worden verwijderd. Als deze is ingesteld op OFF (standaard), worden er geen bestanden verwijderd.Wanneer DELETE is ingesteld, worden bestanden 30 dagen nadat ze zijn verwerkt automatisch verwijderd. Hiervoor moet Auto Loader schrijfmachtigingen hebben voor de bronmap.Wanneer ingesteld op MOVE, worden bestanden binnen cloudFiles.cleanSource.moveDestination 30 dagen na verwerking automatisch naar de opgegeven locatie verplaatst. Hiervoor moet Auto Loader schrijfmachtigingen hebben voor zowel de bronmap als de verplaatsingslocatie.Een bestand wordt beschouwd als verwerkt wanneer het een niet-null-waarde heeft voor commit_time in het resultaat van de cloud_files_state tabelwaardefunctie. Zie cloud_files_state tabelwaardefunctie. De extra wachttijd van 30 dagen na verwerking kan worden geconfigureerd met behulp van cloudFiles.cleanSource.retentionDuration.Opmerking: Databricks raadt het gebruik van deze optie niet aan als er meerdere streams zijn die gegevens van de bronlocatie verbruiken, omdat de snelste consument de bestanden verwijdert en ze niet worden opgenomen in de tragere bronnen. Opmerking: Voor het inschakelen van deze functie moet Auto Loader de extra status in zijn controlepunt behouden, wat leidt tot prestatieoverhead, maar verbeterde waarneembaarheid mogelijk maakt via de cloud_files_state tabelwaardefunctie. Zie cloud_files_state tabelwaardefunctie.Opmerking: cleanSource gebruikt de huidige instelling om te bepalen of een bepaald bestand moet worden MOVE of DELETE. Stel dat de instelling was MOVE toen het bestand oorspronkelijk werd verwerkt, maar werd gewijzigd in DELETE toen het bestand 30 dagen later een kandidaat werd voor het opschonen. In dit geval wordt het bestand verwijderd door cleanSource.Opmerking: cleanSource is een beste poging. Bestanden worden niet gegarandeerd verwijderd zodra de retentionDuration periode voorbij is. In plaats daarvan worden ze kandidaten voor opruiming en worden ze verwijderd op basis van best mogelijke inspanning tijdens reguliere streamverwerking. Om kosten te besparen, cleanSource sluit u probleemloos af nadat de stroomverwerking is voltooid, zelfs als er nog kandidaten zijn om op te ruimen. De resterende kandidaten worden opgehaald tijdens de volgende verwerking.Beschikbaar in Databricks Runtime 16.4 en hoger. Standaard: UIT |
cloudFiles.cleanSource.retentionDurationTyp: Interval StringDe hoeveelheid tijd die moet worden gewacht voordat verwerkte bestanden kandidaten worden voor archivering met cleanSource. Moet langer zijn dan 7 dagen voor DELETE. Geen minimale beperking voor MOVE.Beschikbaar in Databricks Runtime 16.4 en hoger. Standaardwaarde: 30 dagen |
cloudFiles.cleanSource.moveDestinationTyp: StringPad waarnaar verwerkte bestanden moeten worden gearchiveerd wanneer cloudFiles.cleanSource is ingesteld op MOVE.De verplaatsingslocatie is op de volgende manieren beperkt:
Auto Loader moet schrijfmachtigingen hebben voor deze map. Beschikbaar in Databricks Runtime 16.4 en hoger. Standaardwaarde: Geen |
cloudFiles.formatTyp: StringDe indeling van het gegevensbestand in het bronpad. Toegestane waarden zijn:
Standaard: Geen (vereiste optie) |
cloudFiles.includeExistingFilesTyp: BooleanOf u bestaande bestanden in het invoerpad voor stroomverwerking wilt opnemen of alleen nieuwe bestanden wilt verwerken die binnenkomen na de eerste installatie. Deze optie wordt alleen geëvalueerd wanneer u een stream voor de eerste keer start. Als u deze optie wijzigt nadat de stream opnieuw is opgestart, heeft dit geen effect. Standaardwaarde: true |
cloudFiles.inferColumnTypesTyp: BooleanOf u exacte kolomtypen wilt afleiden bij het gebruik van schemadeductie. Kolommen worden standaard afgeleid als tekenreeksen bij het afleiden van JSON- en CSV-gegevenssets. Zie schemadeductie voor meer informatie. Standaardwaarde: false |
cloudFiles.maxBytesPerTriggerTyp: Byte StringHet maximum aantal nieuwe bytes dat in elke trigger moet worden verwerkt. U kunt een bytetekenreeks opgeven, bijvoorbeeld 10g om elke microbatch te beperken tot 10 GB aan gegevens. Dit is een zacht maximum. Als u bestanden hebt die elk 3 GB zijn, verwerkt Azure Databricks 12 GB in een microbatch. Wanneer Azure Databricks samen met cloudFiles.maxFilesPerTrigger wordt gebruikt, verbruikt Azure Databricks tot de ondergrens van cloudFiles.maxFilesPerTrigger of cloudFiles.maxBytesPerTrigger, afhankelijk van welke het eerst wordt bereikt. Deze optie heeft geen effect wanneer deze wordt gebruikt met Trigger.Once() (Trigger.Once() is verouderd).Standaard: Geen |
cloudFiles.maxFileAgeTyp: Interval StringHoe lang een bestandsgebeurtenis wordt bijgehouden voor ontdubbelingsdoeleinden. Databricks raadt u aan deze parameter niet af te stemmen, tenzij u gegevens opneemt in de volgorde van miljoenen bestanden per uur. Zie de sectie over het bijhouden van bestandsevenementen voor meer informatie. Het afstemmen cloudFiles.maxFileAge kan te agressief leiden tot problemen met gegevenskwaliteit, zoals dubbele opname of ontbrekende bestanden. Daarom raadt Databricks een conservatieve instelling aan voor cloudFiles.maxFileAge, zoals 90 dagen, die vergelijkbaar is met wat vergelijkbare oplossingen voor gegevensopname aanbevelen.Standaard: Geen |
cloudFiles.maxFilesPerTriggerTyp: IntegerHet maximum aantal nieuwe bestanden dat in elke trigger moet worden verwerkt. Wanneer Azure Databricks samen met cloudFiles.maxBytesPerTrigger wordt gebruikt, verbruikt Azure Databricks tot de ondergrens van cloudFiles.maxFilesPerTrigger of cloudFiles.maxBytesPerTrigger, afhankelijk van welke het eerst wordt bereikt. Deze optie heeft geen effect wanneer deze wordt gebruikt met Trigger.Once() (afgeschaft).Standaard: 1000 |
cloudFiles.partitionColumnsTyp: StringEen door komma's gescheiden lijst met partitiekolommen in Hive-stijl die u wilt afleiden uit de mapstructuur van de bestanden. Partitiekolommen in Hive-stijl zijn sleutel-waardeparen gecombineerd door een gelijkheidsteken zoals <base-path>/a=x/b=1/c=y/file.format. In dit voorbeeld zijn ade partitiekolommen , ben c. Deze kolommen worden standaard automatisch aan uw schema toegevoegd als u schemaschatting gebruikt en de <base-path> opgeeft om gegevens uit te laden. Als u een schema opgeeft, verwacht Auto Loader dat deze kolommen worden opgenomen in het schema. Als u deze kolommen niet wilt gebruiken als onderdeel van uw schema, kunt u deze kolommen negeren "" . Daarnaast kunt u deze optie gebruiken als u wilt dat kolommen het bestandspad in complexe mapstructuren worden afgeleid, zoals in het onderstaande voorbeeld:<base-path>/year=2022/week=1/file1.csv<base-path>/year=2022/month=2/day=3/file2.csv<base-path>/year=2022/month=2/day=4/file3.csvHet specificeren van cloudFiles.partitionColumns als year,month,day retourneert year=2022 voor file1.csv, maar de kolommen month en day zijn null.month en day worden correct geparseerd voor file2.csv en file3.csv.Standaard: Geen |
cloudFiles.schemaEvolutionModeTyp: StringDe manier om het schema aan te passen wanneer nieuwe kolommen in de gegevens worden ontdekt. Standaard worden kolommen afgeleid als tekenreeksen bij het afleiden van JSON-gegevenssets. Zie de ontwikkeling van schema's voor meer informatie. Standaard: addNewColumns wanneer er geen schema wordt opgegeven, none anders |
cloudFiles.schemaHintsTyp: StringSchema-informatie die u aan Auto Loader verstrekt tijdens schema-inferentie. Zie schemahints voor meer informatie. Standaard: Geen |
cloudFiles.schemaLocationTyp: StringDe locatie voor het opslaan van het afgeleid schema en de volgende wijzigingen. Zie schemadeductie voor meer informatie. Standaard: Geen (vereist om het schema af te leiden) |
cloudFiles.useStrictGlobberTyp: BooleanOf u een strikte globber wilt gebruiken die overeenkomt met het standaardgedrag voor globbing van andere bestandsbronnen in Apache Spark. Zie Algemene patronen voor het laden van gegevens voor meer informatie. Beschikbaar in Databricks Runtime 12.2 LTS en hoger. Standaardwaarde: false |
cloudFiles.validateOptionsTyp: BooleanHet al dan niet valideren van Autoloader-opties en het geven van een foutmelding voor onbekende of inconsistente opties. Standaardwaarde: true |
Opties voor adreslijstvermelding
De volgende opties zijn relevant voor de lijstweergavemodus.
| Opties |
|---|
cloudFiles.useIncrementalListing (afgeschaft)Typ: StringDeze functie is afgeschaft. Databricks raadt aan om de modus voor bestandsmeldingen te gebruiken met bestandsevenementen in plaats van cloudFiles.useIncrementalListing.Of u de incrementele vermelding wilt gebruiken in plaats van de volledige vermelding in de modus voor adreslijstvermeldingen. Auto Loader zet standaard de beste moeite in om automatisch te detecteren of een bepaalde map geschikt is voor het incrementeel vermelden. U kunt de incrementele vermelding expliciet gebruiken of de volledige adreslijstvermelding gebruiken door deze in te stellen als true of false respectievelijk.Het onjuist inschakelen van incrementele vermeldingen in een niet-lexisch geordende map voorkomt dat Auto Loader nieuwe bestanden ontdekt. Werkt met Azure Data Lake Storage ( abfss://), S3 (s3://) en GCS (gs://).Beschikbaar in Databricks Runtime 9.1 LTS en hoger. Standaard: auto in Databricks Runtime 17.2 en lager, false op Databricks Runtime 17.3 en hogerBeschikbare waarden: auto, truefalse |
Opties voor bestandsmeldingen
De volgende opties zijn relevant voor de meldingsmodus voor bestanden.
| Opties |
|---|
cloudFiles.fetchParallelismTyp: IntegerHet aantal threads dat moet worden gebruikt bij het ophalen van berichten uit de wachtrijservice. Niet gebruiken wanneer cloudFiles.useManagedFileEvents is ingesteld op true.Standaard: 1 |
cloudFiles.pathRewritesType: Een JSON-tekenreeks Alleen vereist als u een queueUrl bestand opgeeft dat bestandsmeldingen van meerdere S3-buckets ontvangt en u koppelpunten wilt gebruiken die zijn geconfigureerd voor toegang tot gegevens in deze containers. Gebruik deze optie om het voorvoegsel van het bucket/key pad te herschrijven met het aankoppelpunt. Alleen voorvoegsels kunnen opnieuw worden geschreven. Voor de configuratie {"<databricks-mounted-bucket>/path": "dbfs:/mnt/data-warehouse"}wordt het pad s3://<databricks-mounted-bucket>/path/2017/08/fileA.json bijvoorbeeld herschreven naar dbfs:/mnt/data-warehouse/2017/08/fileA.json.Niet gebruiken wanneer cloudFiles.useManagedFileEvents is ingesteld op true.Standaard: Geen |
cloudFiles.resourceTagTyp: Map(String, String)Een reeks sleutel-waardetagparen om gerelateerde resources te koppelen en te identificeren, bijvoorbeeld: cloudFiles.option("cloudFiles.resourceTag.myFirstKey", "myFirstValue") .option("cloudFiles.resourceTag.mySecondKey", "mySecondValue")Zie Amazon SQS-tags voor kostentoewijzing en tags configureren voor een Amazon SNS-onderwerp voor meer informatie over AWS. (1) Voor meer informatie over Azure, zie Naamgevingswachtrijen en metagegevens en de dekking van properties.labels in gebeurtenisabonnementen. Auto Loader slaat deze sleutel-waarde tagparen op in JSON als labels.
(1)Zie Rapportagegebruik met labels voor meer informatie over GCP. (1) Niet gebruiken wanneer cloudFiles.useManagedFileEvents is ingesteld op true. Stel in plaats daarvan resourcetags in met behulp van de cloudproviderconsole.Standaard: Geen |
cloudFiles.useManagedFileEventsWanneer dit is ingesteld true, gebruikt Auto Loader de service voor bestandsevenementen om bestanden op uw externe locatie te detecteren. U kunt deze optie alleen gebruiken als het laadpad zich op een externe locatie bevindt waarop bestandsevenementen zijn ingeschakeld. Zie De modus Bestandsmelding gebruiken met bestandsevenementen.Bestandsgebeurtenissen bieden meldingenniveau prestaties in de ontdekking van nieuwe bestanden, omdat Auto Loader nieuwe bestanden kan ontdekken sinds de laatste uitvoering. In tegenstelling tot mapvermelding hoeft dit proces niet alle bestanden in de map weer te geven. Er zijn enkele situaties waarin Automatisch laden gebruikmaakt van een mapvermelding, ook al is de optie bestandsevenementen ingeschakeld:
Zie Wanneer gebruikt Auto Loader met bestandsevenementen een lijst met mappen? voor een uitgebreide lijst met situaties waarin Auto Loader gebruikmaakt van mapvermelding met deze optie. Beschikbaar in Databricks Runtime 14.3 LTS en hoger. |
cloudFiles.useNotificationsTyp: BooleanOf u de modus voor bestandsmeldingen wilt gebruiken om te bepalen wanneer er nieuwe bestanden zijn. Als false, gebruik de directorylistingmodus. Zie Vergelijk de detectiemodi voor automatisch laden van bestanden.Niet gebruiken wanneer cloudFiles.useManagedFileEvents is ingesteld op true.Standaardwaarde: false |
(1) Automatisch laadprogramma voegt standaard de volgende sleutel-waarde tagparen toe op basis van best effort:
-
vendor:Databricks -
path: de locatie waar de gegevens worden geladen. Niet beschikbaar in GCP vanwege labelbeperkingen. -
checkpointLocation: De locatie van het controlepunt van de stream. Niet beschikbaar in GCP vanwege labelbeperkingen. -
streamId: Een wereldwijd unieke id voor de stream.
Deze sleutelnamen zijn gereserveerd en u kunt hun waarden niet overschrijven.
Opties voor bestandsindeling
Met Auto Loader kunt u JSON, CSV, PARQUET, AVRO, TEXT, BINARYFILE en ORC bestanden opnemen.
- Algemene opties
-
JSONOpties -
CSVOpties -
XMLOpties -
PARQUETOpties -
AVROOpties -
BINARYFILEOpties -
TEXTOpties -
ORCOpties
Algemene opties
De volgende opties zijn van toepassing op alle bestandsindelingen.
| Optie |
|---|
ignoreCorruptFilesTyp: BooleanOf beschadigde bestanden moeten worden genegeerd. Als dit het geval is, zullen de Spark-taken blijven draaien wanneer ze beschadigde bestanden tegenkomen en zal de gelezen inhoud nog steeds worden teruggegeven. Waarneembaar als numSkippedCorruptFiles in deoperationMetrics kolom van de geschiedenis van Delta Lake. Beschikbaar in Databricks Runtime 11.3 LTS en hoger.Standaardwaarde: false |
ignoreMissingFilesTyp: BooleanOf ontbrekende bestanden moeten worden genegeerd. Als dit waar is, worden de Spark-taken voortgezet wanneer er ontbrekende bestanden worden aangetroffen en zal de gelezen inhoud nog steeds worden geretourneerd. Beschikbaar in Databricks Runtime 11.3 LTS en hoger. Standaardwaarde: false voor automatisch laden, true voor COPY INTO (verouderd) |
modifiedAfterType: Timestamp Stringbijvoorbeeld 2021-01-01 00:00:00.000000 UTC+0Een optionele tijdstempel als filter om alleen bestanden op te nemen die een wijzigingstijdstempel hebben na de opgegeven tijdstempel. Standaardwaarde: Geen |
modifiedBeforeType: Timestamp Stringbijvoorbeeld 2021-01-01 00:00:00.000000 UTC+0Een optionele tijdstempel als filter om alleen bestanden op te nemen met een wijzigingstijdstempel vóór de opgegeven tijdstempel. Standaardwaarde: Geen |
pathGlobFilter of fileNamePatternTyp: StringEen mogelijk globpatroon om bestanden te selecteren. Gelijk aan PATTERN in COPY INTO (verouderd).
fileNamePattern kan worden gebruikt in read_files.Standaardwaarde: Geen |
recursiveFileLookupTyp: BooleanMet deze optie wordt gezocht in geneste mappen, zelfs als hun namen geen partitienamenschema volgen, zoals bij date=2019-07-01. Standaardwaarde: false |
JSON Opties
| Optie |
|---|
allowBackslashEscapingAnyCharacterTyp: BooleanOf schuine strepen elk teken dat erop volgt kunnen laten ontsnappen. Als dit niet is ingeschakeld, kunnen alleen tekens die expliciet door de JSON-specificatie zijn vermeld, worden geëscaped. Standaardwaarde: false |
allowCommentsTyp: BooleanOf het gebruik van opmerkingen in java-, C- en C++-stijl ( '/', '*'en '//' variëteiten) binnen geparseerde inhoud al dan niet is toegestaan.Standaardwaarde: false |
allowNonNumericNumbersTyp: BooleanHiermee wordt aangegeven of de set tokens zonder getal ( NaN) mag worden toegestaan als juridische zwevende getalwaarden.Standaardwaarde: true |
allowNumericLeadingZerosTyp: BooleanOf u wilt toestaan dat integrale getallen beginnen met extra (negeerbare) nullen (bijvoorbeeld 000001).Standaardwaarde: false |
allowSingleQuotesTyp: BooleanHiermee wordt aangegeven of enkele aanhalingstekens (apostrof, teken '\') kunnen worden toegestaan voor het citeren van strings (namen en waarden).Standaardwaarde: true |
allowUnquotedControlCharsTyp: BooleanOf het is toegestaan JSON-tekenreeksen te laten bevatten ongedekte controletekens (ASCII-tekens met een waarde kleiner dan 32, inclusief tab- en regelinvoertekens) of niet. Standaardwaarde: false |
allowUnquotedFieldNamesTyp: BooleanOf het gebruik van niet-geciteerde veldnamen is toegestaan (die wel zijn toegestaan door JavaScript, maar niet door de JSON-specificatie). Standaardwaarde: false |
badRecordsPathTyp: StringHet pad voor het opslaan van bestanden voor het registreren van informatie over ongeldige JSON-records. Het gebruik van de badRecordsPath optie in een gegevensbron op basis van bestanden heeft de volgende beperkingen:
Standaardwaarde: Geen |
columnNameOfCorruptRecordTyp: StringDe kolom voor het opslaan van records die ongeldig zijn en die niet kunnen worden geïnterpreteerd. Als het mode voor parseren is ingesteld als DROPMALFORMED, is deze kolom leeg.Standaardwaarde: _corrupt_record |
dateFormatTyp: StringDe notatie voor het parseren van datumtekenreeksen. Standaardwaarde: yyyy-MM-dd |
dropFieldIfAllNullTyp: BooleanOf kolommen van alle null-waarden of lege matrices en structs tijdens schemadeductie moeten worden genegeerd. Standaardwaarde: false |
encoding of charsetTyp: StringDe naam van de codering van de JSON-bestanden. Zie java.nio.charset.Charset voor een lijst met opties. U kunt niet gebruiken UTF-16 en UTF-32 wanneer multiline is true.Standaardwaarde: UTF-8 |
inferTimestampTyp: BooleanWilt u proberen tijdstempeltekenreeksen af te leiden als een TimestampType? Wanneer ingesteld optrue, kan het aanzienlijk langer duren voordat schemadeductie is voltooid. U moet cloudFiles.inferColumnTypes inschakelen om te gebruiken met Auto Loader.Standaardwaarde: false |
lineSepTyp: StringEen string tussen twee opeenvolgende JSON-records. Standaardwaarde: Geen, wat betrekking heeft op \r, \r\n, en \n. |
localeTyp: StringEen java.util.Locale id. Beïnvloedt de standaarddatum, tijdstempel en decimale parsering binnen de JSON.Standaardwaarde: US |
modeTyp: StringParsermodus voor het afhandelen van onjuist gevormde records. Een van PERMISSIVE, DROPMALFORMEDof FAILFAST.Standaardwaarde: PERMISSIVE |
multiLineTyp: BooleanOf de JSON-records meerdere regels omvatten. Standaardwaarde: false |
prefersDecimalTyp: BooleanProbeert tekenreeksen af te leiden als DecimalType in plaats van float- of double-type, indien mogelijk. U moet ook schemadeductie gebruiken, ofwel door het inschakelen vaninferSchema of cloudFiles.inferColumnTypes gebruiken met Auto Loader.Standaardwaarde: false |
primitivesAsStringTyp: BooleanOf bepaalde primitieve typen zoals getallen en booleaanse waarden moeten worden afgeleid StringType.Standaardwaarde: false |
readerCaseSensitiveTyp: BooleanHiermee specificeert u het gedrag van hoofdlettergevoeligheid wanneer rescuedDataColumn is ingeschakeld. Indien waar, redt u de gegevenskolommen waarvan de namen verschillen per geval van het schema; lees anders de gegevens op een niet-hoofdlettergevoelige manier. Beschikbaar in Databricks Runtime13.3 en hoger. Standaardwaarde: true |
rescuedDataColumnTyp: StringOf u alle gegevens wilt verzamelen die niet kunnen worden geparseerd als gevolg van een niet-overeenkomend gegevenstype of niet-overeenkomende schema's (inclusief kolombehuizing) naar een afzonderlijke kolom. Deze kolom wordt standaard opgenomen bij het gebruik van automatisch laden. Raadpleeg voor meer details Wat is de kolom met geredde data?. COPY INTO (verouderd) biedt geen ondersteuning voor de kolom met geredde gegevens, omdat u het schema niet handmatig kunt instellen met behulp van COPY INTO. Databricks raadt het gebruik van autolaadprogramma's aan voor de meeste opnamescenario's.Standaardwaarde: Geen |
singleVariantColumnTyp: StringOf u het hele JSON-document wilt opnemen, geparseerd in één variantkolom met de opgegeven tekenreeks als de naam van de kolom. Als deze optie is uitgeschakeld, worden de JSON-velden opgenomen in hun eigen kolommen. Standaardwaarde: Geen |
timestampFormatTyp: StringHet formaat voor het parseren van tijdstempeltekenreeksen. Standaardwaarde: yyyy-MM-dd'T'HH:mm:ss[.SSS][XXX] |
timeZoneTyp: StringDe java.time.ZoneId te gebruiken bij het parseren van tijdstempels en datums.Standaardwaarde: Geen |
CSV Opties
| Optie |
|---|
badRecordsPathTyp: StringHet pad om bestanden op te slaan voor het vastleggen van de informatie over foute CSV-records. Standaardwaarde: Geen |
charToEscapeQuoteEscapingTyp: CharHet teken dat wordt gebruikt om het teken te escapen dat wordt gebruikt voor aanhalingstekens. Bijvoorbeeld voor de volgende record: [ " a\\", b ]
Standaardwaarde: '\0' |
columnNameOfCorruptRecordOndersteund voor automatisch laden. Niet ondersteund voor COPY INTO (verouderd).Typ: StringDe kolom voor het opslaan van records die ongeldig zijn en die niet kunnen worden geïnterpreteerd. Als het mode voor parseren is ingesteld als DROPMALFORMED, is deze kolom leeg.Standaardwaarde: _corrupt_record |
commentTyp: CharHiermee definieert u het teken dat een regelcommentaar aangeeft wanneer deze wordt gevonden aan het begin van een tekstregel. Hiermee '\0' schakelt u het overslaan van opmerkingen uit.Standaardwaarde: '\u0000' |
dateFormatTyp: StringDe notatie voor het parseren van datumtekenreeksen. Standaardwaarde: yyyy-MM-dd |
emptyValueTyp: StringTekenreeksweergave van een lege waarde. Standaardwaarde: "" |
encoding of charsetTyp: StringDe naam van de codering van de CSV-bestanden. Zie java.nio.charset.Charset voor de lijst met opties.
UTF-16 en UTF-32 kunnen niet worden gebruikt wanneer multilinetrue is.Standaardwaarde: UTF-8 |
enforceSchemaTyp: BooleanOf u het opgegeven of afgeleid schema geforceerd wilt toepassen op de CSV-bestanden. Als de optie is ingeschakeld, worden headers van CSV-bestanden genegeerd. Deze optie wordt standaard genegeerd wanneer u AutoLoader gebruikt om gegevens te redden en schemaontwikkeling mogelijk te maken. Standaardwaarde: true |
escapeTyp: CharHet escape-teken dat moet worden gebruikt bij het parseren van de gegevens. Standaardwaarde: '\' |
headerTyp: BooleanOf de CSV-bestanden een koptekst bevatten. Auto Loader gaat ervan uit dat bestanden headers hebben bij het uitstellen van het schema. Standaardwaarde: false |
ignoreLeadingWhiteSpaceTyp: BooleanOf u voorloopspaties voor elke geparseerde waarde wilt negeren. Standaardwaarde: false |
ignoreTrailingWhiteSpaceTyp: BooleanHiermee wordt aangegeven of u volgspaties voor elke geparseerde waarde wilt negeren. Standaardwaarde: false |
inferSchemaTyp: BooleanOf u de gegevenstypen van de geparseerde CSV-records wilt afleiden of ervan wilt uitgaan dat alle kolommen van StringTypezijn. Vereist een extra pass over de gegevens indien ingesteld op true. Gebruik voor Auto Loader in plaats daarvan cloudFiles.inferColumnTypes.Standaardwaarde: false |
lineSepTyp: StringEen string tussen twee opeenvolgende CSV-records. Standaardwaarde: Geen, wat betrekking heeft op \r, \r\n, en \n. |
localeTyp: StringEen java.util.Locale id. Beïnvloedt de standaarddatum, tijdstempel en decimale parsering in het CSV-bestand.Standaardwaarde: US |
maxCharsPerColumnTyp: IntMaximum aantal tekens dat wordt verwacht van een waarde om te parseren. Kan worden gebruikt om geheugenfouten te voorkomen. Standaard ingesteld op -1, wat onbeperkt betekent.Standaardwaarde: -1 |
maxColumnsTyp: IntDe vaste limiet van het aantal kolommen dat een record kan hebben. Standaardwaarde: 20480 |
mergeSchemaTyp: BooleanOf u het schema wilt afleiden over meerdere bestanden en het schema van elk bestand wilt samenvoegen. Standaard ingeschakeld voor Auto Loader bij het afleiden van het schema. Standaardwaarde: false |
modeTyp: StringParsermodus voor het afhandelen van onjuist gevormde records. Eén van 'PERMISSIVE','DROPMALFORMED', en 'FAILFAST'.Standaardwaarde: PERMISSIVE |
multiLineTyp: BooleanOf de CSV-records meerdere regels omvatten. Standaardwaarde: false |
nanValueTyp: StringDe tekenreeksweergave van een niet-getal waarde bij het parseren van FloatType- en DoubleType-kolommen.Standaardwaarde: "NaN" |
negativeInfTyp: StringDe tekenreeksweergave van negatieve oneindigheid bij het parseren van FloatType- of DoubleType-kolommen.Standaardwaarde: "-Inf" |
nullValueTyp: StringTekenreeksweergave van een null-waarde. Standaardwaarde: "" |
parserCaseSensitive (afgeschaft)Typ: BooleanTijdens het lezen van bestanden moet worden bepaald of kolommen in de koptekst hoofdlettergevoelig moeten worden uitgelijnd met het schema. Dit is true standaard voor autolaadprogramma's. Kolommen die per geval verschillen, worden in de rescuedDataColumn indien ingeschakelde kolom gered. Deze optie is afgeschaft ten gunste van readerCaseSensitive.Standaardwaarde: false |
positiveInfTyp: StringDe tekenreeksweergave van positieve oneindigheid bij het parseren van FloatType- of DoubleType-kolommen.Standaardwaarde: "Inf" |
preferDateTyp: BooleanProbeert indien mogelijk strings als datums te interpreteren in plaats van als een tijdstempel. U moet ook schemadeductie gebruiken, door inferSchema in te schakelen of door gebruik te maken vancloudFiles.inferColumnTypes met Auto-Loader.Standaardwaarde: true |
quoteTyp: CharHet teken dat wordt gebruikt om waarden te escapen waarbij het veldscheidingsteken deel uitmaakt van de waarde. Standaardwaarde: " |
readerCaseSensitiveTyp: BooleanHiermee specificeert u het gedrag van hoofdlettergevoeligheid wanneer rescuedDataColumn is ingeschakeld. Indien waar, redt u de gegevenskolommen waarvan de namen verschillen per geval van het schema; lees anders de gegevens op een niet-hoofdlettergevoelige manier.Standaardwaarde: true |
rescuedDataColumnTyp: StringOf u alle gegevens wilt verzamelen die niet kunnen worden geparseerd vanwege: een gegevenstype komt niet overeen en het schema komt niet overeen (inclusief kolombehuizing) in een afzonderlijke kolom. Deze kolom wordt standaard opgenomen bij het gebruik van automatisch laden. Raadpleeg Wat is de kolom voor geredde gegevens? voor meer informatie. COPY INTO (verouderd) biedt geen ondersteuning voor de kolom met geredde gegevens, omdat u het schema niet handmatig kunt instellen met behulp van COPY INTO. Databricks raadt het gebruik van autolaadprogramma's aan voor de meeste opnamescenario's.Standaardwaarde: Geen |
sep of delimiterTyp: StringDe scheidingstekenreeks tussen kolommen. Standaardwaarde: "," |
skipRowsTyp: IntHet aantal rijen vanaf het begin van het CSV-bestand dat moet worden genegeerd (inclusief opmerkingen en lege rijen). Als header waar is, is de koptekst de eerste niet-overgeslagen en niet als commentaar gemarkeerde rij.Standaardwaarde: 0 |
timestampFormatTyp: StringHet formaat voor het parseren van tijdstempeltekenreeksen. Standaardwaarde: yyyy-MM-dd'T'HH:mm:ss[.SSS][XXX] |
timeZoneTyp: StringDe java.time.ZoneId te gebruiken bij het parseren van tijdstempels en datums.Standaardwaarde: Geen |
unescapedQuoteHandlingTyp: StringDe strategie voor het behandelen van niet-geëscaleerde aanhalingstekens. Toegestane opties:
Standaardwaarde: STOP_AT_DELIMITER |
XML Opties
| Optie | Omschrijving | Omvang |
|---|---|---|
rowTag |
De rijtag van de XML-bestanden die moeten worden behandeld als een rij. In het voorbeeld-XML <books> <book><book>...<books>is bookde juiste waarde. Dit is een vereiste optie. |
lezen |
samplingRatio |
Definieert een fractie van rijen die worden gebruikt voor schemadeductie. Ingebouwde XML-functies negeren deze optie. Standaard: 1.0. |
lezen |
excludeAttribute |
Of kenmerken in elementen moeten worden uitgesloten. Standaard: false. |
lezen |
mode |
Modus voor het verwerken van beschadigde records tijdens het parseren.PERMISSIVE: Voor beschadigde records plaatst u de ongeldige tekenreeks in een veld dat is geconfigureerd door columnNameOfCorruptRecorden stelt u onjuiste velden in op null. Als u beschadigde records wilt behouden, kunt u een string typeveld instellen met de naam columnNameOfCorruptRecord in een door de gebruiker gedefinieerd schema. Als een schema het veld niet heeft, worden beschadigde records verwijderd tijdens het parseren. Bij het uitstellen van een schema voegt de parser impliciet een columnNameOfCorruptRecord veld toe aan een uitvoerschema.DROPMALFORMED: Hiermee worden beschadigde records genegeerd. Deze modus wordt niet ondersteund voor ingebouwde XML-functies.FAILFAST: Genereert een uitzondering wanneer de parser beschadigde gegevens tegenkomt. |
lezen |
inferSchema |
Als true, wordt geprobeerd een geschikt type voor elke resulterende DataFrame-kolom af te leiden. Als falsealle resulterende kolommen van het string type zijn. Standaard:true. Ingebouwde XML-functies negeren deze optie. |
lezen |
columnNameOfCorruptRecord |
Hiermee kunt u de naam van het nieuwe veld wijzigen dat een ongeldige tekenreeks bevat die is gemaakt doorPERMISSIVE modus. Standaard: spark.sql.columnNameOfCorruptRecord. |
lezen |
attributePrefix |
Het voorvoegsel voor kenmerken om kenmerken te onderscheiden van elementen. Dit is het voorvoegsel voor veldnamen. Standaard is _. Kan leeg zijn voor het lezen van XML, maar niet voor schrijven. |
lezen, schrijven |
valueTag |
De tag die wordt gebruikt voor de karakterdata in elementen die ook attribuut(en) of kindelement(en) bevatten. Gebruiker kan het valueTag veld in het schema opgeven of het wordt automatisch toegevoegd tijdens schemadeductie wanneer tekengegevens aanwezig zijn in elementen met andere elementen of kenmerken. Standaardwaarde: _VALUE |
lezen, schrijven |
encoding |
Voor het lezen decodeert u de XML-bestanden op basis van het opgegeven coderingstype. Voor schrijven geeft u codering (charset) van opgeslagen XML-bestanden op. Ingebouwde XML-functies negeren deze optie. Standaard: UTF-8. |
lezen, schrijven |
ignoreSurroundingSpaces |
Hiermee bepaalt u of de witte omringende spaties van de waarden die worden gelezen, moeten worden overgeslagen. Standaard: true. Gegevens die alleen uit witruimtetekens bestaan, worden genegeerd. |
lezen |
rowValidationXSDPath |
Pad naar een optioneel XSD-bestand dat wordt gebruikt om de XML voor elke rij afzonderlijk te valideren. Rijen die niet kunnen worden gevalideerd, worden behandeld als parsefouten zoals hierboven. De XSD heeft verder geen invloed op het verstrekte of afgeleide schema. | lezen |
ignoreNamespace |
Als true wordt toegepast, worden de voorvoegsels van naamruimten op XML-elementen en -kenmerken genegeerd. Tags <abc:author> en <def:author>, bijvoorbeeld, worden behandeld alsof ze alleen <author>zijn. Naamruimten kunnen niet worden genegeerd op het rowTag element, alleen de leesbare kindelementen. XML-parsering is niet naamruimtebewust, zelfs niet als false. Standaard: false. |
lezen |
timestampFormat |
Aangepaste tekenreeks voor tijdstempelnotatie die de datum/tijd-patroonnotatie volgt. Dit is van toepassing op timestamp het type. Standaard: yyyy-MM-dd'T'HH:mm:ss[.SSS][XXX]. |
lezen, schrijven |
timestampNTZFormat |
Aangepaste formaatstring voor tijdstempel zonder tijdzone die het datumpatroon volgt. Dit is van toepassing op het type TimestampNTZType. Standaard:yyyy-MM-dd'T'HH:mm:ss[.SSS] |
lezen, schrijven |
dateFormat |
Tekenreeks voor aangepaste datumnotatie die de datum/tijd-patroonnotatie volgt. Dit is van toepassing op het datumtype. Standaard: yyyy-MM-dd. |
lezen, schrijven |
locale |
Hiermee stelt u een locale in als taaltag volgens de IETF BCP 47-indeling. Wordt bijvoorbeeld locale gebruikt tijdens het parseren van datums en tijdstempels. Standaard: en-US. |
lezen |
rootTag |
Hoofdtag van de XML-bestanden. Bijvoorbeeld in <books> <book><book>...</books> is de juiste waarde books. U kunt basiskenmerken opnemen door een waarde op te geven zoals books foo="bar". Standaard: ROWS. |
schrijven |
declaration |
Inhoud van XML-declaratie die moet worden geschreven aan het begin van elk XML-uitvoerbestand, vóór de rootTag. Bijvoorbeeld, een waarde van foo zorgt ervoor dat <?xml foo?> wordt geschreven. Ingesteld op een lege tekenreeks zodat deze wordt onderdrukt. Standaardwaarde: version="1.0"encoding="UTF-8" standalone="yes". |
schrijven |
arrayElementName |
De naam van het XML-element dat elk element van een kolom met matrixwaarden omsluit bij het schrijven. Standaard: item. |
schrijven |
nullValue |
Hiermee stelt u de tekenreeksweergave van een null-waarde in. Standaard: tekenreeks null. Als dit het geval is null, schrijft de parser geen kenmerken en elementen voor velden. |
lezen, schrijven |
compression |
Compressiecode die moet worden gebruikt bij het opslaan in een bestand. Dit kan een van de bekende niet-hoofdlettergevoelige verkorte namen zijn (none, bzip2, gziplz4en snappydeflate). Ingebouwde XML-functies negeren deze optie. Standaard: none. |
schrijven |
validateName |
Als dat waar is, treedt er een fout op bij een validatiefout voor XML-elementnamen. SQL-veldnamen kunnen bijvoorbeeld spaties bevatten, maar namen van XML-elementen kunnen geen spaties bevatten. Standaard:true. |
schrijven |
readerCaseSensitive |
Hiermee geeft u het hoofdlettergevoeligheidsgedrag op wanneer rescuedDataColumn is ingeschakeld. Indien waar, redt u de gegevenskolommen waarvan de namen verschillen per geval van het schema; lees anders de gegevens op een niet-hoofdlettergevoelige manier. Standaard: true. |
lezen |
rescuedDataColumn |
Of u alle gegevens wilt verzamelen die niet kunnen worden geparseerd vanwege een niet-overeenkomend gegevenstype en niet-overeenkomende schema's (inclusief kolombehuizing) naar een afzonderlijke kolom. Deze kolom wordt standaard opgenomen bij het gebruik van automatisch laden. Zie Wat is de kolom met geredde gegevens? voor meer informatie.COPY INTO (verouderd) biedt geen ondersteuning voor de kolom met geredde gegevens, omdat u het schema niet handmatig kunt instellen met behulp van COPY INTO. Databricks raadt het gebruik van autolaadprogramma's aan voor de meeste opnamescenario's.Standaard: Geen. |
lezen |
singleVariantColumn |
Hiermee geeft u de naam van de kolom met één variant op. Als deze optie is opgegeven voor lezen, parseert u de hele XML-record in één variantkolom met de opgegeven optietekenreekswaarde als de naam van de kolom. Als deze optie wordt opgegeven bij het schrijven, schrijft u de waarde van de enkelvoudige Variant-kolom naar XML-bestanden. Standaard: none. |
lezen, schrijven |
PARQUET Opties
| Optie |
|---|
datetimeRebaseModeTyp: StringHiermee beheert u de rebasing van de DATUM- en TIJDSTEMPEL-waarden tussen de Juliaanse en de Proleptische Gregoriaanse kalenders. Toegestane waarden: EXCEPTION, LEGACYenCORRECTED.Standaardwaarde: LEGACY |
int96RebaseModeTyp: StringHiermee controleert u de rebasing van de INT96-tijdstempelwaarden tussen de Juliaanse en de Proleptische Gregoriaanse kalender. Toegestane waarden: EXCEPTION, LEGACYenCORRECTED.Standaardwaarde: LEGACY |
mergeSchemaTyp: BooleanOf u het schema wilt afleiden over meerdere bestanden en het schema van elk bestand wilt samenvoegen. Standaardwaarde: false |
readerCaseSensitiveTyp: BooleanHiermee specificeert u het gedrag van hoofdlettergevoeligheid wanneer rescuedDataColumn is ingeschakeld. Indien waar, redt u de gegevenskolommen waarvan de namen verschillen per geval van het schema; lees anders de gegevens op een niet-hoofdlettergevoelige manier.Standaardwaarde: true |
rescuedDataColumnTyp: StringOf u alle gegevens wilt verzamelen die niet kunnen worden geparseerd vanwege: een gegevenstype komt niet overeen en het schema komt niet overeen (inclusief kolombehuizing) in een afzonderlijke kolom. Deze kolom wordt standaard opgenomen bij het gebruik van automatisch laden. Raadpleeg Wat is de kolom voor geredde gegevens? voor meer informatie. COPY INTO (verouderd) biedt geen ondersteuning voor de kolom met geredde gegevens, omdat u het schema niet handmatig kunt instellen met behulp van COPY INTO. Databricks raadt het gebruik van autolaadprogramma's aan voor de meeste opnamescenario's.Standaardwaarde: Geen |
AVRO Opties
| Optie |
|---|
avroSchemaTyp: StringOptioneel schema gegeven door een gebruiker in Avro-indeling. Bij het lezen van Avro kan deze optie worden ingesteld op een ontwikkeld schema, dat compatibel is maar anders is met het werkelijke Avro-schema. Het deserialisatieschema is consistent met het ontwikkelde schema. Als u bijvoorbeeld een ontwikkeld schema instelt dat één extra kolom met een standaardwaarde bevat, bevat het leesresultaat ook de nieuwe kolom. Standaardwaarde: Geen |
datetimeRebaseModeTyp: StringHiermee beheert u de rebasing van de DATUM- en TIJDSTEMPEL-waarden tussen de Juliaanse en de Proleptische Gregoriaanse kalenders. Toegestane waarden: EXCEPTION, LEGACYenCORRECTED.Standaardwaarde: LEGACY |
mergeSchemaTyp: BooleanOf u het schema wilt afleiden over meerdere bestanden en het schema van elk bestand wilt samenvoegen. mergeSchema Bij Avro worden gegevenstypen niet versoepeld.Standaardwaarde: false |
readerCaseSensitiveTyp: BooleanHiermee specificeert u het gedrag van hoofdlettergevoeligheid wanneer rescuedDataColumn is ingeschakeld. Indien waar, redt u de gegevenskolommen waarvan de namen verschillen per geval van het schema; lees anders de gegevens op een niet-hoofdlettergevoelige manier.Standaardwaarde: true |
rescuedDataColumnTyp: StringOf u alle gegevens wilt verzamelen die niet kunnen worden geparseerd vanwege: een gegevenstype komt niet overeen en het schema komt niet overeen (inclusief kolombehuizing) in een afzonderlijke kolom. Deze kolom wordt standaard opgenomen bij het gebruik van automatisch laden. COPY INTO (verouderd) biedt geen ondersteuning voor de kolom met geredde gegevens, omdat u het schema niet handmatig kunt instellen met behulp van COPY INTO. Databricks raadt het gebruik van autolaadprogramma's aan voor de meeste opnamescenario's.Raadpleeg Wat is de kolom voor geredde gegevens? voor meer informatie. Standaardwaarde: Geen |
BINARYFILE Opties
Binaire bestanden hebben geen extra configuratieopties.
TEXT Opties
| Optie |
|---|
encodingTyp: StringDe naam van de codering van het scheidingsteken voor tekstbestandsregeldelers. Zie voor een lijst met opties java.nio.charset.Charset.De inhoud van het bestand wordt niet beïnvloed door deze optie en wordt gelezen as-is. Standaardwaarde: UTF-8 |
lineSepTyp: StringEen tekenreeks tussen twee opeenvolgende TEXT-records. Standaardwaarde: Geen, die betrekking heeft op \ren \r\n\n |
wholeTextTyp: BooleanOf u een bestand als één record wilt lezen. Standaardwaarde: false |
ORC Opties
| Optie |
|---|
mergeSchemaTyp: BooleanOf u het schema wilt afleiden over meerdere bestanden en het schema van elk bestand wilt samenvoegen. Standaardwaarde: false |
Cloudspecifieke opties
Auto Loader biedt een aantal opties voor het configureren van de cloudinfrastructuur.
AWS-specifieke opties
Geef alleen de volgende opties op als u kiest cloudFiles.useNotifications = true en u wilt dat automatisch laadprogramma de meldingsservices voor u instelt:
| Optie |
|---|
cloudFiles.regionTyp: StringDe regio waar de bron-S3-bucket zich bevindt en waar de AWS SNS- en SQS-services worden gemaakt. Standaard: de regio van het EC2-exemplaar. |
cloudFiles.restrictNotificationSetupToSameAWSAccountIdTyp: BooleanAlleen evenementmeldingen van AWS S3-buckets toestaan in hetzelfde account als hetzelfde SNS-onderwerp. Indien waar, accepteert Auto Loader alleen gebeurtenismeldingen van AWS S3-buckets in hetzelfde account als het SNS-onderwerp. Wanneer false, het toegangsbeleid geen instellingen voor buckets voor meerdere accounts en SNS-onderwerpen beperkt. Dit is handig wanneer het SNS-onderwerp en het bucketpad zijn gekoppeld aan verschillende accounts.Beschikbaar in Databricks Runtime 17.2 en hoger. Standaardwaarde: false |
|---|
Geef alleen de volgende optie op als u kiest cloudFiles.useNotifications = true en u wilt dat automatisch laadprogramma een wachtrij gebruikt die u al hebt ingesteld:
| Optie |
|---|
cloudFiles.queueUrlTyp: StringDe URL van de SQS-wachtrij. Indien opgegeven, gebruikt Auto Loader rechtstreeks gebeurtenissen uit deze wachtrij in plaats van eigen AWS SNS- en SQS-services in te stellen. Standaard: Geen |
AWS-authenticatieopties
Geef de volgende verificatieoptie op om een Databricks-servicereferentie te gebruiken:
| Optie |
|---|
databricks.serviceCredentialTyp: StringDe naam van uw Databricks-servicereferentie. Beschikbaar in Databricks Runtime 16.1 en hoger. Standaard: Geen |
Wanneer databricks-servicereferenties of IAM-rollen niet beschikbaar zijn, kunt u in plaats daarvan de volgende verificatieopties opgeven:
| Opties |
|---|
cloudFiles.awsAccessKeyTyp: StringDe AWS-toegangssleutel-id voor de gebruiker. Moet worden voorzien van cloudFiles.awsSecretKey.Standaard: Geen |
cloudFiles.awsSecretKeyTyp: StringDe GEHEIME AWS-toegangssleutel voor de gebruiker. Moet worden voorzien van cloudFiles.awsAccessKey.Standaard: Geen |
cloudFiles.roleArnTyp: StringHet ARN van een IAM-rol dat moet worden aangenomen, indien nodig. De rol kan worden aangenomen vanuit het instance-profiel van uw cluster of door referenties op te geven met cloudFiles.awsAccessKey en cloudFiles.awsSecretKey.Standaard: Geen |
cloudFiles.roleExternalIdTyp: StringEen identificator die moet worden opgegeven bij het aannemen van een rol met behulp van cloudFiles.roleArn.Standaard: Geen |
cloudFiles.roleSessionNameTyp: StringEen optionele sessienaam die moet worden gebruikt terwijl een rol wordt aangenomen met behulp van cloudFiles.roleArn.Standaard: Geen |
cloudFiles.stsEndpointTyp: StringEen optioneel eindpunt om toegang te krijgen tot AWS STS bij het aannemen van een rol met behulp van cloudFiles.roleArn.Standaard: Geen |
Azure-specifieke opties
U moet waarden opgeven voor alle volgende opties als u opgeeft cloudFiles.useNotifications = true en u wilt dat automatisch laadprogramma de meldingsservices voor u instelt:
| Opties |
|---|
cloudFiles.resourceGroupTyp: StringDe Azure-resourcegroep waaronder het opslagaccount wordt gemaakt. Standaard: Geen |
cloudFiles.subscriptionIdTyp: StringDe Azure-abonnements-id waaronder de resourcegroep wordt gemaakt. Standaard: Geen |
databricks.serviceCredentialTyp: StringDe naam van uw Databricks-servicereferentie. Beschikbaar in Databricks Runtime 16.1 en hoger. Standaard: Geen |
Als er geen Databricks-servicereferentie beschikbaar is, kunt u in plaats daarvan de volgende verificatieopties opgeven:
| Opties |
|---|
cloudFiles.clientIdTyp: StringDe client-id of de toepassings-id van de serviceprincipal. Standaard: Geen |
cloudFiles.clientSecretTyp: StringHet clientgeheim van de service-principal. Standaard: Geen |
cloudFiles.connectionStringTyp: StringDe verbindingsreeks voor het opslagaccount, gebaseerd op de toegangssleutel van het account of de SAS (Shared Access Signature). Standaard: Geen |
cloudFiles.tenantIdTyp: StringDe Azure-tenant-ID waaronder de service-principal wordt gemaakt. Standaard: Geen |
Belangrijk
Automatische inrichting van meldingen is beschikbaar in de Azure China- en Government-regio's met Databricks Runtime 9.1 en hoger. U moet een queueName opgeven om de Auto Loader te gebruiken met bestandsmeldingen in deze regio's voor oudere versies van Databricks Runtime.
Geef alleen de volgende optie op als u kiest cloudFiles.useNotifications = true en u wilt dat automatisch laadprogramma een wachtrij gebruikt die u al hebt ingesteld:
| Optie |
|---|
cloudFiles.queueNameTyp: StringDe naam van de Azure-wachtrij. Indien opgegeven, ontvangt de bron van cloudbestanden rechtstreeks gebeurtenissen uit deze wachtrij in plaats van zijn eigen Azure Event Grid- en Queue Storage-services in te richten. In dat geval zijn voor uw databricks.serviceCredential of cloudFiles.connectionString alleen leesrechten voor de wachtrij vereist.Standaard: Geen |
Google-specifieke opties
Auto Loader kan meldingsservices automatisch voor u instellen door gebruik te maken van Databricks-servicereferenties. Voor het serviceaccount dat is gemaakt met de Databricks-servicereferentie, zijn de machtigingen vereist die zijn gespecificeerd in Configureer Auto Loader streams in de bestandsmeldingsmodus.
| Opties |
|---|
cloudFiles.projectIdTyp: StringDe id van het project waarin de GCS-bucket zich bevindt. Het Google Cloud Pub/Sub-abonnement wordt ook in dit project gemaakt. Standaard: Geen |
databricks.serviceCredentialTyp: StringDe naam van uw Databricks-servicereferentie. Beschikbaar in Databricks Runtime 16.1 en hoger. Standaard: Geen |
Als er geen Databricks-servicereferentie beschikbaar is, kunt u Google-serviceaccounts rechtstreeks gebruiken. U kunt uw cluster configureren om aan te nemen dat een service-account wordt gebruikt door de installatie van de Google-service te volgen, of door de volgende authenticatieopties direct op te geven:
| Opties |
|---|
cloudFiles.clientTyp: StringDe client-id van het Google-serviceaccount. Standaard: Geen |
cloudFiles.clientEmailTyp: StringHet e-mailadres van het Google-serviceaccount. Standaard: Geen |
cloudFiles.privateKeyTyp: StringDe persoonlijke sleutel die wordt gegenereerd voor het Google-serviceaccount. Standaard: Geen |
cloudFiles.privateKeyIdTyp: StringDe id van de persoonlijke sleutel die wordt gegenereerd voor het Google-serviceaccount. Standaard: Geen |
Geef alleen de volgende optie op als u kiest cloudFiles.useNotifications = true en u wilt dat automatisch laadprogramma een wachtrij gebruikt die u al hebt ingesteld:
| Optie |
|---|
cloudFiles.subscriptionTyp: StringDe naam van het Google Cloud Pub/Sub-abonnement. Indien opgegeven, gebruikt de bron van cloudbestanden gebeurtenissen uit deze wachtrij in plaats van het instellen van eigen GCS-meldingen en Google Cloud Pub/Sub-diensten. Standaard: Geen |