Notitie
Voor toegang tot deze pagina is autorisatie vereist. U kunt proberen u aan te melden of de directory te wijzigen.
Voor toegang tot deze pagina is autorisatie vereist. U kunt proberen de mappen te wijzigen.
Belangrijk
Deze functie bevindt zich in openbare preview in de volgende regio's: , centralus, eastus, en eastus2northcentralus.westus
In dit artikel wordt beschreven hoe u een trainingssessie maakt en configureert met behulp van de gebruikersinterface voor fine-tuning van foundationmodellen (nu onderdeel van Mosaic AI Model Training). U kunt ook een uitvoering maken met behulp van de API. Zie Een trainingsuitvoering maken met behulp van de Foundation Model Fine-tuning-API voor instructies.
Eisen
Zie Vereisten.
Een trainingsuitvoering maken met behulp van de gebruikersinterface
Volg deze stappen om een trainingsuitvoering te maken met behulp van de gebruikersinterface.
Klik in de linkerzijbalk op Experimenten.
Klik op de kaart Foundation Model Fine-tuning en selecteer Mosaic AI Modelexperiment maken.
Het formulier Voor het verfijnen van het Foundation-model wordt geopend. Items die zijn gemarkeerd met een sterretje zijn vereist. Maak uw selecties en klik vervolgens op Training starten.
Typ: selecteer de taak die u wilt uitvoeren.
Opdracht Beschrijving Instructies fijn afstemmen Ga door met het trainen van een basismodel met prompt-en-antwoordinvoer om het model voor een specifieke taak te optimaliseren. Voortgezet voorafgaand leren Ga door met het trainen van een basismodel om het domeinspecifieke kennis te geven. Chatvoltooiing Ga door met het trainen van een basismodel met chatlogboeken om dit te optimaliseren voor Q&A- of gesprekstoepassingen. Basismodel selecteren: selecteer het model dat u wilt afstemmen of trainen. Zie Ondersteunde modellenvoor een lijst met ondersteunde modellen.
Trainingsgegevens: Klik op Blader om een tabel in Unity Catalog te selecteren, of voer de volledige URL in voor een Hugging Face dataset. Zie Aanbevolen gegevensgrootte voor modeltraining voor aanbevelingen over de grootte van gegevens.
Als u een tabel in Unity Catalog selecteert, moet u ook het rekenproces selecteren dat u wilt gebruiken om de tabel te lezen.
Registreren op locatie: selecteer de Unity Catalog-catalogus en het schema in de vervolgkeuzelijsten. Het getrainde model wordt opgeslagen op deze locatie.
modelnaam: het model wordt opgeslagen met deze naam in de catalogus en het schema dat u hebt opgegeven. In dit veld wordt een standaardnaam weergegeven, die u desgewenst kunt wijzigen.
Geavanceerde opties: Voor meer aanpassingen kunt u optionele instellingen configureren voor evaluatie, hyperparameterafstemming of trainen vanuit een bestaand eigen model.
Instelling Beschrijving Trainingsduur Duur van de trainingsuitvoering, opgegeven in tijdvakken (bijvoorbeeld 10ep) of tokens (bijvoorbeeld1000000tok). De standaardinstelling is1ep.Leersnelheid Het leerpercentage voor modeltraining. Alle modellen worden getraind met behulp van de AdamW optimizer, met opwarming van leersnelheid. De standaardleersnelheid kan per model verschillen. We raden u aan om een hyperparameter-sweep uit te voeren met verschillende leersnelheden en trainingsduur om de hoogste kwaliteitsmodellen te verkrijgen. Contextlengte De maximale reekslengte van een gegevensvoorbeeld. Gegevens die langer zijn dan deze instelling, worden afgekapt. De standaardwaarde is afhankelijk van het geselecteerde model. Evaluatiegegevens Klik op Bladeren om een tabel in Unity Catalog te selecteren of voer de volledige URL in voor een Hugging Face dataset. Als u dit veld leeg laat, wordt er geen evaluatie uitgevoerd. Prompts voor modelevaluatie Typ optionele aanwijzingen om het model te evalueren. Naam van experiment Standaard wordt voor elke uitvoering een nieuwe, automatisch gegenereerde naam toegewezen. U kunt desgewenst een aangepaste naam invoeren of een bestaand experiment selecteren in de vervolgkeuzelijst. Aangepaste gewichten Standaard begint de training met de oorspronkelijke gewichten van het geselecteerde model. Als u wilt beginnen met een controlepunt dat is geproduceerd door de fine-tuning API, voert u het pad in naar de MLflow-artefactenmap die het controlepunt bevat.
OPMERKING: Als u vóór 26-3-2025 een model hebt getraind, kunt u niet langer continu trainen vanaf die modelcontrolepunten. Eventuele eerder voltooide trainingsuitvoeringen kunnen nog steeds zonder probleem worden geleverd met geprovisioneerde doorvoer.
Volgende stappen
Nadat de trainingsuitvoering is voltooid, kunt u metrische gegevens bekijken in MLflow en uw model implementeren voor deductie. Zie stappen 5 tot en met 7 van Zelfstudie: Een fine-tuning run voor een Foundation Model maken en uitvoeren.
Zie het demonstratienotitieblok: Naam Entity Recognition voor een voorbeeld van instructiefinetuning dat door de datavoorbereiding, de configuratie van de training en de implementatie loopt.