Freigeben über


Empfohlene Modelle des Foundry-Modellkatalogs

Der Foundry-Modellkatalog bietet eine große Auswahl an Modellen aus einer vielzahl von Anbietern. Sie haben verschiedene Optionen zum Bereitstellen von Modellen aus dem Modellkatalog. In diesem Artikel werden empfohlene Modelle im Modellkatalog aufgeführt, die über Standardbereitstellungen auf Microsoft-Servern bereitgestellt und gehostet werden können. Einige dieser Modelle können Sie auch auf Ihrer Infrastruktur hosten, um sie über verwaltetes Compute bereitzustellen. Unter "Verfügbare Modelle für unterstützte Bereitstellungsoptionen " finden Sie Modelle im Katalog, die für die Bereitstellung über verwaltete Compute- oder Standardbereitstellungen verfügbar sind.

Um Rückschlüsse mit den Modellen durchzuführen, erfordern einige Modelle wie TimeGEN-1 von Nixtla und Cohere rerank die Verwendung benutzerdefinierter APIs der Modellanbieter. Andere unterstützen das Ableiten von Ableitungen mithilfe des Azure AI-Modells. Weitere Details zu einzelnen Modellen finden Sie, indem Sie ihre Modellkarten im Modellkatalog überprüfen.

Eine Animation mit dem Abschnitt

AI21 Labs

Jamba-Familienmodelle sind auf Mamba basierende, produktionstaugliche Large Language Models (LLM) von AI21, die die hybride Mamba-Transformer-Architektur von AI21 nutzen. Es ist eine anweisungsoptimierte Version des hybriden strukturierten Zustandsraummodells (State Space Model, SSM) des Jamba-Transformer-Modells von AI21. Im Hinblick auf Qualität und Leistung sind die Jamba-Familienmodelle auf die zuverlässige kommerzielle Nutzung ausgerichtet.

Model Type Capabilities
AI21-Jamba-1.5-Mini chat-completion - Eingabe: Text (262.144 Token)
- Ausgabe: Text (4.096 Token)
- Toolaufrufe: Ja
- Antwortformate: Text, JSON, strukturierte Ausgaben
AI21-Jamba-1.5-Large chat-completion - Eingabe: Text (262.144 Token)
- Ausgabe: Text (4.096 Token)
- Toolaufrufe: Ja
- Antwortformate: Text, JSON, strukturierte Ausgaben

Sehen Sie sich diese Modellauflistung im Modellkatalog an.

Azure OpenAI

Azure OpenAI in Microsoft Foundry Models bietet eine Vielzahl von Modellen mit unterschiedlichen Funktionen und Preispunkten. Zu diesen Modellen gehören folgende:

  • Modernste Modelle, die für die Behandlung von Schlussfolgerungs- und Problemlösungsaufgaben mit erhöhtem Fokus und mehr Funktionalität konzipiert sind
  • Modelle, die natürliche Sprache und Code verstehen und generieren können
  • Modelle, die Sprache transkribieren und in Text übersetzen können
Model Type Capabilities
o3-mini chat-completion - Eingabe: Text und Bild (200.000 Token)
- Ausgabe: Text (100.000 Token)
- Toolaufrufe: Ja
- Antwortformate: Text, JSON, strukturierte Ausgaben
o1 Chatabschluss (mit Bildern) - Eingabe: Text und Bild (200.000 Token)
- Ausgabe: Text (100.000 Token)
- Toolaufrufe: Ja
- Antwortformate: Text, JSON, strukturierte Ausgaben
o1-preview chat-completion - Eingabe: Text (128.000 Token)
- Ausgabe: Text (32.768 Token)
- Toolaufrufe: Ja
- Antwortformate: Text, JSON, strukturierte Ausgaben
o1-mini chat-completion - Eingabe: Text (128.000 Token)
- Ausgabe: Text (65.536 Token)
- Toolaufrufe: Nein
- Antwortformate: Text
gpt-4o-realtime-preview real-time - Eingabe: Steuerelement, Text und Audio (131.072 Token)
- Ausgabe: Text und Audio (16.384 Token)
- Toolaufrufe: Ja
- Antwortformate: Text, JSON
gpt-4o Chatabschluss (mit Bild- und Audioinhalten) - Eingabe: Text, Bild und Audio (131.072 Token)
- Ausgabe: Text (16,384 Token)
- Toolaufrufe: Ja
- Antwortformate: Text, JSON, strukturierte Ausgaben
gpt-4o-mini Chatabschluss (mit Bild- und Audioinhalten) - Eingabe: Text, Bild und Audio (131.072 Token)
- Ausgabe: Text (16,384 Token)
- Toolaufrufe: Ja
- Antwortformate: Text, JSON, strukturierte Ausgaben
text-embedding-3-large embeddings - Eingabe: Text (8.191 Token)
- Ausgabe: Vektor (3.072 Dim.)
text-embedding-3-small embeddings - Eingabe: Text (8.191 Token)
- Ausgabe: Vektor (1.536 Dim.)

Sehen Sie sich diese Modellauflistung im Modellkatalog an.

Cohere

Die Cohere-Modellfamilie umfasst verschiedene Modelle, die für unterschiedliche Anwendungsfälle optimiert sind, darunter Reranking, Chat-Fertigstellungen und Einbettungsmodelle.

Cohere-Befehl und Einbetten

In der folgenden Tabelle sind die Cohere-Modelle aufgeführt, die Sie über das Azure AI-Modell inference ableiten können.

Model Type Capabilities
Cohere-command-A chat-completion - Eingabe: Text (256.000 Token)
- Ausgabe: Text (8 000 Token)
- Toolaufrufe: Ja
- Antwortformate: Text
Cohere-command-r-plus-08-2024 chat-completion - Eingabe: Text (131.072 Token)
- Ausgabe: Text (4.096 Token)
- Toolaufrufe: Ja
- Antwortformate: Text, JSON
Cohere-command-r-08-2024 chat-completion - Eingabe: Text (131.072 Token)
- Ausgabe: Text (4.096 Token)
- Toolaufrufe: Ja
- Antwortformate: Text, JSON
Cohere-command-r-plus
(deprecated)
chat-completion - Eingabe: Text (131.072 Token)
- Ausgabe: Text (4.096 Token)
- Toolaufrufe: Ja
- Antwortformate: Text, JSON
Cohere-command-r
(deprecated)
chat-completion - Eingabe: Text (131.072 Token)
- Ausgabe: Text (4.096 Token)
- Toolaufrufe: Ja
- Antwortformate: Text, JSON
Cohere-embed-4 embeddings
image-embeddings
- Eingabe: Bild, Text
- Ausgabe: Bild, Text (128.000 Token)
- Toolaufrufe: Ja
- Antwortformate: Bild, Text
Cohere-embed-v3-english embeddings
image-embeddings
- Eingabe: Text (512 Token)
- Ausgabe: Vektor (1.024 Dim.)
Cohere-embed-v3-multilingual embeddings
image-embeddings
- Eingabe: Text (512 Token)
- Ausgabe: Vektor (1.024 Dim.)

Rückschlussbeispiele: Cohere-Befehl und Einbetten

Weitere Beispiele für die Verwendung von Cohere-Modellen finden Sie in den folgenden Beispielen:

Description Language Sample
Webanforderungen Bash Command-RCommand-R+
cohere-embed.ipynb
Azure KI-Rückschlusspaket für C# C# Link
Azure KI-Rückschlusspaket für JavaScript JavaScript Link
Azure KI-Inferenzpaket für Python Python Link
OpenAI SDK (experimentell) Python Link
LangChain Python Link
Cohere SDK Python Command
Embed
LiteLLM SDK Python Link

Retrieval Augmented Generation (RAG) und Toolbeispielen: Befehle und Einbetten

Description Packages Sample
Erstellen eines lokalen FAISS-Vektorindex (Facebook AI Similarity Search) mithilfe von Cohere-Einbettungen: Langchain langchain, langchain_cohere cohere_faiss_langchain_embed.ipynb
Verwenden von Cohere Command R/R+ zum Beantworten von Fragen mit Daten im lokalen FAISS-Vektorindex: Langchain langchain, langchain_cohere command_faiss_langchain.ipynb
Verwenden von Cohere Command R/R+ zum Beantworten von Fragen mit Daten im KI-Suchvektorindex: Langchain langchain, langchain_cohere cohere-aisearch-langchain-rag.ipynb
Verwenden von Cohere Command R/R+ zum Beantworten von Fragen mit Daten im KI-Suchvektorindex: Cohere SDK cohere, azure_search_documents cohere-aisearch-rag.ipynb
Aufrufen von Command R+-Tools/-Funktionen mit LangChain cohere, langchainlangchain_cohere command_tools-langchain.ipynb

Cohere Rerank

In der folgenden Tabelle sind die Cohere-Neurankungsmodelle aufgeführt. Um Schlussfolgerungen mit diesen Rerank-Modellen zu ziehen, müssen Sie die benutzerdefinierten Rerank-APIs von Cohere verwenden, die in der Tabelle aufgeführt sind.

Model Type Rückschluss-API
Cohere-rerank-v3.5 rerank
text classification
Cohere v2/rerank API
Cohere-rerank-v3-english
(deprecated)
rerank
text classification
Cohere v2/rerank API
Coheres v1/rerank-API
Cohere-rerank-v3-multilingual
(deprecated)
rerank
text classification
Cohere v2/rerank API
Coheres v1/rerank-API

Preise für Cohere Rerank-Modelle

Abfragen, die nicht mit der Abfrage eines Benutzers verwechselt werden sollen, ist ein Preismesser, der sich auf die Kosten bezieht, die mit den Token verbunden sind, die als Eingabe für die Ableitung eines Cohere Rerank-Modells verwendet werden. Cohere zählt eine einzelne Sucheinheit als Abfrage mit bis zu 100 Dokumenten, die bewertet werden sollen. Dokumente, die zusammen mit der Länge der Suchanfrage länger als 500 Token (für Cohere-rerank-v3.5) oder länger als 4096 Token (für Cohere-rerank-v3-English und Cohere-rerank-v3-multilingual) sind, werden in mehrere Abschnitte aufgeteilt, wobei jeder Abschnitt als ein einzelnes Dokument zählt.

Siehe die Cohere-Modellauflistung im Modellkatalog.

Core42

Core42 umfasst autoregressive bilinguale LLMs für Arabisch und Englisch mit modernsten Funktionen in Arabisch.

Model Type Capabilities
jais-30b-chat chat-completion - Eingabe: Text (8.192 Token)
- Ausgabe: Text (4.096 Token)
- Toolaufrufe: Ja
- Antwortformate: Text, JSON

Sehen Sie sich diese Modellauflistung im Modellkatalog an.

Ableitungsbeispiele: Core42

Weitere Beispiele für die Verwendung von Jais-Modellen finden Sie in den folgenden Beispielen:

Description Language Sample
Azure KI-Rückschlusspaket für C# C# Link
Azure KI-Rückschlusspaket für JavaScript JavaScript Link
Azure KI-Inferenzpaket für Python Python Link

DeepSeek

Die DeepSeek-Modellfamilie umfasst DeepSeek-R1, das sich bei Aufgaben wie Sprachverständnis, wissenschaftlichem Denken und Codierungsaufgaben durch einen schrittweisen Schulungsprozess auszeichnet, DeepSeek-V3-0324, einem Mix-of-Experts (MoE)-Sprachmodell, und vieles mehr.

Model Type Capabilities
DeekSeek-V3-0324 chat-completion - Eingabe: Text (131.072 Token)
- Ausgabe: (131.072 Token)
- Toolaufrufe: Nein
- Antwortformate: Text, JSON
DeepSeek-V3
(Legacy)
chat-completion - Eingabe: Text (131.072 Token)
- Ausgabe: Text (131.072 Token)
- Toolaufrufe: Nein
- Antwortformate: Text, JSON
DeepSeek-R1 Chatabschluss mit inhaltlicher Begründung - Eingabe: Text (163.840 Token)
- Ausgabe: Text (163.840 Token)
- Toolaufrufe: Nein
- Antwortformate: Text.

Ein Lernprogramm zu DeepSeek-R1 finden Sie im Lernprogramm: Erste Schritte mit DeepSeek-R1 Schlussfolgerungsmodell in Azure AI-Modellinferenz.

Sehen Sie sich diese Modellauflistung im Modellkatalog an.

Beispiele für Inference: DeepSeek

Weitere Beispiele für die Verwendung von DeepSeek-Modellen finden Sie in den folgenden Beispielen:

Description Language Sample
Azure KI-Inferenzpaket für Python Python Link
Azure KI-Rückschlusspaket für JavaScript JavaScript Link
Azure KI-Rückschlusspaket für C# C# Link
Azure KI-Rückschlusspaket für Java Java Link

Meta

Meta Llama-Modelle und -Tools sind eine Sammlung vortrainierter und optimierter Text- und Bildbegründungsmodelle mit generativer KI. Die Palette der Meta-Modelle umfasst Folgendes:

  • Kleine Sprachmodelle (Small Language Models, SLMs) wie 1B- und 3B-Basismodelle und -Instruct-Modelle für Rückschlüsse auf dem Gerät und am Edge
  • Mittlere große Sprachmodelle (LLMs) wie 7B-, 8B- und 70B-Basis- und Instruct-Modelle
  • Hochleistungsfähige Modelle wie Meta Llama 3.1 405B Instruct für synthetische Datengenerierung und Destillation
  • Leistungsstarke, systemeigene multimodale Modelle, Llama 4 Scout und Llama 4 Maverick, nutzen eine Mischung aus Expertenarchitektur, um branchenführende Leistung im Text- und Bildverständnis zu bieten.
Model Type Capabilities
Llama-4-Scout-17B-16E-Instruct chat-completion - Eingabe: Text und Bild (128.000 Token)
- Ausgabe: Text (8.192 Token)
- Toolaufrufe: Ja
- Antwortformate: Text
Llama 4-Maverick-17B-128E-Instruct-FP8 chat-completion - Eingabe: Text und Bild (128.000 Token)
- Ausgabe: Text (8.192 Token)
- Toolaufrufe: Ja
- Antwortformate: Text
Llama-3.3-70B-Instruct chat-completion - Eingabe: Text (128.000 Token)
- Ausgabe: Text (8.192 Token)
- Toolaufrufe: Nein
- Antwortformate: Text
Llama-3.2-90B-Vision-Instruct Chatabschluss (mit Bildern) - Eingabe: Text und Bild (128.000 Token)
- Ausgabe: Text (8.192 Token)
- Toolaufrufe: Nein
- Antwortformate: Text
Llama-3.2-11B-Vision-Instruct Chatabschluss (mit Bildern) - Eingabe: Text und Bild (128.000 Token)
- Ausgabe: Text (8.192 Token)
- Toolaufrufe: Nein
- Antwortformate: Text
Meta-Llama-3.1-8B-Instruct chat-completion - Eingabe: Text (131.072 Token)
- Ausgabe: Text (8.192 Token)
- Toolaufrufe: Nein
- Antwortformate: Text
Meta-Llama-3.1-405B-Instruct chat-completion - Eingabe: Text (131.072 Token)
- Ausgabe: Text (8.192 Token)
- Toolaufrufe: Nein
- Antwortformate: Text
Meta-Llama-3.1-70B-Instruct (veraltet) chat-completion - Eingabe: Text (131.072 Token)
- Ausgabe: Text (8.192 Token)
- Toolaufrufe: Nein
- Antwortformate: Text
Meta-Llama-3-8B-Instruct (veraltet) chat-completion - Eingabe: Text (8.192 Token)
- Ausgabe: Text (8.192 Token)
- Toolaufrufe: Nein
- Antwortformate: Text
Meta-Llama-3-70B-Instruct (veraltet) chat-completion - Eingabe: Text (8.192 Token)
- Ausgabe: Text (8.192 Token)
- Toolaufrufe: Nein
- Antwortformate: Text

Sehen Sie sich diese Modellauflistung im Modellkatalog an.

Ableitungsbeispiele: Meta Llama

Weitere Beispiele für die Verwendung von Meta-Llama-Modellen finden Sie in den folgenden Beispielen:

Description Language Sample
CURL-Anforderung Bash Link
Azure KI-Rückschlusspaket für C# C# Link
Azure KI-Rückschlusspaket für JavaScript JavaScript Link
Azure KI-Inferenzpaket für Python Python Link
Python-Webanforderungen Python Link
OpenAI SDK (experimentell) Python Link
LangChain Python Link
LiteLLM Python Link

Microsoft

Microsoft-Modelle umfassen verschiedene Modellgruppen wie MAI-Modelle, Phi-Modelle, KI-Modelle im Gesundheitswesen und vieles mehr. Um alle verfügbaren Microsoft-Modelle anzuzeigen, zeigen Sie die Microsoft-Modellsammlung im Foundry-Portal an.

Model Type Capabilities
MAI-DS-R1 Chatabschluss mit inhaltlicher Begründung - Eingabe: Text (163.840 Token)
- Ausgabe: Text (163.840 Token)
- Toolaufrufe: Nein
- Antwortformate: Text.
Phi-4-reasoning Chatabschluss mit inhaltlicher Begründung - Eingabe: Text (32768-Token)
- Ausgabe: Text (32768-Token)
- Toolaufrufe: Nein
- Antwortformate: Text
Phi-4-mini-reasoning Chatabschluss mit inhaltlicher Begründung - Eingabe: Text (128.000 Token)
- Ausgabe: Text (128.000 Token)
- Toolaufrufe: Nein
- Antwortformate: Text
Phi-4-multimodal-instruct Chatabschluss (mit Bild- und Audioinhalten) - Eingabe: Text, Bilder und Audio (131.072 Token)
- Ausgabe: Text (4.096 Token)
- Toolaufrufe: Nein
- Antwortformate: Text
Phi-4-mini-instruct chat-completion - Eingabe: Text (131.072 Token)
- Ausgabe: Text (4.096 Token)
- Toolaufrufe: Nein
- Antwortformate: Text
Phi-4 chat-completion - Eingabe: Text (16.384 Token)
- Ausgabe: Text (16,384 Token)
- Toolaufrufe: Nein
- Antwortformate: Text
Phi-3.5-mini-instruct chat-completion - Eingabe: Text (131.072 Token)
- Ausgabe: Text (4.096 Token)
- Toolaufrufe: Nein
- Antwortformate: Text
Phi-3.5-MoE-instruct chat-completion - Eingabe: Text (131.072 Token)
- Ausgabe: Text (4.096 Token)
- Toolaufrufe: Nein
- Antwortformate: Text
Phi-3.5-vision-instruct Chatabschluss (mit Bildern) - Eingabe: Text und Bild (131.072 Token)
- Ausgabe: Text (4.096 Token)
- Toolaufrufe: Nein
- Antwortformate: Text
Phi-3-mini-128k-instruct chat-completion - Eingabe: Text (131.072 Token)
- Ausgabe: Text (4.096 Token)
- Toolaufrufe: Nein
- Antwortformate: Text
Phi-3-mini-4k-instruct chat-completion - Eingabe: Text (4.096 Token)
- Ausgabe: Text (4.096 Token)
- Toolaufrufe: Nein
- Antwortformate: Text
Phi-3-small-128k-instruct chat-completion - Eingabe: Text (131.072 Token)
- Ausgabe: Text (4.096 Token)
- Toolaufrufe: Nein
- Antwortformate: Text
Phi-3-small-8k-instruct chat-completion - Eingabe: Text (131.072 Token)
- Ausgabe: Text (4.096 Token)
- Toolaufrufe: Nein
- Antwortformate: Text
Phi-3-medium-128k-instruct chat-completion - Eingabe: Text (131.072 Token)
- Ausgabe: Text (4.096 Token)
- Toolaufrufe: Nein
- Antwortformate: Text
Phi-3-medium-4k-instruct chat-completion - Eingabe: Text (4.096 Token)
- Ausgabe: Text (4.096 Token)
- Toolaufrufe: Nein
- Antwortformate: Text

Rückschlussbeispiele: Microsoft-Modelle

Weitere Beispiele für die Verwendung von Microsoft-Modellen finden Sie in den folgenden Beispielen:

Description Language Sample
Azure KI-Rückschlusspaket für C# C# Link
Azure KI-Rückschlusspaket für JavaScript JavaScript Link
Azure KI-Inferenzpaket für Python Python Link
LangChain Python Link
Llama-Index Python Link

Weitere Informationen finden Sie in der Microsoft-Modellsammlung im Modellkatalog.

Mistral KI

Mistral AI bietet zwei Modellkategorien:

  • Premiummodelle: Dazu gehören Mistral Large, Mistral Small, Mistral-OCR-2503, Mistral Medium 3 (25.05) und Ministral 3B Modelle und sind als serverlose APIs mit kostenpflichtiger tokenbasierter Abrechnung verfügbar.
  • Offene Modelle: Dazu gehören Mistral-small-2503, Codestral und Mistral Nemo (die als serverlose APIs mit pay-as-you-go tokenbasierte Abrechnung verfügbar sind) und Mixtral-8x7B-Instruct-v01, Mixtral-8x7B-v01, Mistral-7B-Instruct-v01 und Mistral-7B-v01(die zum Herunterladen und Ausführen auf selbst gehosteten verwalteten Endpunkten verfügbar sind).
Model Type Capabilities
Codestral-2501 chat-completion - Eingabe: Text (262.144 Token)
- Ausgabe: Text (4.096 Token)
- Toolaufrufe: Nein
- Antwortformate: Text
Ministral-3B chat-completion - Eingabe: Text (131.072 Token)
- Ausgabe: Text (4.096 Token)
- Toolaufrufe: Ja
- Antwortformate: Text, JSON
Mistral-Nemo chat-completion - Eingabe: Text (131.072 Token)
- Ausgabe: Text (4.096 Token)
- Toolaufrufe: Ja
- Antwortformate: Text, JSON
Mistral-Large-2411 chat-completion - Eingabe: Text (128.000 Token)
- Ausgabe: Text (4.096 Token)
- Toolaufrufe: Ja
- Antwortformate: Text, JSON
Mistral-large-2407
(deprecated)
chat-completion - Eingabe: Text (131.072 Token)
- Ausgabe: Text (4.096 Token)
- Toolaufrufe: Ja
- Antwortformate: Text, JSON
Mistral-large
(deprecated)
chat-completion - Eingabe: Text (32.768 Token)
- Ausgabe: Text (4.096 Token)
- Toolaufrufe: Ja
- Antwortformate: Text, JSON
Mistral-medium-2505 chat-completion - Eingabe: Text (128.000 Token), Bild
- Ausgabe: Text (128.000 Token)
- Toolaufrufe: Nein
- Antwortformate: Text, JSON
Mistral-OCR-2503 Bild in Text - Eingabe: Bild- oder PDF-Seiten (1.000 Seiten, max. 50 MB PDF-Datei)
- Ausgabe: Text
- Toolaufrufe: Nein
- Antwortformate: Text, JSON, Markdown
Mistral-small-2503 Chatabschluss (mit Bildern) - Eingabe: Text und Bilder (131.072 Token),
Bildbasierte Token sind 16px x 16px
Blöcke der Originalimages
- Ausgabe: Text (4.096 Token)
- Toolaufrufe: Ja
- Antwortformate: Text, JSON
Mistral-small chat-completion - Eingabe: Text (32.768 Token)
- Ausgabe: Text (4.096 Token)
- Toolaufrufe: Ja
- Antwortformate: Text, JSON

Sehen Sie sich diese Modellauflistung im Modellkatalog an.

Rückschlussbeispiele: Mistral

Weitere Beispiele für die Verwendung von Mistral-Modellen finden Sie in den folgenden Beispielen und Tutorials:

Description Language Sample
CURL-Anforderung Bash Link
Azure KI-Rückschlusspaket für C# C# Link
Azure KI-Rückschlusspaket für JavaScript JavaScript Link
Azure KI-Inferenzpaket für Python Python Link
Python-Webanforderungen Python Link
OpenAI SDK (experimentell) Python Mistral - OpenAI SDK-Beispiel
LangChain Python Mistral - LangChain-Beispiel
Mistral KI Python Mistral - Mistral AI-Beispiel
LiteLLM Python Mistral - LiteLLM-Beispiel

Nixtla

Nixtlas TimeGEN-1 ist ein generatives vortrainiertes Prognose- und Anomalieerkennungsmodell für Zeitreihendaten. TimeGEN-1 kann genaue Prognosen für neue Zeitreihen ohne Training generieren, wobei nur Verlaufswerte und exogene Kovariate als Eingaben verwendet werden.

Zum Durchführen der Ableitung erfordert TimeGEN-1, dass Sie die benutzerdefinierte Ableitungs-API von Nixtla verwenden.

Model Type Capabilities Rückschluss-API
TimeGEN-1 Forecasting - Eingabe: Zeitreihendaten als JSON oder Datenrahmen (mit Unterstützung für multivariate Eingaben)
- Ausgabe: Zeitreihendaten als JSON
- Toolaufrufe: Nein
- Antwortformate: JSON
Prognoseclient für die Interaktion mit der Nixtla-API

Schätzen der Anzahl der benötigten Tokens

Bevor Sie eine TimeGEN-1-Bereitstellung erstellen, empfiehlt es sich, die Anzahl der Token zu schätzen, die Sie nutzen und abrechnen möchten. Ein Token entspricht einem Datenpunkt in Ihrem Eingabedataset oder Ausgabedataset.

Angenommen, Sie verwenden das folgende Eingabedataset für Zeitreihen:

Unique_id Timestamp Zielvariable Exogene Variable 1 Exogene Variable 2
BE 2016-10-22 00:00:00 70.00 49593.0 57253.0
BE 2016-10-22 01:00:00 37.10 46073.0 51887.0

Um die Anzahl der Tokens zu ermitteln, multiplizieren Sie die Anzahl der Zeilen (in diesem Beispiel „2“) mit der Anzahl der Spalten, die für die Vorhersage verwendet werden (in diesem Beispiel „3“), um insgesamt sechs Tokens zu erhalten. Die Spalten „unique_id“ und „timestamp“ werden hierbei nicht berücksichtigt.

Angesichts des folgenden Ausgabedatasets:

Unique_id Timestamp Prognostizierte Zielvariable
BE 2016-10-22 02:00:00 46.57
BE 2016-10-22 03:00:00 48.57

Sie können auch die Anzahl der Tokens ermitteln, indem Sie die Anzahl der nach der Datenvorhersage zurückgegebenen Datenpunkte zählen. In diesem Beispiel entspricht die Anzahl der Tokens „2“.

Schätzen der Preise basierend auf Tokens

Es gibt vier Preismetriken, die den Preis bestimmen, den Sie zahlen. Diese Preismetriken lauten wie folgt:

Preismetrik Description
paygo-inference-input-tokens Kosten für Tokens, die als Eingabe für Rückschlüsse verwendet werden, wenn finetune_steps = 0
paygo-inference-output-tokens Kosten im Zusammenhang mit den Tokens, die als Ausgabe für Rückschlüsse verwendet werden, wenn finetune_steps = 0
paygo-finetuned-model-inference-input-tokens Kosten für Tokens, die als Eingabe für Rückschlüsse verwendet werden, wenn finetune_steps> 0
paygo-finetuned-model-inference-output-tokens Kosten für Tokens, die als Ausgabe für Rückschlüsse verwendet werden, wenn finetune_steps> 0

Siehe die Nixtla-Modellsammlung im Modellkatalog.

NTT-DATEN

Tsuzumi ist ein autoregressiver sprachoptimierter Transformator. Die optimierten Versionen verwenden die überwachte Optimierung (Supervised Fine-Tuning, SFT). tsuzumi verarbeitet sowohl Japanisch als auch Englisch mit hoher Effizienz.

Model Type Capabilities
tsuzumi-7b chat-completion - Eingabe: Text (8.192 Token)
- Ausgabe: Text (8.192 Token)
- Toolaufrufe: Nein
- Antwortformate: Text

Stabilitäts-KI

Die Stabilitäts-KI-Sammlung von Bildgenerierungsmodellen umfasst Stable Image Core, Stable Image Ultra und Stable Diffusion 3.5 Large. Stabile Diffusion 3.5 Large ermöglicht eine Bild- und Texteingabe.

Model Type Capabilities
Stable Diffusion 3.5 Large Bildgenerierung - Eingabe: Text und Bild (1000 Token und 1 Bild)
- Ausgabe: 1 Bild
- Toolaufrufe: Nein
- Antwortformate: Bild (PNG und JPG)
Stable Image Core Bildgenerierung - Eingabe: Text (1000 Token)
- Ausgabe: 1 Bild
- Toolaufrufe: Nein
- Antwortformate: Bild (PNG und JPG)
Stabiles Image Ultra Bildgenerierung - Eingabe: Text (1000 Token)
- Ausgabe: 1 Bild
- Toolaufrufe: Nein
- Antwortformate: Bild (PNG und JPG)

Rückschlussbeispiele: Stability AI

Stabilitäts-KI-Modelle, die für Standardbereitstellungen bereitgestellt werden, implementieren die Azure AI-Modell-Ableitungs-API auf der Route /image/generations. Beispiele für die Verwendung von Stabilitäts-KI-Modellen finden Sie in den folgenden Beispielen: