Hinweis
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, sich anzumelden oder das Verzeichnis zu wechseln.
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, das Verzeichnis zu wechseln.
Diese häufig gestellten Fragen (FAQ) beschreiben die AUSWIRKUNGEN der KI des deep reasoning-Features in Copilot Studio.
Was ist Deep Reasoning?
Deep-Reasoning-Modelle sind fortgeschrittene große Sprachmodelle, die zur Lösung komplexer Probleme entwickelt wurden. Sie prüfen jede Frage sorgfältig und generieren eine detaillierte interne Gedankenkette, bevor sie dem Benutzer eine Antwort geben.
Wie kann ich Deep-Reasoning-Modelle in Copilot Studio einsetzen?
Deep-Reasoning-Modelle bieten in Copilot Studio leistungsstarke Funktionen zum Erstellen ausgeklügelter Agenten. Modelle wie Azure OpenAI o3 verwenden tiefe Gründe, um die Entscheidungsfindung des Agenten zu verbessern und genauere Antworten zurückzugeben.
Beim Erstellen von Agents können Sie Anweisungen hinzufügen, die die Aufgaben des Agents definieren und wie sie ausgeführt werden. Diese Aufgaben können von einfach bis hochkomplex reichen und erfordern eine gründliche Analyse.
Entwickler können Argumentationsmodelle auf bestimmte Schritte in den Anweisungen des Agenten anwenden und so die Fähigkeit des Agenten verbessern, fortgeschrittene Schlussfolgerungen durchzuführen und genauere und aufschlussreichere Ergebnisse zu liefern. Sie können tiefgehende Begründungsmodelle für Aufgaben hinzufügen, die wissenschaftliche Forschung, komplexe Fragen und eine eingehende Analyse unstrukturierter Daten erfordern. Diese Modelle bieten Einblicke, die über die Möglichkeiten einfacherer Modelle hinausgehen.
Um Schlussfolgerungsmodelle zu verwenden, fügen Sie das Schlüsselwort reason zu bestimmten Schritten in Agentenanweisungen hinzu. Beispiel: Verwenden Sie den Grund, um das nächste Element in einer mathematischen Reihe zu bestimmen, z. B. 2, 5, 10, 17. Dadurch wird das Begründungsmodell während der Laufzeit des Agents für diesen bestimmten Schritt ausgelöst. Copilot Studio verwendet derzeit das Azure OpenAI o3-Modell für seine erweiterten Begründungsfunktionen.
Was sind die beabsichtigten Anwendungen von Deep-Reasoning-Modellen?
Deep-Reasoning-Modelle sind für komplexe Aufgaben konzipiert, die logisches Denken, Problemlösung und Schritt-für-Schritt-Analyse erfordern. Sie können Deep Reasoning-Modelle beispielsweise für Folgendes verwenden:
Bewerten Sie Markttrends und empfehlen Sie die besten Anlagemöglichkeiten. Deep-Reasoning-Modelle können Marktdaten in kleinere, überschaubare Schritte herunterbrechen, Trends analysieren und die besten Investitionsmöglichkeiten empfehlen. Sie können verschiedene Faktoren wie historische Daten, aktuelle Marktbedingungen und zukünftige Prognosen berücksichtigen, um fundierte Anlageempfehlungen abzugeben.
Sie können die gestiegene Nachfrage analysieren und Strategien zur Verwaltung des Lagerbestands empfehlen. Modelle können Muster bei Angebot und Nachfrage analysieren, zukünftigen Bestandsbedarf vorhersagen und Strategien empfehlen, um den Lagerbestand effektiv zu verwalten. Durch die Berücksichtigung von Faktoren wie saisonalen Trends, Marktschwankungen und der Dynamik der Lieferkette koennen Deep-Reasoning-Modelle Unternehmen dabei helfen, ihr Bestandsmanagement zu optimieren.
Lösen Sie Differentialgleichungen und geben Sie Schritt-für-Schritt-Erklärungen. Modelle können komplexe mathematische Probleme, wie z. B. Differentialgleichungen, lösen und die Lösung Schritt für Schritt erklären. Durch die Zerlegung des Problems in kleinere Schritte und die Anwendung logischen Denkens können Deep-Reasoning-Modelle klare und detaillierte Lösungen für mathematische Herausforderungen bieten.
Wie wurden Deep-Reasoning-Modelle evaluiert und welche Metriken werden zur Messung der Leistung verwendet?
Deep-Reasoning-Modelle, die in Copilot Studio verwendet werden, werden auf Groundedness, verantwortungsvolle KI und Genauigkeit bewertet. Bodenständigkeit bedeutet, dass sichergestellt wird, dass das Modell nur Inhalte zurückgibt, die in einem bestimmten, realen Kontext geerdet sind. Verantwortungsbewusste KI prüft den Schutz vor Schäden wie Jailbreak-Angriffen, domänenübergreifenden Prompt-Injection-Angriffen und schädlichen Inhalten.
Um an diesen Dimensionen zu messen, werden Modelle anhand einer Vielzahl von Szenarien getestet und entlang jeder dieser Dimensionen bewertet. Alle Deep-Reasoning-Modelle werden vor der Veröffentlichung evaluiert.
Was sind die Grenzen von Deep-Reasoning-Modellen? Wie können Die Entscheidungsträger die Auswirkungen dieser Einschränkungen minimieren?
Verwendung von Begründungsmodellen: Ein Agent kann nur tiefgehende Reasoning-Modelle verwenden, wenn die Funktionen des tiefen Grundmodells in den Einstellungen des Agents aktiviert sind.
Antwortzeit: Aufgrund der Zeit, die für die Analyse benötigt wird, sind Antworten von Schlussfolgerungsmodellen im Vergleich zu anderen Sprachmodellen ohne Deep Reasoning tendenziell langsamer.
Um die Auswirkungen dieser Einschränkungen zu minimieren, können Sie:
Stellen Sie sicher, dass die Funktionen des Deep-Reasoning-Modells nur für Agenten aktiviert sind, die sie brauchen.
Verwenden Sie das Schlüsselwort ‘reason’ in Agentanweisungen nur für Schritte, die von tiefgehenden Argumentationsmodellen profitieren.
Verwenden Sie Deep-Reasoning-Modelle für Aufgaben, die längere Antwortzeiten ermöglichen. Lassen Sie die Benutzer ggf. wissen, dass einige Agentantworten länger dauern können.
Welche betrieblichen Faktoren und Einstellungen erlauben einen effektiven und verantwortungsbewussten Einsatz von Deep-Reasoning-Modellen?
Deep-Reasoning-Modelle umfassen verschiedene Schutzmaßnahmen, um sicherzustellen, dass Administratoren, Entwickler und Benutzer eine sichere und konforme Erfahrung genießen:
Lassen Sie nur Deep-Reasoning-Modelle für Agenten zu, die komplexe Argumentationsschritte erfordern. Dadurch wird sichergestellt, dass die Modelle angewendet werden, wo sie den größten Wert bereitstellen können.
Fügen Sie das Schlüsselwort reason in die Anweisungen ein, um das Modell zur Laufzeit für bestimmte Aufgaben auszulösen, nicht für alle Aufgaben, die möglicherweise keine komplexe Schlussfolgerung erfordern.
Testen Sie den Agent gründlich, um die Genauigkeit und Zuverlässigkeit der Ausgabe sicherzustellen, die vom Deep-Reasoning-Modell bereitgestellt wird. Das Testen hilft auch dabei, potenzielle Probleme zu identifizieren und sicherzustellen, dass das Modell wie erwartet funktioniert.
Verwenden Sie die Aktivitätskarte, um zu überprüfen, wo Ihr Agent in einer Sitzung Deep-Reasoning-Modelle verwendet. Erweitern Sie den Deep-Reasoning-Knoten in der Zuordnung, um die vom Modell unternommenen Schritte und seine Ausgabe zu überprüfen. Auf diese Weise können Sie ermitteln, ob das Grundmodell die beabsichtigte Funktionalität liefert.
Vergleichen Sie die Ausgaben mit und ohne Verwendung eines Deep-Reasoning-Modells, indem Sie Ihre Anweisungen während des Tests aktualisieren.