Remarque
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de vous connecter ou de modifier des répertoires.
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de modifier des répertoires.
Cet article explique les consignes et l’ingénierie des prompts comme concepts clés pour vous aider à créer des capacités puissantes d’IA générative pouvant être utilisées dans Copilot Studio.
Important
- Les invites utilisent des modèles propulsés par Azure Foundry.
- Cette fonctionnalité pourrait être soumise à des limites d’utilisation ou à une limitation de capacité.
Prerequisites
- Votre environnement figure dans la liste des régions disponibles.
- Vous avez besoin de crédits Copilot.
- Microsoft Dataverse est installé sur l’environnement.
Qu’est-ce qu’un prompt
Une invite est principalement composée d’une instruction en langage naturel qui demande à un modèle d’IA générative d’effectuer une tâche. Le modèle suit l’invite pour déterminer la structure et le contenu du texte qu’il doit générer. L’ingénierie des invites est le processus de création et d’affinement de l’invite utilisée par le modèle.
Une expérience de création d’invites permet aux créateurs de créer, tester et sauvegarder des prompts réutilisables. Dans cette expérience, vous pouvez également utiliser des variables d’entrée et des données de connaissances pour fournir des données contextuelles dynamiques à l’exécution. Vous pouvez partager ces prompts avec d’autres et les utiliser comme agents, workflows ou applications.
Ces invites peuvent être utilisées pour plusieurs tâches ou scénarios métier, par exemple résumer un contenu, catégoriser des données, extraire des entités, traduire des langues, évaluer des sentiments ou formuler une réponse à une plainte. Par exemple, vous pourriez créer une invite pour sélectionner les éléments d’action de vos emails d’entreprise et l’utiliser dans un flux de travail Power Automate pour automatiser le traitement des e-mails.
Dans Copilot Studio, les invites peuvent être utilisées comme outils d’agent pour améliorer l’expérience de chat ou permettre des automatisations avancées de l’IA ou des nœuds de workflow d’intégrer des actions IA dans des automatisations déterministes.
Surveillance humaine
La supervision humaine est une étape importante lorsqu’on travaille avec du contenu généré à partir d’un modèle d’IA générative. Ces modèles sont entraînés sur d’énormes quantités de données et peuvent contenir des erreurs et des biais. Un humain doit l’examiner avant de le publier en ligne, de l’envoyer à un client ou de l’utiliser pour prendre une décision métier. La supervision humaine vous aide à identifier les erreurs et les biais potentiels. Cela permet également de s’assurer que le contenu est pertinent par rapport au cas d’utilisation prévu et qu’il s’aligne sur les valeurs de l’entreprise.
L’évaluation humaine peut également aider à identifier tout problème lié au modèle lui-même. Par exemple, si le modèle génère du contenu qui n’est pas pertinent pour le cas d’utilisation prévu, vous devrez peut-être ajuster l’invite.
Intelligence artificielle responsable
Nous nous engageons à créer une IA responsable par conception. Notre travail est guidé par un ensemble de principes fondamentaux : équité, fiabilité et sécurité, confidentialité et sécurité, inclusivité, transparence et responsabilité. Nous mettons ces principes en pratique dans toute l’entreprise pour développer et déployer une IA qui a un impact positif sur la société. Nous adoptons une approche globale, combinant une recherche innovante, une ingénierie exceptionnelle et une gouvernance responsable. En parallèle aux recherches de pointe d’OpenAI sur l’alignement de l’IA, nous avançons un cadre pour le déploiement sûr de nos propres technologies d’IA qui vise à guider le secteur vers des résultats plus responsables.
En savoir plus sur la transparence dans la note de transparence pour Azure OpenAI.