Notitie
Voor toegang tot deze pagina is autorisatie vereist. U kunt proberen u aan te melden of de directory te wijzigen.
Voor toegang tot deze pagina is autorisatie vereist. U kunt proberen de mappen te wijzigen.
Dit artikel legt prompts en prompt-engineering uit als kernconcepten om je te helpen krachtige generatieve AI-mogelijkheden te creëren die gebruikt kunnen worden in Copilot Studio.
Belangrijk
- Prompts gebruiken modellen die worden aangedreven door Azure Foundry.
- Deze mogelijkheid kan onderworpen zijn aan gebruikslimieten of capaciteitsbeperking.
Vereiste voorwaarden
- Uw omgeving is opgenomen in de lijst met beschikbare regio's.
- Je hebt Copilot Credits nodig.
- Microsoft Dataverse wordt geïnstalleerd in de omgeving.
Wat is een prompt
Een prompt bestaat voornamelijk uit een natuurlijke taalinstructie die een generatief AI-model vertelt een taak uit te voeren. Het model volgt de prompt om de structuur en inhoud te bepalen van de tekst die het moet genereren. Prompt engineering is het proces van het maken en verfijnen van de prompt die door het model wordt gebruikt.
Een promptbuilder-ervaring stelt makers in staat herbruikbare prompts te bouwen, testen en opslaan. In deze ervaring kun je ook invoervariabelen en kennisdata gebruiken om dynamische contextgegevens tijdens runtime te leveren. Je kunt deze prompts delen met anderen en ze gebruiken als agenten, workflows of apps.
Deze prompts kunnen voor vele taken of zakelijke scenario's worden gebruikt, zoals het samenvatten van inhoud, het categoriseren van gegevens, het extraheren van entiteiten, het vertalen van talen, het beoordelen van gevoel of het formuleren van een reactie op een klacht. Je zou bijvoorbeeld een prompt kunnen maken om actiepunten uit je bedrijfsmails te selecteren en deze te gebruiken in een Power Automate-workflow om een automatisering van e-mailverwerking te bouwen.
In Copilot Studio kunnen prompts worden gebruikt als agententools om de chatervaring te verbeteren of geavanceerde AI-automatiseringen of workflownodes mogelijk te maken om AI-acties in deterministische automatiseringen te integreren.
Menselijk toezicht
Menselijk toezicht is een belangrijke stap bij het werken met content die is gegenereerd vanuit een generatief AI-model. Dergelijke modellen zijn getraind op enorme hoeveelheden data en kunnen fouten en biases bevatten. Een mens moet de inhoud beoordelen voordat u deze online plaatst, naar een klant stuurt of gebruikt om een zakelijke beslissing te onderbouwen. Menselijk toezicht helpt u mogelijke fouten en vooroordelen te identificeren. Bovendien wordt hiermee gewaarborgd dat de inhoud relevant is voor het beoogde gebruiksscenario en op één lijn ligt met de waarden van het bedrijf.
Menselijke review kan ook helpen om eventuele problemen met het model zelf te identificeren. Als het model bijvoorbeeld inhoud genereert die niet relevant is voor het beoogde gebruik, moet u mogelijk de prompt aanpassen.
Verantwoorde AI
We streven ernaar om AI op basis van verantwoordelijk AI te ontwikkelen. Bij ons werk worden we geleid door een reeks kernprincipes: eerlijkheid, betrouwbaarheid en veiligheid, privacy en beveiliging, inclusiviteit, transparantie en verantwoordingsplicht. We brengen deze principes in het hele bedrijf in de praktijk om AI te ontwikkelen en in te zetten die een positieve impact heeft op de samenleving. We hanteren een alomvattende aanpak, waarbij innovatief onderzoek, uitzonderlijke engineering en verantwoord bestuur worden gecombineerd. Naast het toonaangevende onderzoek van OpenAI naar AI-afstemming werken we aan een raamwerk voor de veilige inzet van onze eigen AI-technologieën dat is bedoeld om de industrie aan meer verantwoorde resultaten te helpen.
Lees meer over transparantie in de Transparantienotitie voor Azure OpenAI.