Delen via


Veelgestelde vragen over AI-goedkeuringen

In deze veelgestelde vragen worden de mogelijkheden, het gebruik en de beveiliging van de ai-goedkeuringsfasen (AI-goedkeuringen) in Microsoft Copilot Studio uitgelegd. Met AI-goedkeuringen kan een agentstroom aanvragen automatisch goedkeuren of afwijzen op basis van vooraf gedefinieerde criteria, terwijl mensen controle blijven houden over belangrijke beslissingen. Hier volgen enkele veelgestelde vragen en antwoorden over deze functie.

Wat zijn AI-goedkeuringen?

AI-goedkeuringen zijn intelligente, geautomatiseerde beslissingsstappen in goedkeuringswerkstromen. AI-goedkeuringen maken gebruik van AI-modellen (Azure OpenAI-modellen of -modellen die u uit Azure AI Foundry kunt halen) om goedkeuringsaanvragen te evalueren op basis van uw bedrijfsregels en een beslissing 'Goedgekeurd' of 'Geweigerd' te retourneren met een logica.

Wat zijn mogelijkheden voor AI-goedkeuringen?

In tegenstelling tot eenvoudige automatisering op basis van regels kunnen AI-goedkeuringen ongestructureerde gegevens en complexe documenten (zoals PDF's of afbeeldingen die zijn gekoppeld aan een aanvraag) interpreteren en genuanceerde logica toepassen om een beslissing te nemen. Een AI-goedkeuring kan bijvoorbeeld een schriftelijke reden lezen, controleren op beleidstrefwoorden en vervolgens beslissen.

AI-goedkeuringsfasen kunnen ook worden gecombineerd met menselijke fasen, zodat TERWIJL AI routinebeslissingen afhandelt, mensen nog steeds toezicht houden en eventuele kritieke of uitzonderlijke gevallen voltooien. Kortom, AI-goedkeuringen automatiseren de terugkerende ja/nee-beslissingen in een proces, waardoor werkstromen sneller worden uitgevoerd zonder menselijk toezicht te verwijderen waar het belangrijk is.

Wat is het beoogde gebruik van AI-goedkeuringen?

AI-goedkeuringen zijn ontworpen voor algemene bedrijfsscenario's met goed gedefinieerde criteria, waarbij dagelijkse werkstromen worden stroomlijnd door routinebeslissingen te automatiseren. Typische gebruiksvoorbeelden zijn onder andere:

Goedkeuringen voor onkostenvergoedingen: Automatisch claims goedkeuren onder bepaalde bedragen met geldige ontvangstbewijzen, zodat managers zich alleen op uitzonderingen kunnen richten.

Inkoopordergoedkeuringen: Evalueer aanvragen op basis van budgetlimieten en leverancierslijsten, standaard-PO's goedkeuren binnen beleid.

Goedkeuringen van reisaanvragen: Automatisch compatibele reisaanvragen goedkeuren terwijl aanvragen met beleidsschendingen worden geweigerd.

Onboarding van leveranciers: Accepteer of negeer toepassingen door kwalificaties en nalevingsvereisten te controleren op basis van vooraf gedefinieerde criteria.

Goedkeuringen voor factuurverwerking: Valideer facturen door overeenkomende bedragen aan inkooporders te koppelen en te bevestigen dat de vereiste documentatie aanwezig is.

Goedkeuringen voor documentbeoordeling: Bevestig dat contracten of beleidsregels vereiste elementen bevatten en voldoen aan de opmaakstandaarden voordat u verdergaat met de volgende stappen.

Goedkeuringen van verlofaanvragen: Verlofaanvragen goedkeuren wanneer werknemers voldoende balans hebben en er geen planningsconflicten bestaan.

AI-goedkeuringen zijn ontworpen voor routine, goed gedefinieerde beslissingen. Er zijn echter scenario's waarin het systeem mogelijk niet betrouwbaar of verantwoord presteert. We raden klanten aan OM AI-goedkeuringen te gebruiken in hun innovatieve oplossingen of toepassingen, maar houden rekening met de volgende principes bij het kiezen van een use-case:

  • Belangrijke of levensveranderende beslissingen: Het systeem is niet ontworpen om beslissingen te behandelen die van invloed zijn op gezondheid, veiligheid, financiën of wettelijke status. Voorbeelden hiervan zijn verzekeringsclaims, medische autorisaties, goedkeuringen van leningen of immigratiebeschikkingen, waarvoor menselijke beoordeling en verantwoording vereist is.

  • Juridische of tuchtzaken: Gebruiksscenario's met betrekking tot wettelijke aansprakelijkheid, interpretatie van naleving of werknemersdiscipline kunnen het beoogde bereik van het systeem overschrijden. Hoewel AI invoer kan samenvatten, moeten definitieve beslissingen op deze gebieden bij mensen blijven.

  • Subjectieve of dubbelzinnige criteria: Het systeem kan moeite hebben met beslissingen die afhankelijk zijn van smaak, discretie of complexe afwegingen, zoals het evalueren van creatief werk of het beoordelen van kwaliteit, waarbij normen niet eenvoudig worden gecodificeerd.

  • Gevoelige of ethische complexe scenario's: AI-goedkeuringen zijn niet ontworpen voor beslissingen met betrekking tot persoonlijke kenmerken, mogelijke discriminatie of het genereren van beperkte inhoud. Deze toepassingen brengen verantwoorde AI-problemen met zich mee en vereisen mogelijk extra beveiliging.

  • Gereguleerde branches en compliancegevoelige werkstromen: In domeinen zoals gezondheidszorg, financiën of luchtvaart kunnen wettelijke vereisten menselijke toezicht vereisen, zelfs voor routinebeslissingen. Het systeem is niet geëvalueerd op naleving in deze contexten.

  • Voorzienbare maar onbedoelde toepassingen: Naarmate de acceptatie toeneemt, kunnen gebruikers PROBEREN AI-goedkeuringen toe te passen op gebieden zoals prestatiebeoordelingen, beslissingen voor het aannemen van werknemers of beoordelingen van klanten. Deze toepassingen maakten geen deel uit van de ontwerp- of effectbeoordeling van het systeem en kunnen risico's veroorzaken als ze niet zorgvuldig worden beheerd.

Belangrijk

Juridische en wettelijke overwegingen. Organisaties moeten potentiële specifieke wettelijke en wettelijke verplichtingen evalueren bij het gebruik van AI-services en -oplossingen. Services en oplossingen zijn mogelijk niet geschikt voor gebruik in elke branche of scenario. Beperkingen kunnen variëren op basis van regionale of lokale wettelijke vereisten. Bovendien zijn AI-services of -oplossingen niet ontworpen voor en kunnen ze niet worden gebruikt op manieren die verboden zijn in toepasselijke servicevoorwaarden en relevante gedragscodes.

Wat zijn de technische beperkingen van AI-goedkeuringen en hoe kunnen gebruikers de impact van beperkingen minimaliseren?

Hoewel AI-goedkeuringen een krachtige mogelijkheid zijn, vragen we gebruikers om rekening te houden met hun beperkingen:

AI-goedkeuringen zijn afhankelijk van opgegeven regels: AI volgt uw instructies en gegevens strikt. Als uw prompt onduidelijk of onvolledig is, kan de AI-goedkeuring verkeerde beslissingen nemen of mislukken. Definieer expliciet criteria; 'goedkeuren indien redelijk' zonder 'redelijk' te definiëren, leidt tot onjuiste interpretatie.

Mogelijkheid van fouten: AI-goedkeuringen kunnen fouten maken vanwege dubbelzinnige invoer, complexe randcases of slecht gescande documenten. Uitvoer is niet altijd 100% nauwkeurig, dus het toezicht is essentieel voor grensgevallen.

Gebrek aan menselijke intuïtiefheid: AI-goedkeuringen begrijpen geen context buiten wat ze worden verteld en kunnen geen vragen stellen of gevoel gebruiken. De AI-goedkeuring mist mogelijk nuances die een mens zou vangen, zoals het opsporen van verdachte uitgaven die 'te hoog lijken voor die reis'.

Geen kennis van ervaring: AI-goedkeuringen passen zich niet aan elke goedkeuring aan. Ze veranderen het gedrag alleen als u de prompt bijwerkt. Nieuwe scenario's die niet onder bestaande regels vallen, vereisen doorlopend onderhoud naarmate het beleid zich ontwikkelt.

Afhankelijkheid van gegevenskwaliteit: BESLISSINGEN over AI-goedkeuring zijn alleen zo goed als de invoergegevens. Bestanden met slechte kwaliteit, onvolledige documenten of onleesbare scans kunnen onjuiste beslissingen of systeemfouten veroorzaken.

Integratie- en prestatiebeperkingen: Complexe goedkeuringscriteria of beslissingen die realtimegegevens van meerdere systemen vereisen, kunnen de nauwkeurigheid verminderen en de verwerkingstijd verhogen.

Hiervoor is een verantwoordelijke configuratie vereist: Gebruikers moeten AI-goedkeuringen ethisch configureren, met de juiste menselijke fail-safes en vooroordelenvrije regels. Zorg er altijd voor dat instructies in overeenstemming zijn met het bedrijfsbeleid en ethische richtlijnen.

Geen toegang tot realtime informatie: AI-goedkeuringen kunnen alleen werken met gegevens die expliciet als invoer worden geleverd. Ze kunnen geen actuele zaken, nieuws of gebeurtenissen controleren, tenzij die informatie wordt ingevoerd in het goedkeuringsproces.

Risico's verminderen en de betrouwbaarheid verbeteren bij het gebruik van AI-goedkeuringen:

  • Neem menselijk toezicht op: routeer kritieke of dubbelzinnige gevallen om handmatige beoordelingsfasen te garanderen om verantwoordelijkheid en beoordeling te garanderen.

  • Testen met diverse voorbeelden: Gebruik historische gegevens en edge-cases om systeemgedrag vóór de implementatie te valideren.

  • Prompts regelmatig verfijnen: Update-instructies naarmate het beleid zich ontwikkelt of nieuwe scenario's ontstaan om relevantie en nauwkeurigheid te behouden.

  • Vermijd vage criteria: Zorg ervoor dat prompts expliciet en goed gedefinieerd zijn. Vermijd termen zoals 'redelijk' zonder duidelijke context.

  • Beslissingen monitoren: Gebruik tools zoals Activity voor het maken van prompts om goedkeuringspercentages bij te houden en patronen of fouten te identificeren.

  • Gebruikers trainen: informeer medewerkers over het interpreteren van AI-rationales en onderdrukkingsprocedures om vertrouwen en transparantie te bouwen.

Zich herinneren: AI kan met vertrouwen gebrekkige instructies uitvoeren, dus duidelijke, juiste richtlijnen zijn essentieel.

Welke operationele factoren en instellingen zorgen voor effectief en verantwoord gebruik van de ervaring voor het goedkeuren van agents?

Als u AI-goedkeuringen effectief en veilig wilt gebruiken, moet u rekening houden met de volgende operationele best practices:

  • Lage temperatuur instellen voor consistentie: Gebruik instellingen voor lage temperaturen (in de buurt van 0) om ervoor te zorgen dat de AI deterministische, voorspelbare beslissingen maakt in plaats van verschillende reacties op identieke invoer. StandaardInstellingen van Copilot Studio zijn al geoptimaliseerd voor betrouwbaarheid.

  • Kies het juiste model: GPT-4.1 is doorgaans ideaal voor de meeste goedkeuringsscenario's. Geavanceerde redeneringsmodellen (zoals O3) kunnen complexe logica beter verwerken, maar zijn langzamer. De geleverde modellen van Microsoft zijn vooraf geïntegreerd en getest, maar u kunt uw eigen nauwkeurig afgestemde modellen van Azure AI Foundry meenemen als u specifieke vereisten of aangepaste behoeften hebt.

  • Menselijk toezicht implementeren: Configureer menselijke of handmatige fasen waarnaar kan worden gerouteerd voor kritieke beslissingen. Menselijke en handmatige fasen zorgen ervoor dat mensen altijd in controle zijn.

  • Test grondig in sandbox: Voer uitgebreide tests uit met historische gegevens en voorbeeldaanvragen voordat u live gaat. Test opzettelijk edge-gevallen: ontbrekende velden, conflicterende regels, ongebruikelijke scenario's. Controleer of de end-to-end werkstroomtriggers correct zijn geactiveerd.

  • Beslissingen monitoren: Alle beslissingen worden vastgelegd in de sectie Activiteit van de promptbouwer in Power Automate. Gebruik deze gegevens om metrische gegevens, zoals goedkeuringspercentages, bij te houden en de juistheid van de AI-goedkeuringsbeslissingen te beoordelen.

  • Criteria regelmatig bijwerken: AI-prompts behandelen als levende documenten. Update-instructies naarmate beleid verandert of nieuwe scenario's ontstaan. Neem feedback van managers op over AI die te strikt of leniënt is op specifieke gebieden.

  • Transparantie en training bieden: Train relevante medewerkers over het interpreteren van AI-rationales en onderdrukkingsprocedures. Eindgebruikers informeren dat aanvragen mogelijk in eerste instantie door AI worden geëvalueerd. Duidelijke verwachtingen voorkomen verwarring en bouwen vertrouwen.

Door AI-instellingen voor consistentie af te stemmen, menselijk toezicht in te sluiten en het proces actief te beheren, zorgt u ervoor dat AI-goedkeuringen effectief en op schema blijven. U kunt het beschouwen als partnerschap: AI verwerkt volume en snelheid, mensen verwerken richtlijnen en uitzonderingen.

Welke beschermingsmaatregelen bestaan er in Copilot Studio voor verantwoorde AI?

Wat voor soort inhoudsbeheer wordt geïmplementeerd?

De GPT-modellen zijn getraind met internetgegevens, wat geweldig is voor het bouwen van een algemeen wereldmodel. Tegelijkertijd kan het toxische, schadelijke en bevooroordeelde inhoud van dezelfde bronnen overnemen. De modellen worden getraind om zich veilig te gedragen en geen schadelijke inhoud te produceren, maar soms kan het giftige uitvoer genereren. AI-goedkeuringen maken gebruik van de Azure AI Content Safety-service om geavanceerde mogelijkheden voor inhoudsbeheer in de AI-prompts te plaatsen. Dit toezicht omvat services voor het analyseren van de gegenereerde uitvoer met tekstscanners met meerdere ernst en veiligheid tegen promptinjectieaanvallen. De uitvoer wordt ook gescand op regurgitatie van beschermd materiaal.

Welk taalmodel wordt ondersteund, waar worden ze gehost en hoe kan ik ze openen?

AI-goedkeuringen ondersteunen GPT 4.1 mini-, GPT 4.o-, GPT 4.1- en o3-modellen, die worden gehost in de Azure OpenAI-service. U hebt toegang tot deze modellen via de prompts in Power Platform, in uw toepassingen, stromen en agents.

Zie Wat is er nieuw in De Azure OpenAI-service?

Worden mijn gegevens gebruikt om de grote taalmodellen te trainen of te verbeteren?

AI-goedkeuringen worden uitgevoerd op de Azure OpenAI-service die wordt gehost door Microsoft. Klantgegevens worden niet gebruikt om de basismodellen van Azure OpenAI Service te trainen of te verbeteren. Microsoft deelt uw klantgegevens niet met een derde partij, tenzij u hiervoor toestemming hebt verleend. Noch de klantprompts (invoer) met de bijbehorende basisgegevens, noch de modelreacties (uitvoer) worden gebruikt om Azure OpenAI Service-basismodellen te trainen of te verbeteren.

Hoe worden afbeeldingen van personen verwerkt?

AI-goedkeuringen zijn niet bedoeld voor het identificeren van personen op basis van gezichtskenmerken of biometrische gegevens. Wanneer u afbeeldingen met personen in AI-goedkeuringen verzendt, past het systeem automatisch een functie voor gezichtsvervaging toe voordat u de afbeeldingen analyseert om afzonderlijke privacy te beschermen. Dit vervagingsproces helpt bij het aanpakken van privacyproblemen, omdat identificatie op basis van gezichtskenmerken wordt voorkomen. Bij vervaging is er geen sprake van gezichtsherkenning of gezichtssjabloonmatching. In plaats daarvan is de identificatie van bekende personen gebaseerd op contextuele aanwijzingen, zoals uniformen of unieke omgevingen, en niet op hun gezichten. Deze privacymaatregel heeft geen invloed op de kwaliteit van de resultaten die u ontvangt. Het systeem kan af en toe verwijzen naar gezichtsvervaging.

Meer informatie vindt u in Gezichtsvervaging.

Wat zijn enkele mogelijke schade bij het gebruik van afbeeldingen of documenten in prompts?

AI-goedkeuringen beperken de meeste risico's bij het gebruik van afbeeldingen of documenten in prompts, maar sommige risico's vereisen nog steeds extra zorg van de maker van de prompt:

  • Afbeeldingen of documenten kunnen schadelijke tekst of visuele elementen bevatten die van invloed kunnen zijn op uw downstreamprocessen.

  • Afbeeldingen of documenten kunnen speciale en mogelijk verborgen instructies bevatten die de oorspronkelijke prompt kunnen beïnvloeden of overschrijven.

  • Afbeeldingen of documenten kunnen instructies bevatten die kunnen leiden tot het genereren van inhoud die onder intellectueel eigendom valt.

  • Prompts kunnen bevooroordeelde opmerkingen over afbeeldingen of documenten opleveren.

  • Het extraheren van informatie uit afbeeldingen van lage kwaliteit of documenten kan leiden tot hallucinatie.

Welke soorten problemen kunnen zich voordoen bij het gebruik van AI-goedkeuringen en hoe kan ik deze afhandelen?

Wanneer u AI-goedkeuringen gebruikt, kunnen er problemen optreden zoals analysefouten (wanneer AI niet zeker regels kan toepassen), verkeerde goedkeuringsbeslissingen (fout-positieven/negatieven), inconsistente resultaten voor vergelijkbare aanvragen of vertragingen bij complexe gevallen verwerken. Als u deze uitdagingen effectief wilt afhandelen, moet u ervoor zorgen dat uw werkstroom aanvragen naar menselijke fasen routeert.

Implementeer consistente en strenge tests tijdens de ontwikkeling en implementatie om potentiële storingspunten vroeg te identificeren. Gebruik instellingen voor lage temperatuur voor voorspelbare resultaten en verfijn uw prompts continu op basis van waargenomen fouten. Regelmatige bewaking en iteratieve verbeteringen helpen bij het handhaven van de betrouwbaarheid en nauwkeurigheid van het systeem in de loop van de tijd.