Nota
O acesso a esta página requer autorização. Podes tentar iniciar sessão ou mudar de diretório.
O acesso a esta página requer autorização. Podes tentar mudar de diretório.
Quando expande o Microsoft 365 Copilot com agentes, as consultas baseadas nos seus pedidos, histórico de conversações e dados do Microsoft 365 podem ser partilhadas com o agente para gerar uma resposta ou concluir um comando. Quando expande o Microsoft 365 Copilot com conectores do Microsoft 365 Copilot, os seus dados externos são ingeridos no Microsoft Graph e permanecem no seu inquilino. Este artigo descreve considerações de privacidade e segurança de dados para desenvolver diferentes soluções de extensibilidade copilot, tanto internas como como programadores comerciais.
Agentes e ações
Os agentes no Microsoft 365 Copilot são regidos individualmente pelos respetivos termos de utilização e políticas de privacidade. Enquanto programador de agentes e ações (plug-ins de API), é responsável por proteger os dados do cliente dentro dos limites do seu serviço e fornecer informações sobre as suas políticas relativas às informações pessoais dos utilizadores. Os administradores e utilizadores podem ver a política de privacidade e os termos de utilização na loja de aplicações antes de optarem por adicionar ou utilizar o seu agente.
Quando integrar os fluxos de trabalho empresariais como agentes da Copilot, os seus dados externos permanecem na sua aplicação; não flui para o Microsoft Graph e não é utilizado para preparar LLMs do Microsoft 365 Copilot. No entanto, o Copilot gera uma consulta de pesquisa para enviar para o seu agente em nome do utilizador com base no respetivo histórico de pedidos e conversações com o Copilot e os dados aos quais o utilizador tem acesso no Microsoft 365. Para obter mais informações, consulte Dados armazenados sobre interações de utilizadores com o Microsoft 365 Copilot na documentação do administrador do Microsoft 365 Copilot.
Garantir uma implementação segura de agentes declarativos no Microsoft 365
Os clientes e parceiros do Microsoft 365 podem criar agentes declarativos que expandem Microsoft 365 Copilot com instruções personalizadas, conhecimentos de base e ações invocadas através de descrições da API REST configuradas pelo agente declarativo. No runtime, o Microsoft 365 Copilot justifica uma combinação do pedido do utilizador, instruções personalizadas que fazem parte do agente declarativo e dados fornecidos por ações personalizadas. Todos estes dados podem influenciar o comportamento do sistema e esse processamento tem riscos de segurança. Especificamente, se uma ação personalizada puder fornecer dados de origens não fidedignas (como e-mails ou pedidos de suporte), um atacante poderá conseguir criar um payload de mensagens que faça com que o agente se comporte de uma forma que o atacante controla, como responder incorretamente a perguntas ou até invocar ações personalizadas. A Microsoft toma muitas medidas para evitar tais ataques. Além disso, as organizações só devem ativar agentes declarativos que utilizem origens de conhecimento fidedignas e se liguem a APIs REST fidedignas através de ações personalizadas. Se a utilização de origens de dados não fidedignas for necessária, crie o agente declarativo com a possibilidade de violação em mente e não lhe dê a capacidade de realizar operações confidenciais sem uma intervenção humana cuidadosa.
O Microsoft 365 fornece às organizações controlos extensos que regem quem pode adquirir e utilizar aplicações integradas e que aplicações estão ativadas para grupos ou indivíduos num inquilino do Microsoft 365, incluindo aplicações que utilizam agentes declarativos. Ferramentas como Copilot Studio, que permitem aos utilizadores criar os seus próprios agentes declarativos, também incluem controles extensos que permitem aos administradores governar conectores utilizados para conhecimentos e ações personalizadas.
Conectores Do Microsoft 365 Copilot
O Microsoft 365 Copilot apresenta apenas dados que cada indivíduo pode acessar usando os mesmos controles subjacentes para acesso aos dados usados em outros serviços do Microsoft 365. O Microsoft Graph honra o limite de acesso baseado na identidade do utilizador para que o processo de base do Microsoft 365 Copilot aceda apenas ao conteúdo a que o utilizador atual está autorizado a aceder. Isto também se aplica aos dados externos no Microsoft Graph ingeridos a partir de um conector do Microsoft 365 Copilot.
Quando liga os seus dados externos ao Microsoft 365 Copilot com um conector do Microsoft 365 Copilot, os seus dados fluem para o Microsoft Graph. Pode gerir permissões para ver itens externos ao associar uma lista de controlo de acesso (ACL) a uma Microsoft Entra ID de utilizador e grupo ou a um grupo externo.
Prompts, respostas e dados acessados por meio do Microsoft Graph não são usados para treinar os LLMs de base, incluindo aqueles usadas pelo Microsoft 365 Copilot.
Considerações para programadores de linha de negócio
O Microsoft 365 Copilot só partilha dados com e pesquisas em agentes ou conectores que estão ativados para o Copilot por um administrador do Microsoft 365. Enquanto programador de linha de negócio das soluções de extensibilidade da Copilot, certifique-se de que o utilizador e o seu administrador estão familiarizados com:
- Requisitos do Microsoft 365 Copilot
- Documentação de administração de Dados, Privacidade e Segurança do Microsoft 365 Copilot
- Confiança Zero princípios do plano de implementação do Microsoft 365 Copilot para aplicar princípios de Confiança Zero ao Microsoft 365 Copilot
- Centro de administração do Microsoft 365 procedimentos:
Considerações para fabricantes independentes de software
A submissão do pacote de aplicações para o Microsoft Partner Center Microsoft 365 e o programa Copilot requer o cumprimento de políticas de certificação para aceitação nas lojas de produtos do Microsoft 365. As políticas e diretrizes de certificação da Microsoft relativas à privacidade, segurança e IA responsável incluem:
- Políticas de certificação do Microsoft Commercial Marketplace
- Armazenar diretrizes de validação para a extensibilidade do Copilot
- Verificações de validação de IA responsáveis
- (Opcional) Certificação do Programa de Conformidade de Aplicações do Microsoft 365