Nota
O acesso a esta página requer autorização. Podes tentar iniciar sessão ou mudar de diretório.
O acesso a esta página requer autorização. Podes tentar mudar de diretório.
O que é uma Nota de Transparência?
Um sistema de IA inclui não só a tecnologia, mas também as pessoas que a utilizarão, as pessoas que serão afetadas por ela e o ambiente em que é implementada. Criar um sistema adequado para o objetivo pretendido requer uma compreensão de como a tecnologia funciona, quais são as suas capacidades e limitações e como alcançar o melhor desempenho. As Notas de Transparência da Microsoft destinam-se a ajudá-lo a compreender como funciona a nossa tecnologia de IA, as escolhas que os proprietários do sistema podem fazer para influenciar o desempenho e o comportamento do sistema e a importância de pensar em todo o sistema, incluindo a tecnologia, as pessoas e o ambiente. Continuaremos a atualizar este documento à medida que o serviço evolui.
As Notas de Transparência da Microsoft fazem parte de um esforço mais amplo da Microsoft para pôr em prática os nossos Princípios de IA. Para saber mais, consulte os princípios de IA da Microsoft.
Noções Básicas do Microsoft 365 Copilot
Introdução
Microsoft 365 Copilot é uma ferramenta de produtividade com tecnologia de IA que utiliza modelos de linguagem grandes (LLMs) e integra dados com aplicações e serviços do Microsoft Graph e do Microsoft 365. Funciona juntamente com aplicações populares do Microsoft 365, como Word, Excel, PowerPoint, Outlook, Teams e muito mais.
Microsoft 365 Copilot utiliza uma combinação de modelos fornecidos pelo Serviço OpenAI Azure. Isto permite-nos corresponder às necessidades específicas de cada funcionalidade ( por exemplo, velocidade, criatividade ) ao modelo certo, para que Microsoft 365 Copilot possam fornecer assistência inteligente em tempo real que permita aos utilizadores melhorar a sua criatividade, produtividade e competências.
Para obter informações adicionais e detalhadas sobre os LLMs fornecidos à Microsoft pela OpenAI, consulte a respetiva documentação pública, disponível em Modelos – API OpenAI.
Termos-chave
| Termo | Descrição |
|---|---|
| Pedido de Utilizador | Um Pedido de Utilizador é o texto enviado para Microsoft 365 Copilot para executar uma tarefa específica ou fornecer informações. Por exemplo, um utilizador pode introduzir o seguinte pedido: escreva um e-mail a felicitar a minha equipa no final do ano fiscal. |
| Processamento | O processamento de um pedido de utilizador no Microsoft 365 Copilot envolve vários passos, incluindo verificações de IA responsáveis, para garantir que Microsoft 365 Copilot fornece respostas relevantes e acionáveis. |
| Terra | A ligação à terra refere-se ao processo de fornecer origens de entrada ao LLM relacionado com a linha de comandos do utilizador. Ao ativar Microsoft 365 Copilot aceder aos dados a utilizar como origens de entrada , como dados do Microsoft Graph ou do Bing, Microsoft 365 Copilot pode fornecer respostas mais precisas e contextualmente relevantes aos utilizadores. |
| Microsoft Graph | O Microsoft Graph é o gateway para dados e inteligência no Microsoft 365. Inclui informações sobre as relações entre utilizadores, atividades e dados de uma organização. |
| Conectores do Microsoft Graph | Os Conectores do Microsoft Graph oferecem uma forma de trazer conteúdos de serviços externos para o Microsoft Graph, permitindo que os dados externos adquirem experiências inteligentes do Microsoft 365, como o Microsoft Search e Microsoft 365 Copilot. |
| Indexação | A Microsoft utiliza a indexação lexical e semântica de dados do Microsoft Graph para obter respostas básicas para Microsoft 365 Copilot em dados empresariais. A indexação interpreta os pedidos do utilizador para produzir respostas contextualmente relevantes. Para obter mais informações sobre a indexação, veja Comportamento do Sistema. |
| Pedido melhorado | Um pedido é melhorado quando são adicionadas instruções adicionais ao pedido introduzido por um utilizador para orientar Microsoft 365 Copilot na geração de uma resposta mais específica e relevante. |
| Conteúdo das interações | O termo utilizado para descrever o pedido do utilizador e a resposta do Microsoft 365 Copilot a esse pedido. |
| Modelo de Linguagem Grande (LLM) | Os modelos de linguagem grandes (LLMs) neste contexto são modelos de IA preparados em grandes quantidades de dados de texto para prever palavras em sequências. Os LLMs são capazes de realizar uma variedade de tarefas, como geração de texto, resumo, tradução, classificação e muito mais. |
| Resposta LLM | O conteúdo gerado pelo LLM como resposta ao pedido do utilizador que é devolvido ao Microsoft 365 Copilot. |
| Pós-processamento | A Microsoft 365 Copilot de processamento é efetuada depois de receber uma resposta do LLM. Este pós-processamento inclui chamadas de base adicionais para o Microsoft Graph, IA responsável, segurança, conformidade e verificações de privacidade. |
| IA Responsável | As práticas de política, investigação e engenharia da Microsoft que se baseiam nos nossos princípios de IA e são operacionalizadas através do nosso padrão de IA Responsável. |
| Agents | Os agentes foram concebidos para automatizar e executar processos empresariais com IA, com base em instruções predefinidas e acesso a dados organizacionais. Podem ajudar ou agir de forma independente em nome de indivíduos ou equipas, desde interações simples de pedido e resposta até à execução de tarefas totalmente autónoma. Para obter mais informações sobre a utilização de IA em agentes copilot, consulte essas ofertas diretamente. |
| Teste da equipa vermelha | Técnicas utilizadas por especialistas para avaliar as limitações e vulnerabilidades de um sistema e testar a eficácia das mitigações planeadas. Os testes da equipa vermelha são utilizados para identificar potenciais riscos e são distintos da medição sistemática dos riscos. |
Capacidades
Funcionalidades
| Funcionalidade | Descrição |
|---|---|
| Microsoft 365 Copilot no Word | Microsoft 365 Copilot no Word transforma a escrita com eficiência e criatividade para que os utilizadores possam criar, resumir, compreender, refinar e elevar documentos. Os utilizadores também podem utilizar capacidades melhoradas, como visualizar e transformar texto numa tabela. Algumas outras capacidades também incluem adicionar a pedidos existentes, redigir um documento ao referenciar outros documentos e detetar informações sobre documentos. Para obter mais informações, consulte Perguntas mais frequentes sobre o Copilot no Word. |
| Microsoft 365 Copilot no PowerPoint | Microsoft 365 Copilot no PowerPoint permite que os utilizadores criem uma nova apresentação a partir de um pedido ou Word ficheiro, tirando partido dos modelos empresariais. A funcionalidade de chat permite comandos Resumo e Q&A e leve permite que os utilizadores adicionem diapositivos, imagens ou façam alterações de formatação ao nível do conjunto de diapositivos. Os ficheiros do PowerPoint também podem ser utilizados como dados de contextualização. Para obter mais informações, veja Perguntas Mais Frequentes sobre o Copilot no PowerPoint. |
| Microsoft 365 Copilot no Excel | Microsoft 365 Copilot no Excel ajuda os utilizadores com sugestões de fórmulas, tipos de gráficos e informações sobre dados em folhas de cálculo. Para obter mais informações, consulte Perguntas mais frequentes sobre o Copilot no Excel. |
| Microsoft 365 Copilot no Outlook | Microsoft 365 Copilot no Outlook ajuda a gerir a caixa de entrada de e-mail e a criar uma comunicação impactante de forma mais eficiente. Microsoft 365 Copilot no Outlook podem resumir um tópico de e-mail, sugerir itens de ação, respostas e reuniões de seguimento. Também pode ajustar o comprimento e o tom ao redigir um e-mail. Para obter mais informações, consulte Perguntas mais frequentes sobre o Copilot no Outlook. |
| Microsoft 365 Copilot no Teams | Microsoft 365 Copilot no Teams podem recapitular conversações, organizar pontos de debate importantes e resumir ações-chave. Os utilizadores podem obter respostas a perguntas específicas e saber o que perderam em reuniões ou conversas Para obter mais informações, consulte Perguntas mais frequentes sobre o Copilot no Microsoft Teams. |
| Microsoft 365 Copilot no Loop | Microsoft 365 Copilot no Loop permite que os utilizadores criem conteúdos que podem ser melhorados em colaboração através da edição direta ou refinamento pela Copilot. Para obter mais informações, consulte Perguntas mais frequentes sobre o Copilot no Loop. |
| Microsoft 365 Copilot no Microsoft Stream | Microsoft 365 Copilot no Microsoft Stream ajuda a obter informações de qualquer vídeo com uma transcrição. Microsoft 365 Copilot no Stream pode fornecer um resumo do vídeo, responder a perguntas específicas, avançar rapidamente para tópicos ou pontos de debate específicos e identificar chamadas à ação. Para obter mais informações, consulte Perguntas mais frequentes sobre o Copilot no Stream. |
| Microsoft 365 Copilot no Whiteboard | Microsoft 365 Copilot no Whiteboard ajuda a iniciar o processo de ideia para gerar, categorizar e resumir ideias. Para obter mais informações, consulte Perguntas Mais Frequentes sobre o Copilot no Whiteboard. |
| Microsoft 365 Copilot no OneNote | Microsoft 365 Copilot no OneNote permite que os utilizadores criem planos, gerem ideias, criem listas e organizem informações para os ajudar a encontrar o que precisam na aplicação OneNote. Para obter mais informações, consulte Perguntas mais frequentes sobre o Copilot no OneNote. |
| Microsoft 365 Copilot Chat | Microsoft 365 Copilot Chat (anteriormente denominado Chat de Negócios) combina o poder dos Modelos de Linguagem Grande com a Internet, o conteúdo e o contexto do trabalho e outras aplicações, para ajudar os utilizadores a elaborar rascunhos de conteúdo, a saber o que é perdido e a obter respostas a perguntas através de avisos. Para obter mais informações, consulte Perguntas mais frequentes sobre Microsoft 365 Copilot Chat. |
| Microsoft 365 Copilot no editor de texto formatado do SharePoint | Microsoft 365 Copilot no editor de texto formatado do Microsoft SharePoint simplifica a criação de conteúdos em páginas e publicações do SharePoint. Com o Copilot, pode reescrever texto, ajustar o tom, condensar informações e elaborar ideias. Para obter mais informações, consulte Perguntas mais frequentes sobre o Copilot no SharePoint. |
| Microsoft 365 Copilot no OneDrive | Microsoft 365 Copilot no OneDrive é uma assistente inovadora com tecnologia de IA concebida para ajudá-lo a interagir com os seus documentos ao extrair informações, comparar as principais diferenças, resumir ficheiros e gerar informações. Para obter mais informações, consulte Perguntas mais frequentes sobre o Copilot no OneDrive. |
| cartões de relance Microsoft 365 Copilot | Os cartões de relance oferecem uma pré-visualização rápida de entidades de trabalho, como documentos, para ajudar a avaliar a relevância ou a revocação. São acedidos ao pairar o rato sobre os ficheiros no separador Procurar da aplicação Microsoft 365 Copilot. |
| Pesquisa Inteligente | A Pesquisa Inteligente permite a pesquisa em Aplicações do Dataverse, como operações de Dynamics 365 Sales, Serviço e Finanças & com linguagem natural. |
| Conectores do Power Platform | Os Conectores do Power Platform permitem que os clientes acedam a dados em tempo real a partir de uma coleção de aplicações de produtividade pessoal e empresarial na experiência de Microsoft 365 Copilot. |
| Conectores do Microsoft Graph | Os Conectores do Microsoft Graph permitem ligações a origens de dados externas, incluindo até 500 itens por licença Microsoft 365 Copilot. |
| Microsoft Purview | O Microsoft Purview é uma solução que ajuda as organizações a gerir e proteger os seus dados. Fornece uma plataforma unificada para governação de dados, proteção de informações, gestão de riscos e conformidade. Os clientes podem expandir as capacidades do Microsoft Purview fornecidas pelas subscrições Microsoft dos clientes (por exemplo, subscrições Microsoft 365 E3 ou E5) para Microsoft 365 Copilot dados e interações. |
| Otimização do Microsoft 365 Copilot | Otimização do Microsoft 365 Copilot permite que as organizações ajustem modelos de linguagem grandes (LLMs) com os seus próprios dados de inquilino. Estes modelos podem ser utilizados para realizar tarefas específicas de domínio com base nos conhecimentos exclusivos da organização. Para obter mais informações, veja FAQ de IA Responsável para Otimização do Microsoft 365 Copilot. |
| Microsoft Copilot Studio | Microsoft Copilot Studio é uma plataforma avançada para a criação de agentes seguros, dimensionáveis e inteligentes que funcionam em sistemas de linha de negócio e do Microsoft 365. Para obter mais informações, veja Copilot Studio descrição geral. |
| Funcionalidade do Agent Builder no Microsoft 365 Copilot | A funcionalidade Agent Builder no Microsoft 365 Copilot fornece uma interface simples que pode utilizar para criar agentes declarativos de forma rápida e fácil, quer utilizando linguagem natural ou manualmente. Para obter mais informações, veja Build a declarative agent with Agent Builder in Microsoft 365 Copilot (Criar um agente declarativo com o Agent Builder no Microsoft 365 Copilot). |
| Microsoft 365 Copilot com o agente de utilização de computadores | Microsoft 365 Copilot com o agente de utilização de computadores permite-lhe automatizar tarefas de browser ou de ambiente de trabalho para que os seus pedidos possam utilizar mais do seu conteúdo e contexto. Uma vez que o agente pode efetuar tarefas em seu nome, pode haver um risco acrescido para a segurança ou privacidade do sistema. Para ajudar a mitigar este risco, o agente tem várias salvaguardas, incluindo verificações de segurança baseadas em modelos sobre conteúdo e ações, bem como controlos de administrador inquilino que ativam ou desativam o agente de utilização do computador e restringem os sites e domínios de Internet aos quais o agente pode aceder. Recomendamos que aplique estes controlos e monitorize a utilização do agente. |
Comportamento do Sistema
Microsoft 365 Copilot utiliza uma combinação de LLMs para resumir, prever e gerar conteúdo. Estes LLMs incluem modelos pré-preparados, tais como Transformadores Pré-Preparados Geradores (GPT), como GPT-4 e GPT-5 da OpenAI, concebidos para se destacarem nestas tarefas.
As capacidades que os utilizadores veem nas aplicações do Microsoft 365 são apresentadas como funcionalidades adicionais, funcionalidades e capacidades de solicitação. As LLMs e as tecnologias proprietárias da Microsoft trabalham em conjunto num sistema subjacente que ajuda as pessoas a aceder, utilizar e gerir os dados organizacionais de forma segura.
As aplicações do Microsoft 365 (como Word, Excel, PowerPoint, Outlook, OneNote, Teams e Loop) funcionam com Microsoft 365 Copilot para suportar os utilizadores no fluxo do seu trabalho. Por exemplo, Microsoft 365 Copilot no Word foi concebido para ajudar os utilizadores especificamente no processo de criação, compreensão e edição de documentos. Da mesma forma, Microsoft 365 Copilot nas outras aplicações ajuda os utilizadores no contexto do seu trabalho nessas aplicações.
O Microsoft Graph há muito tempo é fundamental para o Microsoft 365. Inclui informações sobre as relações entre utilizadores, atividades e dados de uma organização. O Microsoft Graph API traz mais contexto dos sinais dos clientes para a linha de comandos, como informações de e-mails, conversas, documentos e reuniões. Para obter mais informações, consulte Descrição Geral do Microsoft Graph e Principais serviços e funcionalidades no Microsoft Graph.
Microsoft 365 Copilot Chat permite que os clientes tragam conteúdo e contexto de trabalho para as capacidades de chat do Microsoft 365 Copilot. Com Microsoft 365 Copilot Chat, os utilizadores podem elaborar rascunhos de conteúdo, saber o que perderam e obter respostas a perguntas através de pedidos abertos, tudo baseado em dados de trabalho de forma segura. Utilize Microsoft 365 Copilot Chat em muitas superfícies, incluindo no Microsoft Teams, em Microsoft365.com e em copilot.microsoft.com.
O índice semântico é um índice gerado a partir de conteúdos no Microsoft Graph. É utilizado para ajudar no processamento de pedidos de utilizador para produzir respostas contextualmente relevantes. Permite que as organizações procurem milhares de milhões de vetores (representações matemáticas de funcionalidades ou atributos) e devolvam resultados relacionados. O índice semântico foi concebido para respeitar o contexto de segurança dos utilizadores individuais e só é apresentado o conteúdo a que um utilizador pode aceder. O índice semântico baseia-se na abordagem abrangente da Microsoft em matéria de segurança, conformidade, privacidade e respeita todos os limites organizacionais no inquilino do cliente. Para obter mais informações, veja Índice semântico para Copilot.
Eis uma explicação sobre como funciona o Microsoft 365 Copilot:
Microsoft 365 Copilot recebe um pedido de entrada de um utilizador numa aplicação, como o Word ou o PowerPoint.
Microsoft 365 Copilot, em seguida, processa o pedido do utilizador, que melhora a especificidade do pedido, para ajudar o utilizador a obter respostas relevantes e acionáveis para a tarefa específica. O pedido pode incluir texto de ficheiros de entrada ou outro conteúdo detetado por Microsoft 365 Copilot através do Microsoft Graph e, em Microsoft 365 Copilot, envia este pedido para o LLM para processamento. Microsoft 365 Copilot apenas acede a dados aos quais um utilizador individual tem acesso existente, com base, por exemplo, em controlos de acesso baseados em funções do Microsoft 365 existentes.
Microsoft 365 Copilot recebe a resposta do LLM e pós-processa-a. Este pós-processamento inclui outras chamadas de base para o Microsoft Graph, verificações de IA responsáveis, tais como classificadores de conteúdo, verificações de segurança, conformidade e privacidade e geração de comandos.
Microsoft 365 Copilot devolve a resposta à aplicação, onde o utilizador pode rever e avaliar a resposta.
Os dados são encriptados enquanto estão armazenados e não são utilizados para preparar Azure LLMs da fundação do Serviço OpenAI, incluindo os utilizados pelo Microsoft 365 Copilot. Para obter mais informações, consulte Dados, Privacidade e Segurança para Microsoft 365 Copilot.
Como Microsoft 365 Copilot gera respostas sem conteúdo Web ou dados organizacionais
Microsoft 365 Copilot não requer conteúdo Web ou dados organizacionais para fornecer uma resposta, mas essas informações podem ajudar a melhorar a qualidade, a precisão e a relevância da respetiva resposta. Ao responder sem dados web ou organizacionais, Microsoft 365 Copilot depende apenas dos respetivos LLMs para compreender os pedidos e gerar respostas. O processo envolve analisar a entrada, tirar partido da base de dados de conhecimento interna do modelo e refinar a resposta para garantir que é contextualmente adequada.
Extensibilidade e personalização
A funcionalidade Agent Builder no Microsoft 365 Copilot e Copilot Studio são ferramentas para criar agentes seguros, dimensionáveis e inteligentes que funcionam em sistemas de linha de negócio e do Microsoft 365. Ambas as ferramentas permitem-lhe criar agentes, mas servem necessidades diferentes. Utilize a funcionalidade Agent Builder se quiser criar rapidamente um agente para si ou para uma pequena equipa, utilizando linguagem natural e conteúdo existente. Selecione Copilot Studio se precisar de um agente para uma audiência mais ampla ou se o agente precisar de capacidades avançadas, como fluxos de trabalho de vários passos ou integrações personalizadas. Para obter mais informações, consulte Escolher entre Microsoft 365 Copilot e Copilot Studio para criar o agente e agentes declarativos para Microsoft 365 Copilot.
Para programadores, o SDK de Agentes do Microsoft 365 fornece as ferramentas para criar agentes que se integram profundamente com aplicações e serviços do Microsoft 365.
Casos de Utilização
Microsoft 365 Copilot é um serviço para fins gerais, concebido para ajudar numa grande variedade de tarefas diárias em qualquer organização ao ligar-se a dados de trabalho e integrar com as aplicações que os clientes utilizam todos os dias. Por exemplo:
Interação e criação de conversas e conversas: os utilizadores podem interagir com Microsoft 365 Copilot Chat e gerar respostas obtidas a partir de documentos fidedignos, como documentação interna da empresa ou documentação de suporte técnico.
Pesquisa: os utilizadores podem procurar documentos de origem fidedigna, como a documentação interna da empresa.
Resumo: os utilizadores podem submeter conteúdos para serem resumidos para tópicos predefinidos incorporados na aplicação. Os exemplos incluem o resumo de chats do Teams, e-mails, páginas Web e Word documentos.
Escrever assistência em tópicos específicos: os utilizadores podem criar novos conteúdos ou reescrever conteúdos submetidos pelo utilizador como um auxiliar de escrita para conteúdos empresariais ou tópicos predefinidos. Por exemplo, redigir e-mails no Microsoft Outlook ou escrever conteúdos no Microsoft Word.
Legendagem ou transcrição: os utilizadores podem transcrever ficheiros de áudio em texto para compreender linguagem natural ou tarefas analíticas, como resumo. Os exemplos incluem transcrições de reuniões e vídeos do Teams no Microsoft Stream.
A Microsoft fornece orientações detalhadas que se focam em cenários e casos de utilização comuns, para ajudar os clientes a acelerar a integração de capacidades Microsoft 365 Copilot nas suas organizações. Saiba mais na Biblioteca de Cenários do Microsoft Copilot – Adoção da Microsoft.
Considerações ao escolher um caso de utilização
Recomendamos que os utilizadores revejam todos os conteúdos gerados por Microsoft 365 Copilot antes de utilizá-lo. A qualidade e a precisão da resposta dependem de vários fatores, incluindo os modelos utilizados. Além disso, existem determinados cenários que recomendamos evitar. Em alguns casos, uma análise e supervisão humana significativas podem reduzir ainda mais o risco de resultados nocivos.
Evitar a utilização ou utilização indevida do sistema pode resultar em ferimentos físicos ou psicológicos significativos para um indivíduo. Por exemplo, cenários que diagnosticam pacientes ou prescrevem medicamentos têm o potencial de causar danos significativos.
Evitar a utilização ou utilização indevida do sistema pode ter um impacto consequente nas oportunidades de vida ou no estatuto legal. Os exemplos incluem cenários em que o sistema de IA pode afetar o estatuto legal, os direitos legais ou o acesso a crédito, educação, emprego, cuidados de saúde, habitação, seguros, prestações sociais, serviços, oportunidades ou os termos em que são fornecidos.
Considere cuidadosamente casos de utilização em domínios de alto risco ou indústria. Os exemplos incluem, mas não se limitam a médicos ou financeiros.
Limitações
Limitações Específicas do Microsoft 365 Copilot
Integração e Compatibilidade: embora Microsoft 365 Copilot tenha sido concebido para se integrar de forma totalmente integrada com aplicações do Microsoft 365, podem existir limitações ou problemas de compatibilidade em determinados ambientes, especialmente com aplicações de terceiros (não Microsoft) e configurações personalizadas ou não padrão.
Personalização e flexibilidade: embora Microsoft 365 Copilot possam ser personalizadas, existem limitações sobre quanto pode ser personalizado de acordo com necessidades organizacionais ou fluxos de trabalho específicos. As organizações podem considerar determinadas funcionalidades ou respostas rígidas ou não totalmente alinhadas com os requisitos organizacionais.
Dependência da conectividade à Internet: Microsoft 365 Copilot depende da conectividade internet para funcionar. Qualquer interrupção na conectividade pode afetar a disponibilidade e o desempenho do serviço.
Formação e adoção de utilizadores: a utilização eficaz de Microsoft 365 Copilot requer que os utilizadores compreendam as suas capacidades e limitações. Pode haver uma curva de aprendizagem e os utilizadores precisam de ser preparados para interagir eficazmente e beneficiar do serviço.
Intensidade dos recursos: a execução de modelos avançados de IA requer recursos computacionais significativos, o que pode afetar o desempenho, especialmente em ambientes restritos a recursos. Os utilizadores podem ter problemas de latência ou desempenho durante os picos de utilização.
Considerações legais e de conformidade: as organizações têm de considerar as suas obrigações legais e de conformidade específicas quando utilizam Microsoft 365 Copilot, especialmente em indústrias regulamentadas. A Microsoft está a analisar os requisitos regulamentares que se aplicam à Microsoft como fornecedor da tecnologia e a abordá-los no produto através de um processo de melhoria contínua.
Preconceito, estereotipagem e conteúdo não encalhada: apesar da formação intensiva da OpenAI e da implementação de controlos de IA responsáveis pela Microsoft em pedidos de utilizador e saídas LLM, os serviços de IA são falíveis e probabilísticos. Isto torna difícil bloquear de forma abrangente todo o conteúdo inapropriado, levando a potenciais preconceitos, estereótipos ou indiscrição em conteúdos gerados pela IA. Para obter mais informações sobre as limitações conhecidas dos conteúdos gerados por IA, veja a Nota de Transparência para Azure Serviço OpenAI, que inclui referências aos LLMs subjacentes Microsoft 365 Copilot.
desempenho do Microsoft 365 Copilot
Em muitos sistemas de IA, o desempenho é muitas vezes definido em relação à precisão, ou seja, a frequência com que o sistema de IA oferece uma predição ou saída correta. Com Microsoft 365 Copilot, dois utilizadores diferentes podem olhar para o mesmo resultado e ter opiniões diferentes sobre como é útil ou relevante, o que significa que o desempenho para estes sistemas tem de ser definido de forma mais flexível. Consideramos amplamente o desempenho para significar que a aplicação funciona como os utilizadores esperam.
Melhores práticas para melhorar a experiência de Microsoft 365 Copilot
Para melhorar o desempenho em relação à precisão da saída Microsoft 365 Copilot, recomendamos que as organizações considerem o seguinte:
Escreva bons pedidos. Escrever bons pedidos é fundamental para obter melhores resultados com Microsoft 365 Copilot. Tal como existem técnicas para ajudar as pessoas a comunicar eficazmente com um ser humano, existem diretrizes que podem ajudar os utilizadores a obter melhores resultados com Microsoft 365 Copilot ao escrever pedidos. Por exemplo: inclua detalhes, pedidos de estrutura, forneça instruções positivas, itere e regenerar, e reveja e verifique sempre as respostas geradas pela IA. Para obter mais informações, veja Obter melhores resultados com a solicitação de Copilot.
Permitir a referência de conteúdo Web. Permitir que os Microsoft 365 Copilot referenciem conteúdo Web pode melhorar a qualidade, a precisão e a relevância das respostas Microsoft 365 Copilot em que uma resposta beneficiaria das informações públicas atuais da Web. No entanto, tenha em atenção que, quando Microsoft 365 Copilot faz referência a conteúdo Web, fá-lo através do serviço Pesquisa do Bing e as práticas de processamento de dados para consultas Pesquisa do Bing são diferentes da forma como os dados são processados por Microsoft 365 Copilot. A utilização do Bing está abrangida pelo Contrato de Serviços da Microsoft entre cada utilizador e a Microsoft, juntamente com a Declaração de Privacidade da Microsoft.
Expandir a terra no Microsoft Graph. Microsoft 365 Copilot utiliza dados do Microsoft Graph para obter respostas básicas em dados específicos da organização, como e-mails, conversas, ficheiros e calendários. Ao expandir o Microsoft Graph com dados organizacionais de origens como sistemas CRM ou repositórios de ficheiros externos, as organizações podem incluir informações adicionais específicas do contexto e relevantes que melhoram ainda mais a riqueza e a precisão das respostas Microsoft 365 Copilot.
Mapeamento, medição e gestão de riscos
Tal como outras tecnologias de transformação, tirar partido dos benefícios da IA não é livre de riscos e uma parte fundamental do programa de IA responsável da Microsoft foi concebida para identificar potenciais riscos, medir a sua propensão e criar mitigações para geri-los. Orientados pelos nossos Princípios de IA e pela nossa Norma de IA Responsável, e com base em aprendizagens de outros produtos de IA geradores e da nossa infraestrutura de mitigação centralizada (por exemplo, Azure Segurança de Conteúdo de IA), procuramos mapear, medir e gerir potenciais riscos e utilização indevida de Microsoft 365 Copilot ao mesmo tempo que protegemos as utilizações transformadoras e benéficas que a nova experiência proporciona. Nas secções abaixo, descrevemos a nossa abordagem iterativa para mapear, medir e gerir potenciais riscos.
Mapa
Ao nível do modelo, o nosso trabalho começou com análises exploratórias do GPT-4 no final do verão de 2022. Isto incluiu a realização de testes extensivos da equipa vermelha em colaboração com a OpenAI. Este teste foi concebido para avaliar como a tecnologia mais recente funcionaria sem quaisquer salvaguardas adicionais aplicadas à mesma. A nossa intenção específica neste momento era identificar riscos, encontrar potenciais vias para utilização indevida e identificar capacidades e limitações. As nossas aprendizagens combinadas no OpenAI e na Microsoft contribuíram para os avanços no desenvolvimento de modelos e, para nós, na Microsoft, informámos a nossa compreensão dos riscos e contribuímos para estratégias de mitigação antecipadas para todas as nossas tecnologias de IA geradas, incluindo Microsoft 365 Copilot.
Além dos testes da equipa vermelha ao nível do modelo, uma equipa multidisciplinar de especialistas realizou testes de equipa vermelha ao nível da aplicação em experiências Microsoft 365 Copilot antes de as disponibilizar publicamente. Este processo ajudou-nos a compreender melhor como o sistema pode ser explorado e a melhorar as nossas mitigações. Após o lançamento, as novas experiências de IA no Microsoft 365 Copilot estão integradas na infraestrutura de teste e medição de produção existente da organização de engenharia.
Medida
Os testes da equipa vermelha podem apresentar instâncias de riscos específicos, mas em produção os utilizadores terão milhões de diferentes tipos de interações com Microsoft 365 Copilot. Além disso, as interações são contextuais e, muitas vezes, multi-voltas, e identificar conteúdo prejudicial numa interação é uma tarefa complexa. Para compreender melhor e abordar o potencial de riscos para os nossos serviços de IA geradoras, incluindo experiências Microsoft 365 Copilot, desenvolvemos avaliações de IA responsáveis específicas dessas novas experiências de IA para medir potenciais riscos, como jailbreaks, conteúdo prejudicial e conteúdo não encalçado.
Como exemplo ilustrativo, o pipeline de medição parcialmente automatizado atualizado para conteúdo prejudicial inclui duas grandes inovações: simulação de conversação e anotação de conversação automatizada e verificada por humanos. Em primeiro lugar, especialistas responsáveis em IA criaram modelos para capturar a estrutura e o conteúdo de conversações que poderiam resultar em diferentes tipos de conteúdo prejudicial. Estes modelos foram então fornecidos a um agente de conversação, que interagiu como um utilizador hipotético com Microsoft 365 Copilot, gerando conversações simuladas. Para identificar se estas conversações simuladas continham conteúdo prejudicial, tomámos orientações que são normalmente utilizadas por linguistas especialistas para etiquetar dados e modificá-los para utilização por LLMs para etiquetar conversações em escala, refinando as diretrizes até que houvesse um acordo significativo entre conversações com etiquetas de modelo e conversações com etiquetas humanas. Por fim, utilizámos as conversações com etiquetas de modelo para compreender a eficácia dos Microsoft 365 Copilot na mitigação de conteúdo prejudicial.
Os nossos pipelines de medição permitem-nos realizar rapidamente medições para potenciais riscos em escala. À medida que identificamos novos problemas durante o período de pré-visualização e os testes da equipa vermelha em curso, continuamos a expandir e a melhorar os conjuntos de medição para avaliar riscos adicionais.
Gerir
À medida que identificámos potenciais riscos e utilização indevida através de processos como testes da equipa vermelha e medimo-los, desenvolvemos mitigações para reduzir o potencial de danos. Abaixo, descrevemos algumas dessas mitigações. Vamos continuar a monitorizar as experiências de Microsoft 365 Copilot para melhorar o desempenho e as mitigações dos produtos.
Lançamento faseado, avaliação contínua. Estamos empenhados em aprender e melhorar continuamente a nossa abordagem de IA responsável à medida que as nossas tecnologias e o comportamento dos utilizadores evoluem. Estamos a fazer alterações ao Microsoft 365 Copilot regularmente para melhorar o desempenho do produto, melhorar as mitigações existentes e implementar novas mitigações em resposta às nossas aprendizagens.
Base em dados empresariais. Um risco conhecido com modelos de linguagem de grandes dimensões é a capacidade de gerar conteúdo não encalhada— conteúdo que aparece correto mas não está presente nos materiais de origem. Uma mitigação importante no Microsoft 365 Copilot consiste em criar conteúdos gerados por IA em dados empresariais relevantes aos quais o utilizador tem acesso com base nas respetivas permissões. Por exemplo, com base no pedido do utilizador, Microsoft 365 Copilot é fornecido com documentos empresariais relevantes para fundamentar a sua resposta nesses documentos. No entanto, ao resumir conteúdo de várias origens, Microsoft 365 Copilot podem incluir informações na sua resposta que não estão presentes nas suas origens de entrada. Por outras palavras, pode produzir resultados não encalhados. Os utilizadores devem ter sempre cuidado e ter o seu melhor senso ao utilizar saídas de Microsoft 365 Copilot. Tomámos várias medidas para mitigar o risco de os utilizadores poderem depender excessivamente de conteúdos gerados por IA sem terra. Sempre que possível, as respostas no Microsoft 365 Copilot baseadas em documentos empresariais incluem referências às origens para os utilizadores verificarem a resposta e saberem mais. Os utilizadores também recebem um aviso explícito de que estão a interagir com um sistema de IA e são aconselhados a verificar os materiais de origem para os ajudar a utilizar o seu melhor julgamento.
Classificadores baseados em IA e metaprompmpting para mitigar potenciais riscos ou utilização indevida. A utilização de LLMs pode produzir conteúdo problemático que pode causar danos. Os exemplos podem incluir resultados relacionados com auto-danos, violência, conteúdo gráfico, questões de biossegurança, material protegido, informações imprecisas, discurso odioso ou texto que possa estar relacionado com atividades ilegais. Classificadores como os disponíveis no Azure Segurança de Conteúdo de IA e metaprompting são dois exemplos de mitigações que foram implementadas no Microsoft 365 Copilot para ajudar a reduzir o risco destes tipos de conteúdo. Os classificadores classificam texto para sinalizar diferentes tipos de conteúdo potencialmente prejudicial nos pedidos do utilizador ou nas respostas geradas. Microsoft 365 Copilot utiliza classificadores baseados em IA e filtros de conteúdo. Os sinalizadores levam a potenciais mitigações, como não devolver conteúdo gerado ao utilizador ou desviar o utilizador para um tópico diferente. A Microsoft oferece determinados controlos de filtragem de conteúdos para administradores e utilizadores onde a filtragem de conteúdos potencialmente prejudiciais ou confidenciais no Microsoft 365 Copilot Chat não satisfaz as suas necessidades. O metaprompting envolve dar instruções ao modelo para orientar o seu comportamento, incluindo para que o sistema se comporte de acordo com os Princípios de IA da Microsoft e as expectativas dos utilizadores. Por exemplo, o metaprompt pode incluir uma linha como "comunicar no idioma de eleição do utilizador".
Melhoramento de pedidos. Em alguns casos, o pedido de um utilizador pode ser ambíguo. Quando isto acontece, Microsoft 365 Copilot pode utilizar o LLM para ajudar a criar mais detalhes no pedido para ajudar a garantir que os utilizadores obtêm a resposta que procuram. Este melhoramento de pedidos não depende de nenhum conhecimento do utilizador ou das pesquisas anteriores, mas sim do LLM.
Design centrado no utilizador e experiência de utilizador intervenções. O design centrado no utilizador e as experiências de utilizador são um aspeto essencial da abordagem da Microsoft à IA responsável. O objetivo é criar o design de produtos de raiz nas necessidades e expectativas dos utilizadores. À medida que os utilizadores interagem com Microsoft 365 Copilot pela primeira vez, oferecemos vários pontos táteis concebidos para ajudá-los a compreender as capacidades do sistema, divulgar-lhes que Microsoft 365 Copilot é alimentado por IA e comunicar limitações.
Divulgação de IA. Microsoft 365 Copilot fornece vários pontos táteis para uma divulgação significativa da IA em que os utilizadores são notificados de que estão a interagir com um sistema de IA, bem como oportunidades para saber mais sobre Microsoft 365 Copilot. Por exemplo, ao utilizar Microsoft 365 Copilot na aplicação Word, os conteúdos gerados por IA são fornecidos juntamente com o aviso de que o conteúdo gerado por IA pode conter erros. Capacitar os utilizadores com este conhecimento pode ajudá-los a evitar depender excessivamente de saídas geradas por IA e saber mais sobre os pontos fortes e as limitações do sistema.
Proveniência dos media. Para todas as imagens criadas com as funcionalidades de edição do Designer a partir de Microsoft 365 Copilot, implementámos credenciais de conteúdo, proveniência com base na norma C2PA, para ajudar as pessoas a identificar se as imagens foram editadas ou geradas com IA. Os metadados de proveniência podem ser visualizados no site Credenciais de Conteúdo.
Comentários e avaliação em curso. A experiência Microsoft 365 Copilot baseia-se em ferramentas existentes que permitem aos utilizadores submeter feedback sobre os nossos produtos. Os utilizadores podem submeter comentários sobre conteúdos gerados por Microsoft 365 Copilot utilizando o painel que aparece depois de selecionar os botões polegares para cima ou polegares para baixo nas respostas. Os comentários submetidos pelos utilizadores são utilizados para melhorar as nossas ofertas como parte do nosso compromisso de melhorar o desempenho do produto. Os administradores de clientes podem rever os comentários submetidos no centro de administração do Microsoft 365. Também melhoramos e testamos continuamente o desempenho de Microsoft 365 Copilot e mitigações específicas como parte da nossa avaliação e melhoria contínuas do serviço. Saiba mais em Fornecer feedback sobre Microsoft Copilot com aplicações do Microsoft 365.
A nossa abordagem ao mapeamento, medição e gestão de riscos continuará a evoluir à medida que aprendemos mais e já estamos a fazer melhorias com base nos comentários que recebemos dos clientes.
Avaliar e integrar Microsoft 365 Copilot para a sua organização
Otimização da implementação e da adoção
A Microsoft fornece ferramentas como o Dashboard do Microsoft Copilot para clientes e relatórios do Microsoft 365 na centro de administração do Microsoft 365. Estas ferramentas foram concebidas para ajudar as organizações a medir a utilização, a adoção e o impacto das Microsoft 365 Copilot. Por exemplo:
Microsoft 365 Copilot relatório de utilização permite que os administradores vejam um resumo da forma como a adoção, retenção e interação dos utilizadores estão com Microsoft 365 Copilot. Para obter mais informações, veja Microsoft 365 Copilot utilização.
A Classificação de Adoção oferece aos administradores informações sobre como a organização funciona com Microsoft 365 Copilot. Fornece uma classificação numa escala de 100 pontos, uma vista de dashboard dos dados e tendências de adoção e uma ferramenta para criar inquéritos de utilizadores para recolher comentários.
O dashboard do Experience Insights (pré-visualização) mostra dados sobre a utilização para proporcionar uma visão mais completa da experiência de uma organização com o Microsoft 365, incluindo informações sobre dados de formação, aplicações e serviços e comentários dos utilizadores.
Saiba mais sobre Microsoft 365 Copilot
- Descrição geral do Microsoft 365 Copilot
- O Sistema Copilot: Explicado pela Microsoft
- Dados, Privacidade e Segurança para o Microsoft 365 Copilot
- Extensibilidade do Microsoft 365 Copilot
Saiba mais sobre os agentes
- descrição geral do Copilot Studio
- Criar um agente declarativo com o Agent Builder no Microsoft 365 Copilot
- Agentes declarativos para Microsoft 365 Copilot
- Criar e implementar um agente com SDK de Agentes do Microsoft 365