Modelos de interação

Concluído

O Kit de Ferramentas de Realidade Misturada permite que você consuma entradas de uma variedade de fontes de entrada, como controladores, mãos articuladas ou fala. Escolher o modelo de interação mais adequado para sua experiência de realidade misturada exige que você identifique seu usuário e suas metas e considere quaisquer fatores situacionais ou ambientais que possam afetar sua experiência. Aqui, você aprenderá sobre os três principais modelos de interação para experiências de realidade misturada e como simular a entrada no Unity.

Modelos de interação

Há três modelos de interação primários que se adequam à maioria das experiências de realidade misturada.

Modelo Cenários de exemplo Ajuste
Controladores de mãos e de movimento Experiências 3D espaciais, como layout e design espaciais, manipulação de conteúdo ou simulação. Excelente para novos usuários, juntamente com voz, rastreamento ocular ou olhar fixo. Curva de aprendizado pequena. UX consistente com acompanhamento de mão e controladores 6DoF.
Mãos livres Experiências contextuais em que as mãos de um usuário estão ocupadas, como aprendizado e manutenção no trabalho. Requer um aprendizado prévio. Se as mãos não estiverem disponíveis, o dispositivo emparelha-se bem com voz e linguagem natural.
Focar e confirmar Experiências de clique, por exemplo, apresentações em 3D ou demonstrações. Requer treinamento em dispositivos montados na cabeça, mas não em dispositivos móveis. Ideal para controladores acessíveis.

Embora você possa combinar partes de vários modelos de interação na sua experiência de realidade misturada, esteja ciente de que isso cria o risco de entrada de usuário concorrente, como raios de mão simultâneos e um cursor de olhar fixo. Isso pode sobrecarregar e confundir os usuários.

Se sua experiência exigir vários modelos de interação, tenha em mente que muitos usuários podem encontrar dificuldade ao fazer a transição de um modelo para outro, especialmente os usuários que são novos em realidade misturada.

Modelo de controladores de mãos e de movimento

O modelo de controladores de mãos e movimento exige que os usuários usem uma ou as duas mãos para interagir com o mundo holográfico. Esse modelo remove o limite entre virtual e físico.

Alguns cenários específicos incluem:

  • Fornecendo telas virtuais 2D para os funcionários de informações com recursos de interface do usuário para exibir e controlar o conteúdo
  • Fornecer tutoriais e guias para trabalhadores de linha de frente/ linhas de montagem de fábrica
  • Desenvolvimento de ferramentas profissionais para auxiliar e orientar profissionais médicos
  • Uso de objetos virtuais 3D para decorar o mundo real ou criar um outro mundo
  • Criando serviços e jogos baseados em localização usando o mundo real como plano de fundo

Há três modalidades de controladores de mão e de movimento:

  • Manipulação direta com as mãos
  • Apontar e confirmar com as mãos
  • Controladores de movimento

Modelo de mãos livres

O modelo de mãos livres permite que os usuários interajam com conteúdo holográfico sem usar as mãos. Essa abordagem é melhor usar se o usuário precisar usar as mãos para atingir suas metas reais e terá dificuldade para interagir com uma interface baseada em mãos e controladores.

Alguns cenários específicos incluem:

  • Ser guiado para realizar uma tarefa enquanto o usuário está com as mãos ocupadas
  • Consulta de materiais enquanto as mãos do usuário estão ocupadas
  • Descanso das mãos em caso de fadiga
  • Uso de luvas que não podem ser rastreadas
  • Usuário carregando algo com as mãos
  • Desconforto social ao fazer gestos amplos com as mãos
  • Espaços apertados

Há duas modalidades de mãos livres:

  • Entrada de voz
  • Focar e pesquisar

Focar e confirmar

Focar e confirmar é um modelo de entrada que está fortemente relacionado à maneira como interagimos com computadores usando um mouse para apontar e clicar. Focar e confirmar é considerado um modelo de entrada à distância, com manipulação indireta. Por isso ele é ideal para interagir com o conteúdo holográfico que está fora do alcance. Há dois tipos de entrada de foco (com a cabeça e com o olhar) e diferentes ações de confirmação.

Depois que o usuário usa o olhar para mirar em um objeto ou elemento da interface do usuário, ele pode interagir ou selecioná-lo usando uma entrada secundária. Isso é conhecido como a etapa de confirmação do modelo de entrada. Os métodos de confirmação incluem comandos de voz, pressionamento de botão ou gesto de mão.

Simulação de entrada no editor do Unity

A simulação de entrada no editor do Unity permite testar o comportamento do objeto holográfico ao usar a interação mão ou olho.

Como se movimentar em uma cena:

  • Use as teclas W/A/S/D para mover a câmera para frente/para a esquerda/para trás/para a direita.
  • Use as teclas Q/E para mover a câmera verticalmente.
  • Pressione e segure o botão direito do mouse para girar a câmera.

Como simular a entrada manual:

  • Pressione e segure a barra de espaço para habilitar a mão direita.
  • Enquanto continua pressionando a barra de espaço, mova o mouse para movimentar a mão.
  • Use a roda de rolagem do mouse para ajustar a profundidade da mão.
  • Clique no botão esquerdo do mouse para simular um gesto de pinçagem.
  • Use as teclas T/Y para tornar a mão permanente na exibição.
  • Segure a tecla CTRL e mova o mouse para girar a mão.
  • Pressione e segure a tecla Shift esquerda para habilitar a mão esquerda.