Compartir a través de


Elección entre modelos de inteligencia artificial locales y basados en la nube

Para los desarrolladores de aplicaciones que buscan integrar características de inteligencia artificial, Microsoft Windows ofrece una plataforma completa y flexible que admite soluciones locales, de procesamiento en dispositivos y escalables basadas en la nube.

Elegir entre modelos de inteligencia artificial locales y basados en la nube depende de sus necesidades y prioridades específicas. Factores que deben tenerse en cuenta:

  • Privacidad, conformidad y seguridad de los datos
  • Disponibilidad de recursos
  • Accesibilidad y colaboración
  • Costos
  • Mantenimiento y actualizaciones
  • Rendimiento y latencia
  • Escalabilidad
  • Requisitos de conectividad
  • Tamaño y complejidad del modelo
  • Las herramientas y el ecosistema asociado
  • Personalización y control

Factores clave de decisión para desarrolladores de aplicaciones

  • Privacidad, cumplimiento y seguridad de los datos

      • Local, en el dispositivo: Dado que los datos permanecen en el dispositivo, ejecutar un modelo localmente puede ofrecer ventajas relacionadas con la seguridad y la privacidad, siendo la responsabilidad de la seguridad de los datos del usuario. El desarrollador es responsable de administrar las actualizaciones, garantizar la compatibilidad y supervisar las vulnerabilidades de seguridad.
      • Nube: Los proveedores de nube ofrecen medidas de seguridad sólidas, pero los datos deben transferirse a la nube, lo que podría provocar problemas de privacidad de datos para el mantenedor de servicios de aplicaciones o empresariales en algunos casos. El envío de datos a la nube también debe cumplir con las regulaciones de protección de datos, como RGPD o HIPAA, en función de la naturaleza de los datos y la región en la que opera la aplicación. Normalmente, los proveedores de nube controlan las actualizaciones de seguridad y el mantenimiento, pero los usuarios deben asegurarse de que usan API seguras y seguir los procedimientos recomendados para el control de datos.
  • Disponibilidad de recursos

    • Local, en las instalaciones: La ejecución de un modelo depende de los recursos disponibles en el dispositivo que se usa, incluida la CPU, la GPU, la NPU, la memoria y la capacidad de almacenamiento. Esto puede ser limitar si el dispositivo no tiene una capacidad computacional elevada o un almacenamiento suficiente. Modelos de lenguaje pequeño (SLAM), como Phi, son más adecuados para su uso local en un dispositivo. Copilot+ Los equipos ofrecen modelos integrados con características de inteligencia artificial listas para usar compatibles con Microsoft Foundry on Windows.

      • Nube: Las plataformas en la nube, como Azure AI Services, ofrecen recursos escalables. Puede usar tanta potencia computacional como necesite y solo pagar por lo que use. Los modelos de lenguaje grande (LLM), como los modelos de lenguaje OpenAI , requieren más recursos, pero también son más eficaces.
  • Accesibilidad y colaboración

      • Local, en las instalaciones: El modelo y los datos solo son accesibles en el dispositivo a menos que se compartan manualmente. Esto tiene el potencial de hacer que la colaboración en los datos del modelo sea más difícil.
      • Cloud: se puede acceder al modelo y a los datos desde cualquier lugar con conectividad a Internet. Esto puede ser mejor para escenarios de colaboración.
  • Costo

    • Local, en las instalaciones: No hay ningún costo adicional más allá de la inversión inicial en el hardware del dispositivo.

    • Nube: Mientras que las plataformas en la nube funcionan en un modelo de pago por uso, los costos pueden acumularse en función de los recursos usados y la duración del uso.

  • mantenimiento y actualizaciones

    • Local, en las instalaciones: El usuario es responsable de mantener el sistema e instalar actualizaciones.

    • Cloud: el proveedor de servicios en la nube gestiona el mantenimiento, las actualizaciones del sistema y de nuevas funciones, reduciendo la carga de mantenimiento para el usuario.

  • Rendimiento y latencia

    • Local, en las instalaciones: La ejecución de un modelo localmente puede reducir la latencia, ya que no es necesario enviar datos a través de la red. Sin embargo, el rendimiento está limitado por las funcionalidades de hardware del dispositivo.

    • Nube: Los modelos basados en la nube pueden aprovechar hardware eficaz, pero pueden introducir latencia debido a la comunicación de red. El rendimiento puede variar en función de la conexión a Internet del usuario y del tiempo de respuesta del servicio en la nube.

  • Escalabilidad

    • Local, en las instalaciones: Escalar un modelo en un dispositivo local puede requerir actualizaciones significativas de hardware o la adición de más dispositivos, lo que puede ser costoso y llevar tiempo.

    • Nube: Las plataformas en la nube ofrecen una escalabilidad sencilla, lo que le permite ajustar rápidamente los recursos en función de la demanda sin necesidad de cambios de hardware físicos.

  • Requisitos de conectividad

    • Local, en las instalaciones: Un dispositivo local no requiere una conexión a Internet para ejecutar un modelo, lo que puede ser beneficioso en entornos con conectividad limitada.

    • Nube: Los modelos basados en la nube requieren una conexión estable a Internet para el acceso y pueden verse afectadas por problemas de red.

  • Tamaño y complejidad del modelo

    • Local, en las instalaciones: Los dispositivos locales pueden tener limitaciones en el tamaño y la complejidad de los modelos que se pueden ejecutar debido a restricciones de hardware. Los modelos más pequeños, como Phi, son más adecuados para la ejecución local.

    • Nube: Las plataformas en la nube pueden controlar modelos más grandes y complejos, como los proporcionados por OpenAI, debido a su infraestructura escalable.

  • Herramientas y el ecosistema asociado

    • Local, en las instalaciones: Las soluciones de inteligencia artificial local, como Microsoft FoundryMicrosoft Foundry on Windows, Windows ML y Foundry Local, se integran con Windows SDK de aplicaciones y el entorno de ejecución de ONNX, lo que permite a los desarrolladores insertar modelos directamente en aplicaciones perimetrales o de escritorio con dependencias externas mínimas.

    • Nube: Las soluciones de inteligencia artificial en la nube, como Microsoft Foundry, Azure AI Services y Azure OpenAI Service, proporcionan un conjunto completo de API y SDK para crear aplicaciones de inteligencia artificial. Estos servicios están diseñados para integrarse sin problemas con Azure DevOps, GitHub Copilot, Kernel semántico y otros Azure servicios, lo que permite la orquestación de un extremo a otro, la implementación del modelo y la supervisión a escala.

  • Personalización y control

    • Local, en las instalaciones: Los modelos locales se pueden usar directamente, sin necesidad de un alto nivel de experiencia. Microsoft Foundry on Windows ofrece modelos como Phi Silica que están listos para usar. Como alternativa, Windows ML permite a los desarrolladores ejecutar modelos personalizados, como los entrenados con ONNX Runtime, directamente en Windows dispositivos. Esto proporciona un alto nivel de control sobre el modelo y su comportamiento, lo que permite ajustar y optimizar en función de casos de uso específicos. Foundry Local también permite a los desarrolladores ejecutar modelos localmente en Windows dispositivos, lo que proporciona un alto nivel de control sobre el modelo y su comportamiento.

    • Nube: Los modelos basados en la nube también ofrecen opciones listas para usar y personalizables, lo que permite a los desarrolladores aprovechar las funcionalidades previamente entrenadas, a la vez que se adapta el modelo a sus necesidades específicas. Microsoft Foundry es una oferta unificada Azure de plataforma como servicio para las operaciones de inteligencia artificial empresarial, los generadores de modelos y el desarrollo de aplicaciones. Esta base combina la infraestructura de nivel de producción con interfaces fáciles, lo que permite a los desarrolladores centrarse en la creación de aplicaciones en lugar de administrar la infraestructura.

Ejemplos de INTELIGENCIA ARTIFICIAL en la nube

Si una solución basada en la nube funciona mejor para el Windows escenario de la aplicación, puede que le interesen algunos de los tutoriales siguientes.

Muchas API están disponibles para acceder a los modelos basados en la nube para impulsar las características de inteligencia artificial en la Windows aplicación, tanto si esos modelos están personalizados como listos para usarse. El uso de un modelo basado en la nube puede permitir que la aplicación permanezca simplificada mediante la delegación de tareas que consumen muchos recursos en la nube. Algunos recursos que le ayudarán a agregar API respaldadas por IA basadas en la nube ofrecidas por Microsoft o OpenAI incluyen: