Nota:
El acceso a esta página requiere autorización. Puede intentar iniciar sesión o cambiar directorios.
El acceso a esta página requiere autorización. Puede intentar cambiar los directorios.
Para los desarrolladores de aplicaciones que buscan integrar características de inteligencia artificial, Microsoft Windows ofrece una plataforma completa y flexible que admite soluciones locales, de procesamiento en dispositivos y escalables basadas en la nube.
Elegir entre modelos de inteligencia artificial locales y basados en la nube depende de sus necesidades y prioridades específicas. Factores que deben tenerse en cuenta:
- Privacidad, conformidad y seguridad de los datos
- Disponibilidad de recursos
- Accesibilidad y colaboración
- Costos
- Mantenimiento y actualizaciones
- Rendimiento y latencia
- Escalabilidad
- Requisitos de conectividad
- Tamaño y complejidad del modelo
- Las herramientas y el ecosistema asociado
- Personalización y control
Factores clave de decisión para desarrolladores de aplicaciones
Privacidad, cumplimiento y seguridad de los datos
-
- Local, en el dispositivo: Dado que los datos permanecen en el dispositivo, ejecutar un modelo localmente puede ofrecer ventajas relacionadas con la seguridad y la privacidad, siendo la responsabilidad de la seguridad de los datos del usuario. El desarrollador es responsable de administrar las actualizaciones, garantizar la compatibilidad y supervisar las vulnerabilidades de seguridad.
-
- Nube: Los proveedores de nube ofrecen medidas de seguridad sólidas, pero los datos deben transferirse a la nube, lo que podría provocar problemas de privacidad de datos para el mantenedor de servicios de aplicaciones o empresariales en algunos casos. El envío de datos a la nube también debe cumplir con las regulaciones de protección de datos, como RGPD o HIPAA, en función de la naturaleza de los datos y la región en la que opera la aplicación. Normalmente, los proveedores de nube controlan las actualizaciones de seguridad y el mantenimiento, pero los usuarios deben asegurarse de que usan API seguras y seguir los procedimientos recomendados para el control de datos.
-
Disponibilidad de recursos
Local, en las instalaciones: La ejecución de un modelo depende de los recursos disponibles en el dispositivo que se usa, incluida la CPU, la GPU, la NPU, la memoria y la capacidad de almacenamiento. Esto puede ser limitar si el dispositivo no tiene una capacidad computacional elevada o un almacenamiento suficiente. Modelos de lenguaje pequeño (SLAM), como Phi, son más adecuados para su uso local en un dispositivo. Copilot+ Los equipos ofrecen modelos integrados con características de inteligencia artificial listas para usar compatibles con Microsoft Foundry on Windows.
-
- Nube: Las plataformas en la nube, como Azure AI Services, ofrecen recursos escalables. Puede usar tanta potencia computacional como necesite y solo pagar por lo que use. Los modelos de lenguaje grande (LLM), como los modelos de lenguaje OpenAI , requieren más recursos, pero también son más eficaces.
Accesibilidad y colaboración
-
- Local, en las instalaciones: El modelo y los datos solo son accesibles en el dispositivo a menos que se compartan manualmente. Esto tiene el potencial de hacer que la colaboración en los datos del modelo sea más difícil.
-
- Cloud: se puede acceder al modelo y a los datos desde cualquier lugar con conectividad a Internet. Esto puede ser mejor para escenarios de colaboración.
-
Costo
Local, en las instalaciones: No hay ningún costo adicional más allá de la inversión inicial en el hardware del dispositivo.
Nube: Mientras que las plataformas en la nube funcionan en un modelo de pago por uso, los costos pueden acumularse en función de los recursos usados y la duración del uso.
mantenimiento y actualizaciones
Local, en las instalaciones: El usuario es responsable de mantener el sistema e instalar actualizaciones.
Cloud: el proveedor de servicios en la nube gestiona el mantenimiento, las actualizaciones del sistema y de nuevas funciones, reduciendo la carga de mantenimiento para el usuario.
Rendimiento y latencia
Local, en las instalaciones: La ejecución de un modelo localmente puede reducir la latencia, ya que no es necesario enviar datos a través de la red. Sin embargo, el rendimiento está limitado por las funcionalidades de hardware del dispositivo.
Nube: Los modelos basados en la nube pueden aprovechar hardware eficaz, pero pueden introducir latencia debido a la comunicación de red. El rendimiento puede variar en función de la conexión a Internet del usuario y del tiempo de respuesta del servicio en la nube.
Escalabilidad
Local, en las instalaciones: Escalar un modelo en un dispositivo local puede requerir actualizaciones significativas de hardware o la adición de más dispositivos, lo que puede ser costoso y llevar tiempo.
Nube: Las plataformas en la nube ofrecen una escalabilidad sencilla, lo que le permite ajustar rápidamente los recursos en función de la demanda sin necesidad de cambios de hardware físicos.
Requisitos de conectividad
Local, en las instalaciones: Un dispositivo local no requiere una conexión a Internet para ejecutar un modelo, lo que puede ser beneficioso en entornos con conectividad limitada.
Nube: Los modelos basados en la nube requieren una conexión estable a Internet para el acceso y pueden verse afectadas por problemas de red.
Tamaño y complejidad del modelo
Local, en las instalaciones: Los dispositivos locales pueden tener limitaciones en el tamaño y la complejidad de los modelos que se pueden ejecutar debido a restricciones de hardware. Los modelos más pequeños, como Phi, son más adecuados para la ejecución local.
Nube: Las plataformas en la nube pueden controlar modelos más grandes y complejos, como los proporcionados por OpenAI, debido a su infraestructura escalable.
Herramientas y el ecosistema asociado
Local, en las instalaciones: Las soluciones de inteligencia artificial local, como Microsoft FoundryMicrosoft Foundry on Windows, Windows ML y Foundry Local, se integran con Windows SDK de aplicaciones y el entorno de ejecución de ONNX, lo que permite a los desarrolladores insertar modelos directamente en aplicaciones perimetrales o de escritorio con dependencias externas mínimas.
Nube: Las soluciones de inteligencia artificial en la nube, como Microsoft Foundry, Azure AI Services y Azure OpenAI Service, proporcionan un conjunto completo de API y SDK para crear aplicaciones de inteligencia artificial. Estos servicios están diseñados para integrarse sin problemas con Azure DevOps, GitHub Copilot, Kernel semántico y otros Azure servicios, lo que permite la orquestación de un extremo a otro, la implementación del modelo y la supervisión a escala.
Personalización y control
Local, en las instalaciones: Los modelos locales se pueden usar directamente, sin necesidad de un alto nivel de experiencia. Microsoft Foundry on Windows ofrece modelos como Phi Silica que están listos para usar. Como alternativa, Windows ML permite a los desarrolladores ejecutar modelos personalizados, como los entrenados con ONNX Runtime, directamente en Windows dispositivos. Esto proporciona un alto nivel de control sobre el modelo y su comportamiento, lo que permite ajustar y optimizar en función de casos de uso específicos. Foundry Local también permite a los desarrolladores ejecutar modelos localmente en Windows dispositivos, lo que proporciona un alto nivel de control sobre el modelo y su comportamiento.
Nube: Los modelos basados en la nube también ofrecen opciones listas para usar y personalizables, lo que permite a los desarrolladores aprovechar las funcionalidades previamente entrenadas, a la vez que se adapta el modelo a sus necesidades específicas. Microsoft Foundry es una oferta unificada Azure de plataforma como servicio para las operaciones de inteligencia artificial empresarial, los generadores de modelos y el desarrollo de aplicaciones. Esta base combina la infraestructura de nivel de producción con interfaces fáciles, lo que permite a los desarrolladores centrarse en la creación de aplicaciones en lugar de administrar la infraestructura.
Ejemplos de INTELIGENCIA ARTIFICIAL en la nube
Si una solución basada en la nube funciona mejor para el Windows escenario de la aplicación, puede que le interesen algunos de los tutoriales siguientes.
Muchas API están disponibles para acceder a los modelos basados en la nube para impulsar las características de inteligencia artificial en la Windows aplicación, tanto si esos modelos están personalizados como listos para usarse. El uso de un modelo basado en la nube puede permitir que la aplicación permanezca simplificada mediante la delegación de tareas que consumen muchos recursos en la nube. Algunos recursos que le ayudarán a agregar API respaldadas por IA basadas en la nube ofrecidas por Microsoft o OpenAI incluyen:
Agregar finalizaciones de chat de OpenAI a tu aplicación de escritorio WinUI 3 / Windows App SDK: Un tutorial sobre cómo integrar las capacidades de finalización de OpenAI ChatGPT en la nube en una aplicación de escritorio WinUI 3 / Windows App SDK.
Agregar DALL-E a tu aplicación de escritorio de WinUI 3 / Windows SDK de aplicaciones: Un tutorial sobre cómo integrar las capacidades de generación de imágenes de OpenAI basadas en la nube de DALL-E en una aplicación de escritorio de WinUI 3 / Windows SDK de aplicaciones.
Creación de una aplicación de recomendación con .NET MAUI y ChatGPT: tutorial sobre cómo crear una aplicación de recomendación de ejemplo que integre las funcionalidades de finalización de ChatGPT de OpenAI basadas en la nube en una aplicación MAUI de .NET.
Azure Servicio OpenAI: si quieres que tu Windows aplicación acceda a modelos openAI, como GPT-4, GPT-4 Turbo with Vision, GPT-3.5-Turbo, DALLE-3 o la serie de modelos Embeddings, con las funcionalidades empresariales y de seguridad agregadas de Azure, puedes encontrar instrucciones en esta Azure documentación de OpenAI.
Azure Servicios de IA: Azure ofrece un conjunto completo de servicios de inteligencia artificial disponibles a través de api REST y SDK de biblioteca cliente en lenguajes de desarrollo populares. Para más información, consulte la documentación de cada servicio. Estos servicios basados en la nube ayudan a los desarrolladores y organizaciones a crear rápidamente aplicaciones inteligentes, avanzadas, listas para el mercado y responsables con api y modelos precompilados y personalizables. Algunos ejemplos de aplicaciones son el procesamiento del lenguaje natural para conversaciones, búsqueda, supervisión, traducción, voz, visión y toma de decisiones.