Nota:
El acceso a esta página requiere autorización. Puede intentar iniciar sesión o cambiar directorios.
El acceso a esta página requiere autorización. Puede intentar cambiar los directorios.
Nota:
Este documento hace referencia al portal de Microsoft Foundry (clásico).
🔍 Consulte la documentación de Microsoft Foundry (nuevo) para obtener información sobre el nuevo portal.
Microsoft Foundry Models es su destino único para detectar, evaluar e implementar modelos de IA eficaces, tanto si está creando un copilot personalizado, creando un agente, mejorando una aplicación existente o explorando nuevas funcionalidades de inteligencia artificial.
Con Foundry Models, puede hacer lo siguiente:
- Explore un amplio catálogo de modelos de vanguardia de Microsoft, OpenAI, DeepSeek, Hugging Face, Meta, etc.
- Compare y evalúe modelos en paralelo mediante tareas del mundo real y sus propios datos.
- Implemente con confianza, gracias a las herramientas integradas para ajustar, observar e inteligencia artificial responsable.
- Elija su ruta de acceso: traiga su propio modelo, use uno hospedado o integre sin problemas con los servicios de Azure.
- Tanto si es desarrollador, científico de datos como arquitecto empresarial, Foundry Models le ofrece la flexibilidad y el control para crear soluciones de inteligencia artificial que se escalan de forma segura, responsable y rápida.
Foundry ofrece un catálogo completo de modelos de IA. Hay más de 1900 modelos que van desde Modelos de Fundación, Modelos de Razonamiento, Modelos de Lenguaje Pequeño, Modelos Multimodales, Modelos Específicos del Dominio, Modelos de Industria y más.
Nuestro catálogo se organiza en dos categorías principales:
Comprender la distinción entre estas categorías le ayuda a elegir los modelos adecuados en función de sus requisitos específicos y objetivos estratégicos.
Nota:
- Para todos los modelos, los clientes siguen siendo responsables de (i) cumplir con la ley en su uso de cualquier modelo o sistema; (ii) revisar descripciones de modelos en el catálogo de modelos, tarjetas de modelo disponibles por el proveedor de modelos y otra documentación pertinente; (iii) seleccionar un modelo adecuado para su caso de uso y (iv) implementar medidas adecuadas (incluido el uso de la seguridad del contenido de Azure AI) para asegurarse de que el uso de Las herramientas de Foundry cumple con la Directiva de uso aceptable en los Términos de producto de Microsoft y el Código de conducta de los Servicios de inteligencia artificial de Microsoft Enterprise.
Modelos vendidos directamente por Azure
Estos son modelos hospedados y vendidos por Microsoft en términos de producto de Microsoft. Microsoft ha evaluado estos modelos y están profundamente integrados en el ecosistema de la inteligencia artificial de Azure. Los modelos proceden de diversos proveedores y ofrecen una integración mejorada, un rendimiento optimizado y asistencia directa de Microsoft, incluidos acuerdos de nivel de servicio (SLA) de nivel empresarial.
Características de los modelos vendidos directamente por Azure:
- Soporte técnico disponible en Microsoft.
- Alto nivel de integración con los servicios y la infraestructura de Azure.
- Sujeto a revisión interna basada en los estándares de IA responsable de Microsoft.
- La documentación de los modelos y los informes de transparencia proporcionan a los clientes visibilidad sobre los riesgos, las medidas de mitigación y las limitaciones de los modelos.
- Escalabilidad, confiabilidad y seguridad de nivel empresarial.
Algunos de estos modelos también tienen la ventaja de un rendimiento aprovisionado fungible, lo que significa que puede utilizar de forma flexible su cuota y sus reservas en cualquiera de estos modelos.
Modelos de asociados y comunidad
Estos modelos constituyen la gran mayoría de los modelos de Foundry y los proporcionan organizaciones de terceros de confianza, asociados, laboratorios de investigación y colaboradores de la comunidad. Estos modelos ofrecen funcionalidades especializadas y diversas de inteligencia artificial, que abarcan una amplia gama de escenarios, sectores e innovaciones. Algunos ejemplos de modelos de partners y de la comunidad son la familia de grandes modelos de lenguaje desarrollados por Anthropic y los Modelos Open del hub de Hugging Face.
Anthropic incluye la familia Claude de modelos de lenguaje grande de última generación que admiten la entrada de texto e imagen, la salida de texto, las funcionalidades multilingües y la visión. Para obtener ayuda con los modelos antrópicos, use el soporte técnico de Microsoft. Para obtener más información sobre la privacidad, consulte Datos, privacidad y seguridad para los modelos de Claude en Microsoft Foundry (versión preliminar) y directiva de privacidad antrópica. Para conocer los términos de servicio, consulte Términos de servicio comerciales. Para obtener información sobre cómo trabajar con modelos antrópicos, consulte Implementación y uso de modelos de Claude en Microsoft Foundry.
Hugging Face Hub incluye cientos de modelos para la inferencia en tiempo real con cómputo gestionado. Hugging Face crea y mantiene los modelos enumerados en esta colección. Para obtener ayuda con los modelos de Hugging Face, use el foro de Hugging Face o el soporte técnico de Hugging Face. Obtenga información sobre cómo implementar modelos de Hugging Face en Implementación de modelos abiertos con Microsoft Foundry.
Características de modelos de asociados y comunidad:
- Desarrollado y respaldado por asociados externos y colaboradores de la comunidad
- Amplia gama de modelos especializados que se atienden a nichos o casos de uso amplios
- Normalmente validados por los propios proveedores, con directrices de integración proporcionadas por Azure
- Innovación controlada por la comunidad y disponibilidad rápida de modelos de vanguardia
- Integración estándar de Azure AI, con soporte y mantenimiento administrados por los proveedores respectivos
Los modelos de socios y comunidad se pueden implementar como opciones de implementación de cómputo gestionado o API sin servidor. El proveedor de modelos selecciona cómo se pueden implementar los modelos.
Solicitud de incluir un modelo en el catálogo de modelos
Puede solicitar que agreguemos un modelo al catálogo de modelos, directamente desde la página del catálogo de modelos en el portal de Foundry. En la barra de búsqueda de la página del catálogo de modelos, una búsqueda de un modelo que no existe en el catálogo, como mymodel, devuelve el botón Solicitar un modelo . Seleccione este botón para abrir un formulario en el que puede compartir detalles sobre el modelo que solicita.
Elegir entre modelos directos y modelos asociados y de comunidad
Al seleccionar modelos de Foundry Models, tenga en cuenta lo siguiente:
- Caso de uso y requisitos: los modelos vendidos directamente por Azure son ideales para escenarios que requieren integración profunda de Azure, soporte técnico garantizado y Acuerdos de Nivel de Servicio empresariales. Los modelos de los socios y la comunidad se destacan en casos de uso especializados y escenarios orientados a la innovación.
- Expectativas de soporte técnico: los modelos vendidos directamente por Azure incluyen un sólido soporte y mantenimiento proporcionados por Microsoft. Estos modelos están soportados por sus proveedores, con distintos niveles de SLA (Acuerdo de Nivel de Servicio) y estructuras de soporte.
- Innovación y especialización: los modelos de asociados y comunidad ofrecen acceso rápido a innovaciones especializadas y funcionalidades de nicho a menudo desarrolladas por laboratorios de investigación líderes y proveedores emergentes de inteligencia artificial.
Información general sobre las funcionalidades del catálogo de modelos
El catálogo de modelos en el portal de Foundry es el centro para detectar y usar una amplia gama de modelos para crear aplicaciones de IA generativas. El catálogo de modelos incluye cientos de modelos entre proveedores de modelos como Azure OpenAI, Mistral, Meta, Cohere, NVIDIA y Hugging Face, incluidos los modelos entrenados por Microsoft. Los modelos de proveedores distintos de Microsoft son productos que no son de Microsoft, tal como se define en Términos de producto de Microsoft y están sujetos a los términos proporcionados con los modelos.
Puede buscar y detectar modelos que satisfagan sus necesidades mediante la búsqueda de palabras clave y los filtros. El catálogo de modelos también ofrece la tabla de clasificación de rendimiento del modelo y las métricas de pruebas comparativas para los modelos seleccionados. Para acceder a ellos, seleccione Examinar tabla de clasificación y Comparar modelos. Los datos de pruebas comparativas también son accesibles desde la pestaña Benchmark de la tarjeta de modelo.
En los filtros del catálogo de modelos, encontrará:
- Colección: puede filtrar modelos en función de la colección de proveedores de modelos.
- Sector: puede filtrar por los modelos entrenados en un conjunto de datos específico del sector.
- Funcionalidades: puede filtrar por características de modelo únicas, como el razonamiento y la llamada a herramientas.
-
Opciones de implementación: puede filtrar por los modelos que admiten opciones de implementación específicas.
- API sin servidor: esta opción permite pagar por llamada API.
- Aprovisionado: más adecuado para la puntuación en tiempo real para un gran volumen coherente.
- Batch: más adecuado para trabajos por lotes optimizados para costes y no latencia. No se proporciona compatibilidad con el área de juegos para la implementación por lotes.
- Proceso administrado: esta opción permite implementar un modelo en una máquina virtual de Azure. Se le facturará el hospedaje y la inferencia.
- Tareas de inferencia: puede filtrar modelos en función del tipo de tarea de inferencia.
- Ajustar tareas: puede filtrar modelos en función del tipo de tarea de ajuste.
- Licencias: puede filtrar modelos en función del tipo de licencia.
En la tarjeta de modelo, encontrará lo siguiente:
- Hechos rápidos: verá información clave sobre el modelo de un vistazo.
- Detalles: esta página contiene la información detallada sobre el modelo, incluida la descripción, la información de versión, el tipo de datos admitido, etc.
- Pruebas comparativas: encontrará métricas de pruebas comparativas de rendimiento para los modelos seleccionados.
- Implementaciones existentes: si ya ha implementado el modelo, puede encontrarlo en la pestaña Implementaciones existentes.
- Licencia: encontrará información legal relacionada con las licencias del modelo.
- Artefactos: esta pestaña solo se mostrará para los modelos abiertos. Puede ver los recursos del modelo y descargarlos mediante la interfaz de usuario.
Implementación de modelo: implementaciones de API de proceso administrado y sin servidor
Además de implementar en Azure OpenAI, el catálogo de modelos ofrece dos maneras distintas de implementar modelos para su uso: cómputo gestionado y API sin servidor.
Las opciones y características de implementación disponibles para cada modelo varían, como se describe en las siguientes tablas. Obtenga más información sobre el procesamiento de datos con las opciones de implementación.
Funcionalidades de las opciones de implementación del modelo
| Características | Cómputo gestionado | Implementación de API sin servidor |
|---|---|---|
| Experiencia de implementación y facturación | Los pesos del modelo se implementan en máquinas virtuales dedicadas con proceso administrado. Un proceso administrado, que puede tener una o varias implementaciones, pone a disposición una API REST para la inferencia. Se le facturan las horas principales de la máquina virtual que usan las implementaciones. | El acceso a los modelos se realiza a través de una implementación que aprovisiona una API para acceder al modelo. La API proporciona acceso al modelo que Microsoft hospeda y administra para la inferencia. Se le facturan entradas y salidas a las API, normalmente en tokens. Antes de implementar, se proporciona información de precios. |
| Autenticación de API | Claves y autenticación de Microsoft Entra. | Solo claves. |
| Seguridad del contenido | Use las API del servicio de seguridad de contenido de Azure AI. | Los filtros de seguridad de contenido de Azure AI están disponibles integrados con las API de inferencia. Los filtros de seguridad de contenido de Azure AI se facturan por separado. |
| Aislamiento de red | Configure redes administradas para centros de Foundry. | El proceso administrado sigue la configuración de la marca de acceso a la red pública (PNA) del centro. Para más información, consulte la sección Aislamiento de red para los modelos implementados a través de implementaciones de API sin servidor más adelante en este artículo. |
Modelos disponibles para las opciones de implementación admitidas
Para ver los modelos de Azure OpenAI, consulte Azure OpenAI.
Para ver una lista de los modelos admitidos para la implementación de API sin servidor o Proceso administrado, vaya a la página principal del catálogo de modelos en Foundry. Use el filtro Opciones de implementación para seleccionar la implementación de API sin servidor o Proceso administrado.
Ciclo de vida del modelo: desuso y retirada
Los modelos de IA evolucionan rápidamente y, cuando una nueva versión o un nuevo modelo con funcionalidades actualizadas de la misma familia de modelos están disponibles, los modelos más antiguos se pueden retirar en el catálogo de modelos de Foundry. Para permitir una transición sin problemas a una versión de modelo más reciente, algunos modelos proporcionan a los usuarios la opción de habilitar las actualizaciones automáticas. Para más información sobre el ciclo de vida del modelo de diferentes modelos, próximas fechas de retirada de modelos y modelos de reemplazo sugeridos, consulte:
- Descontinuaciones y retiradas de los modelos de Azure OpenAI
- Deprecaciones y retiradas del modelo de implementación de API sin servidor
Cómputo gestionado
La capacidad de implementación de modelos como proceso administrado se basa en funcionalidades de plataforma de Azure Machine Learning para permitir una integración sin problemas de la amplia colección de modelos del catálogo de modelo en todo el ciclo de vida de las operaciones de modelos de lenguaje grande (LLM).
Disponibilidad de modelos para la implementación como cómputo gestionado
Los modelos están disponibles a través de los registros de Azure Machine Learning. Estos registros permiten un enfoque centrado en el aprendizaje automático para hospedar y distribuir recursos de Azure Machine Learning. Estos recursos incluyen ponderaciones de modelos, entornos de ejecución de contenedores para ejecutar los modelos, canalizaciones para evaluar y ajustar los modelos y conjuntos de datos para pruebas comparativas y ejemplos.
Los registros se basan en una infraestructura altamente escalable y lista para la empresa que ofrece las siguientes ventajas:
Proporciona artefactos de modelo de acceso de baja latencia para todas las regiones de Azure con replicación geográfica integrada.
Admite requisitos de seguridad empresarial, como la limitación del acceso a los modelos mediante Azure Policy y la implementación segura mediante redes virtuales administradas.
Despliegue de modelos para inferencia con cómputo gestionado
Los modelos disponibles para la implementación en un proceso administrado se pueden implementar en el proceso administrado de Azure Machine Learning para la inferencia en tiempo real. La implementación en un proceso administrado requiere que tenga una cuota de máquina virtual en la suscripción de Azure para los productos específicos que necesita para ejecutar el modelo de forma óptima. Algunos modelos permiten implementar en una cuota compartida temporalmente para las pruebas de modelos.
Más información sobre la implementación de modelos:
Creación de aplicaciones de IA generativa con proceso administrado
La característica flujo de avisos de Azure Machine Learning ofrece una excelente experiencia para la creación de prototipos. Puede usar modelos implementados con proceso administrado en el flujo de avisos con la Herramienta Open Model LLM. También puede usar la API de REST expuesta por el proceso administrado en herramientas de LLM populares como LangChain con la Extensión de Azure Machine Learning.
Seguridad del contenido para los modelos implementados como cómputo gestionado
El servicio de seguridad de contenido de Azure AI está disponible para su uso con cómputo administrado para detectar diversas categorías de contenido dañino, como contenido sexual, violencia, odio y autolesiones. También puede usar el servicio para detectar amenazas avanzadas, como la detección de riesgos de jailbreak y la detección de texto de material protegido.
Puede consultar este cuaderno para la integración de referencia con Azure AI Content Safety for Llama 2. O bien, puede usar la herramienta Content Safety (texto) en el flujo de avisos para pasar respuestas del modelo a Seguridad de contenido de Azure AI para la detección. Se le factura por separado por este tipo de uso, como se describe en Precios de seguridad de contenido de Azure AI.
Facturación de implementación de API sin servidor
Puede implementar determinados modelos en el catálogo de modelos con facturación de API sin servidor. Este método de implementación, también denominado implementación de API sin servidor, proporciona una manera de consumir los modelos como API sin hospedarlos en la suscripción. Los modelos se hospedan en una infraestructura administrada por Microsoft, lo que permite el acceso basado en API al modelo del proveedor de modelos. El acceso basado en API puede reducir drásticamente el coste de acceder a un modelo y simplificar la experiencia de aprovisionamiento.
El proveedor de modelos ofrece modelos disponibles para la implementación como implementaciones de API sin servidor, pero se hospedan en una infraestructura de Azure administrada por Microsoft y se accede a ellos a través de la API. Los proveedores de modelos definen los términos de licencia y establecen el precio para el uso de sus modelos. El servicio de Azure Machine Learning:
- Administra la infraestructura de hospedaje.
- Hace que las API de inferencia estén disponibles.
- Actúa como procesador de datos para solicitudes enviadas y contenido generado por modelos implementados a través de MaaS.
Obtenga más información sobre el procesamiento de datos para MaaS en el artículo sobre la privacidad de los datos.
Nota:
Las suscripciones del proveedor de soluciones en la nube (CSP) no tienen la capacidad de comprar modelos de implementación de API sin servidor.
Facturación
La experiencia de detección, suscripción y consumo de los modelos implementados a través de MaaS se encuentra en el portal de Foundry y Azure Machine Learning Studio. Los usuarios aceptan los términos de licencia para el uso de los modelos. La información de precios para el consumo se proporciona durante la implementación.
Los modelos de proveedores que no son de Microsoft se facturan a través de Azure Marketplace, de acuerdo con los Términos de uso de Microsoft Commercial Marketplace.
Los modelos de Microsoft se facturan a través de medidores de Azure como servicios de consumo de primera entidad. Como se describe en Términos del producto, compra servicios de consumo de primera entidad mediante medidores de Azure, pero no están sujetos a los términos del servicio de Azure. El uso de estos modelos está sujeto a los términos de licencia proporcionados.
Ajuste de modelos
Algunos modelos también admiten el ajuste preciso. En estos modelos, puede aprovechar las ventajas de las implementaciones de proceso administrado (versión preliminar) o API sin servidor para personalizar los modelos utilizando los datos que usted proporcione. Para obtener más información, consulte la introducción a la optimización.
RAG con modelos implementados como implementaciones de API sin servidor
En el portal de Foundry, puede usar índices vectoriales y generación aumentada de recuperación (RAG). Puede usar modelos que se pueden implementar a través de implementaciones de API sin servidor para generar inserciones e inferencias basadas en datos personalizados. Estas inserciones e inferencias pueden generar respuestas específicas de su caso de uso. Para obtener más información, consulte Compilación y consumo de índices vectoriales en el portal de Foundry.
Disponibilidad regional de ofertas y modelos
La facturación de pago por token solo está disponible para los usuarios cuya suscripción de Azure pertenece a una cuenta de facturación en un país o región en el que el proveedor de modelos ha hecho que esté disponible la oferta. Si la oferta está disponible en la región pertinente, el usuario debe tener un recurso de proyecto en la región de Azure donde el modelo esté disponible para la implementación u optimización, según corresponda. Consulte Disponibilidad de regiones para modelos en implementaciones de API sin servidor | Foundry para obtener información detallada.
Seguridad de contenido para los modelos implementados a través de implementaciones de API sin servidor
En el caso de los modelos de lenguaje implementados a través de la API sin servidor, Azure AI implementa una configuración predeterminada de filtros de moderación de texto de seguridad de contenido de Azure AI que detectan contenido dañino, como el odio, el autolesión, el contenido sexual y violento. Para obtener más información sobre el filtrado de contenido, consulte Barandillas de seguridad y controles para modelos comercializados directamente por Azure.
Sugerencia
El filtrado de contenido no está disponible para determinados tipos de modelo que se implementan a través de la API sin servidor. Estos tipos de modelo incluyen la inserción de modelos y modelos de serie temporal.
El filtrado de contenido se produce sincrónicamente a medida que el servicio procesa los mensajes para generar contenido. Es posible que se le facture por separado según los precios de seguridad de contenido de Azure AI para este uso. Puede deshabilitar el filtrado de contenido para puntos de conexión individuales sin servidor:
- En el momento en que se implementa por primera vez un modelo de lenguaje
- Más adelante, al seleccionar el interruptor de filtrado de contenido en la página de detalles de implementación
Supongamos que decide usar una API distinta de la API de inferencia de modelos para trabajar con un modelo implementado a través de una API sin servidor. En tal situación, el filtrado de contenido no está habilitado a menos que lo implemente por separado mediante la seguridad del contenido de Azure AI.
Para empezar a usar Seguridad del contenido de Azure AI, consulte Inicio rápido: analizar contenido de texto. Si no usa el filtrado de contenido al trabajar con modelos que se implementan a través de una API que no requiere servidor, corre un mayor riesgo de exponer a los usuarios a contenido perjudicial.
Aislamiento de red para los modelos implementados a través de implementaciones de API sin servidor
Los puntos de conexión de los modelos desplegados como implementaciones de API sin servidor siguen la configuración de acceso a la red pública del centro de Foundry en el que reside el proyecto de la implementación. Para ayudar a proteger la implementación de la API sin servidor, deshabilite la marca de acceso de red pública en el centro de Foundry. Puede ayudar a proteger la comunicación entrante de un cliente al punto de conexión mediante un punto de conexión privado para el centro.
Para establecer la bandera de acceso a red pública para el hub Foundry:
- Vaya a Azure Portal.
- Busque el grupo de recursos al que pertenece el hub y seleccione su hub de Foundry de los recursos listados para este grupo de recursos.
- En la página de información general del centro, en el panel izquierdo, vaya a Configuración>Redes.
- En la pestaña Acceso público, puede configurar las opciones de la marca de acceso de red pública.
- Guarde los cambios. Los cambios pueden tardar hasta cinco minutos en propagarse.
Limitaciones
Si tiene un centro de Foundry con un punto de conexión privado creado antes del 11 de julio de 2024, las implementaciones de API sin servidor agregadas a los proyectos de este centro no seguirán la configuración de red del centro. En su lugar, debe crear un nuevo punto de conexión privado para el centro y crear una nueva implementación de API sin servidor en el proyecto para que las nuevas implementaciones puedan seguir la configuración de red del centro.
Si tiene un centro de Foundry con implementaciones de MaaS creadas antes del 11 de julio de 2024 y habilita un punto de conexión privado en este centro, las implementaciones de API sin servidor existentes no seguirán la configuración de red del centro. Para que las implementaciones de API sin servidor en el centro sigan la configuración de red del mismo, debe volver a crear las implementaciones.
Actualmente, la compatibilidad de Azure OpenAI en los datos no está disponible para implementaciones de API sin servidor en los concentradores privados, ya que estos tienen deshabilitado el indicador de acceso a la red pública.
Cualquier cambio de configuración de red (por ejemplo, habilitar o deshabilitar la marca de acceso a la red pública) puede tardar hasta cinco minutos en propagarse.