Nota:
El acceso a esta página requiere autorización. Puede intentar iniciar sesión o cambiar directorios.
El acceso a esta página requiere autorización. Puede intentar cambiar los directorios.
La inteligencia artificial es una tecnología que las máquinas usan para imitar el comportamiento humano inteligente. Las máquinas pueden usar ia para realizar las siguientes tareas:
- Analice los datos para crear imágenes y vídeos.
- Analizar y sintetizar lenguaje.
- Interactúe verbalmente de maneras naturales.
- Realice predicciones y genere nuevos datos.
Puede incorporar inteligencia artificial en aplicaciones para realizar funciones o tomar decisiones que la lógica tradicional o el procesamiento no pueden controlar de forma eficaz. Como arquitecto que diseña soluciones, debe obtener información sobre el panorama de inteligencia artificial y aprendizaje automático y cómo puede integrar soluciones de Azure en el diseño de la carga de trabajo.
Introducción
El Centro de arquitectura de Azure proporciona arquitecturas de ejemplo, guías de arquitectura, líneas base arquitectónicas e ideas que puede aplicar a su escenario. Las cargas de trabajo que usan componentes de inteligencia artificial y aprendizaje automático deben seguir las instrucciones de las cargas de trabajo de IA de Azure Well-Architected Framework. Esta guía incluye principios y guías de diseño que influyen en las cargas de trabajo de inteligencia artificial y aprendizaje automático en los cinco pilares de la arquitectura. Implemente esas recomendaciones en los escenarios y el contenido del Centro de arquitectura de Azure.
Conceptos de inteligencia artificial
Los conceptos de inteligencia artificial abarcan una amplia gama de tecnologías y metodologías que usan las máquinas para realizar tareas que normalmente requieren inteligencia humana. En las secciones siguientes se proporciona información general sobre los conceptos clave de inteligencia artificial.
Algoritmos
algoritmos o algoritmos de aprendizaje automático son fragmentos de código que ayudan a las personas a explorar, analizar y encontrar significado en conjuntos de datos complejos. Cada algoritmo es un conjunto finito de instrucciones paso a paso inequívocas que una máquina puede seguir para lograr un objetivo específico. El objetivo de un modelo de aprendizaje automático es establecer o detectar patrones que los humanos pueden usar para realizar predicciones o clasificar información. Un algoritmo podría describir cómo comprobar si una mascota es un gato, un perro, un pez, un pájaro o ungartija. Un algoritmo más complicado podría describir cómo identificar un idioma escrito o hablado, analizar sus palabras, traducirlas en otro idioma y, a continuación, comprobar la traducción para obtener precisión.
Elija una familia de algoritmos que mejor se adapte a su tarea. Evalúe los distintos algoritmos de la familia para encontrar el ajuste adecuado para la carga de trabajo. Para más información, consulte Algoritmos de aprendizaje automático.
Aprendizaje Automático
El aprendizaje automático es una técnica de inteligencia artificial que usa algoritmos para crear modelos predictivos. Estos algoritmos analizan campos de datos y aprenden de los patrones de los datos para generar modelos. A continuación, los modelos pueden tomar predicciones o decisiones informadas basadas en nuevos datos.
Los modelos predictivos se validan con datos conocidos, medidos por métricas de rendimiento para escenarios empresariales específicos y, a continuación, se ajustan según sea necesario. Este proceso de aprendizaje y validación se denomina entrenamiento. Mediante el reentrenamiento periódico, los modelos de aprendizaje automático mejoran con el tiempo.
En el diseño de la carga de trabajo, puede usar el aprendizaje automático si el escenario incluye observaciones anteriores que puede usar de forma confiable para predecir situaciones futuras. Estas observaciones pueden ser verdades universales, como la visión por computadora que detecta una forma de animal de otra. O estas observaciones pueden ser específicas de su situación, como Computer Vision que detecta un posible error de montaje en las líneas de montaje en función de los datos anteriores de reclamación de garantía.
Para más información, consulte Introducción al aprendizaje automático.
Aprendizaje profundo
El aprendizaje profundo es un tipo de aprendizaje automático que puede aprender a través de su propio procesamiento de datos. Al igual que el aprendizaje automático, también usa algoritmos para analizar datos. Pero analiza los datos mediante redes neuronales artificiales que tienen muchas entradas, salidas y capas de procesamiento. Cada capa puede procesar los datos de una manera diferente. La salida de una capa se convierte en la entrada para el siguiente. El aprendizaje profundo usa este proceso para crear modelos más complejos que el aprendizaje automático tradicional.
El aprendizaje profundo requiere una gran inversión para generar modelos altamente personalizados o exploratorios. Puede considerar otras soluciones de este artículo antes de agregar aprendizaje profundo a la carga de trabajo.
Para más información, consulte Introducción al aprendizaje profundo.
Inteligencia artificial generativa
La inteligencia artificial generativa entrena modelos para generar contenido original basado en muchas formas de contenido, como lenguaje natural, visión artificial, audio o entrada de imagen. Mediante el uso de inteligencia artificial generativa, puede describir una salida deseada en lenguaje cotidiano y el modelo puede responder creando el texto, la imagen y el código adecuados. Entre los ejemplos de aplicaciones de IA generativas se incluyen Microsoft 365 Copilot y Microsoft Foundry.
Copilot es principalmente una interfaz de usuario (UI) que le ayuda a escribir código, documentos y otro contenido basado en texto. Se basa en modelos populares de OpenAI y Anthropic y se integra en una amplia gama de aplicaciones y experiencias de usuario de Microsoft.
Foundry es una plataforma de desarrollo como servicio (PaaS) que proporciona acceso al hospedaje de agentes y un catálogo de modelos de lenguaje, incluidas las siguientes opciones:
- GPT-5.2 (OpenAI)
- Sora2 (OpenAI)
- Claude (antrópica)
- Phi (Microsoft)
- Grok (xAI)
Puede adaptar estos modelos a las siguientes tareas específicas:
- Generar contenido
- Resumen de contenido
- Comprensión de imágenes
- Búsqueda semántica
- Traducción de lenguaje natural a código
- Generación de vídeos
- Conversión de voz a voz
Modelos de lenguaje
Los modelos de lenguaje son un subconjunto de inteligencia artificial generativa que se centran en tareas de procesamiento de lenguaje natural, como la generación de texto y el análisis de sentimiento. Estos modelos representan lenguaje natural basado en la probabilidad de palabras o secuencias de palabras que se producen en un contexto determinado.
Los modelos de lenguaje convencional se usan en entornos supervisados con fines de investigación. Estos modelos se entrenan en conjuntos de datos de texto bien etiquetados para tareas específicas. Los modelos de lenguaje previamente entrenados proporcionan una manera fácil de empezar a usar la inteligencia artificial. Se usan más ampliamente en los últimos años. Estos modelos se entrenan en colecciones de texto a gran escala desde Internet a través de redes neuronales de aprendizaje profundo. Puede ajustarlos en conjuntos de datos más pequeños para tareas específicas.
El número de parámetros, o pesos, determina el tamaño de un modelo de lenguaje. Los parámetros influyen en cómo el modelo procesa los datos de entrada y genera una salida. Durante el entrenamiento, el modelo ajusta los pesos para minimizar la diferencia entre sus predicciones y los datos reales. Este proceso es cómo el modelo aprende parámetros. Cuantos más parámetros tenga un modelo, más complejo y expresivo es. Pero también es más computacionalmente costoso de entrenar y de usar.
Los modelos de lenguaje pequeño suelen tener menos de 10 mil millones de parámetros y los modelos de lenguaje grande tienen más de 10 mil millones de parámetros. Por ejemplo, la familia de modelos De Microsoft Phi-4 incluye las siguientes versiones:
- Phi-4-Mini, que tiene 3,800 millones de parámetros
- Phi-4-Multimodal-instruct, que tiene 5,600 millones de parámetros
- Phi-4 (el modelo base), que tiene 14 mil millones de parámetros
Para obtener más información, consulte el catálogo de modelos de lenguaje.
Copilotos
La disponibilidad de los modelos de lenguaje llevó a nuevas formas de interactuar con aplicaciones y sistemas mediante copilots digitales y agentes específicos del dominio conectados. Copilots son asistentes de IA generativos que se integran en aplicaciones, a menudo como interfaces de chat. Proporcionan compatibilidad contextualizada con tareas comunes en esas aplicaciones.
Microsoft 365 Copilot se integra con una amplia gama de aplicaciones de Microsoft y experiencias de usuario. Se basa en una arquitectura abierta en la que los desarrolladores que no son de Microsoft pueden crear sus propios complementos para ampliar o personalizar la experiencia del usuario mediante Copilot. Los desarrolladores asociados también pueden crear sus propios copilotos mediante la misma arquitectura abierta.
Para obtener más información, consulte los siguientes recursos:
- Adopción, ampliación y compilación de experiencias de Copilot en Microsoft Cloud
- Introducción a Microsoft Copilot Studio
- Visión general de Foundry
Generación aumentada de recuperación
La generación aumentada de recuperación (RAG) es un patrón de arquitectura que aumenta las funcionalidades de un modelo de lenguaje, como ChatGPT, que solo se entrena en datos públicos. Puede usar este patrón para agregar un sistema de recuperación que proporcione datos de base pertinentes en el contexto con la solicitud del usuario. Un sistema de recuperación de información proporciona control sobre los datos de base que usa un modelo de lenguaje cuando formula una respuesta. La arquitectura RAG le ayuda a definir el ámbito de la inteligencia artificial generativa al contenido que se origina a partir de documentos vectorizados, imágenes y otros formatos de datos. RAG no se limita al almacenamiento de búsqueda vectorial. Puede usar cualquier tecnología de almacén de datos.
Para más información, consulte Diseño y desarrollo de una solución RAG y Elegir un servicio de Azure para la búsqueda de vectores. Utilice las bases de conocimiento de Foundry IQ para proporcionar los datos de referencia que los agentes de Foundry necesitan como un enfoque llave en mano para RAG.
Arquitectura basada en agente
Los agentes son más que solo código que llama a los modelos de lenguaje para responder a las solicitudes del usuario. Pueden realizar tareas de forma autónoma, tomar decisiones e interactuar con otros sistemas. Puede diseñar agentes para controlar tareas específicas o operar en entornos complejos, lo que hace que sean adecuados para muchas aplicaciones. La arquitectura multiagente le permite dividir problemas complejos en agentes especializados que se coordinan para generar una solución.
Herramientas como Microsoft Agent Framework y flujos de trabajo de Foundry pueden ayudarle a crear arquitecturas basadas en agente.
Para obtener información sobre cómo coordinar varios agentes en escenarios complejos de inteligencia artificial, consulte Patrones de orquestación de agentes de IA.
Herramientas de fundición
Mediante el uso de Foundry Tools, los desarrolladores y las organizaciones pueden usar API y modelos listos para crear aplicaciones inteligentes, listas para el mercado y responsables. Entre los casos de uso se incluyen el procesamiento de lenguaje natural para conversaciones, búsqueda, supervisión, traducción, voz, visión y toma de decisiones.
Para obtener más información, consulte los siguientes recursos:
- Elija una tecnología de herramientas de fundición
- Introducción a las herramientas de foundry
- Elegir una tecnología de procesamiento de lenguaje natural en Azure
Modelos de lenguaje de IA
Los modelos de lenguaje, como los modelos GPT de OpenAI, son herramientas eficaces que pueden generar lenguaje natural en diferentes dominios y tareas. Para elegir un modelo, considere factores como la privacidad de los datos, el uso ético, la precisión y el sesgo.
Los modelos abiertos phi son modelos pequeños y menos intensivos de proceso para soluciones de inteligencia artificial generativa. Un modelo de lenguaje pequeño podría ser más eficaz, interpretable y explicable que un modelo de lenguaje grande.
Al diseñar una carga de trabajo, puede usar modelos de lenguaje como una solución alojada detrás de una API con tarifa basada en el uso. Para muchos modelos de lenguaje pequeños, puede hospedar los modelos de lenguaje en el mismo sistema o al menos en el mismo dispositivo que el usuario. Al usar modelos de lenguaje en la solución, tenga en cuenta la elección del modelo de lenguaje y sus opciones de hospedaje disponibles para ayudar a garantizar una solución optimizada para su caso de uso.
Herramientas y plataformas de desarrollo de IA
Las siguientes herramientas y plataformas de desarrollo de IA pueden ayudarle a crear, implementar y administrar modelos de aprendizaje automático e inteligencia artificial.
Azure Machine Learning
Azure Machine Learning es un servicio de aprendizaje automático que puede usar para compilar e implementar modelos. Machine Learning proporciona interfaces web y SDK para que pueda entrenar e implementar los modelos y canalizaciones de Machine Learning a escala. Use estas funcionalidades con marcos de Python de código abierto como PyTorch, TensorFlow y scikit-learn.
Para obtener más información, consulte los siguientes recursos:
- Comparación de productos y tecnologías de aprendizaje automático de Microsoft
- Documentación de Machine Learning
- ¿Qué es el aprendizaje automático?
Arquitecturas de referencia de inteligencia artificial y aprendizaje automático para Azure
Arquitectura de referencia del chat de Baseline Foundry en una zona de aterrizaje de Azure
La arquitectura de referencia de chat de Baseline Foundry describe cómo crear una arquitectura de chat de un extremo a otro mediante los modelos GPT de OpenAI en Foundry. Incorpora conexiones mediante fuentes de datos empresariales para enriquecer las respuestas con información contextual.
Aprendizaje Automático Automatizado
El aprendizaje automático automatizado (AutoML) es el proceso de automatizar las tareas iterativas y lentas del desarrollo de modelos de aprendizaje automático. Los científicos de datos, los analistas y los desarrolladores pueden usar AutoML para crear modelos de aprendizaje automático que tengan una gran escala, eficiencia y productividad al tiempo que mantienen la calidad del modelo.
Para obtener más información, consulte los siguientes recursos:
- ¿Qué es AutoML?
- Entrenamiento de un modelo de clasificación mediante AutoML en Machine Learning Studio
- Configuración de experimentos de AutoML en Python
- Instalación y configuración de la CLI
MLflow
Las áreas de trabajo de Machine Learning son compatibles con MLflow, lo que significa que puede usar un área de trabajo de Machine Learning de la misma manera que se usa un servidor MLflow. Esta compatibilidad proporciona las siguientes ventajas:
- Machine Learning no hospeda instancias de servidor de MLflow, pero puede usar las API de MLflow directamente.
- Puede usar un área de trabajo de Aprendizaje Automático como servidor de seguimiento para cualquier código de MLflow, independientemente de si se ejecuta bajo Aprendizaje Automático o no. Debe configurar MLflow para que apunte al área de trabajo donde debe producirse el seguimiento.
- Puede ejecutar rutinas de entrenamiento que usan MLflow en Machine Learning sin realizar ningún cambio.
Para obtener más información, consulte MLflow y Machine Learning y MLflow.
Herramientas de inteligencia artificial generativa
Foundry proporciona una plataforma para ayudarle a experimentar, desarrollar e implementar aplicaciones y API de inteligencia artificial generativas de forma responsable. Use el portal de Foundry para buscar herramientas de Foundry, modelos de base, un área de juegos y recursos que le ayuden a ajustar, evaluar e implementar modelos de inteligencia artificial e agentes de IA.
Foundry Agent Service hospeda agentes que defina. Estos agentes se conectan a un modelo básico en el catálogo de modelos de IA y, opcionalmente, sus propios almacenes de conocimiento personalizados o API. Puede definir estos agentes mediante declaración o Foundry puede incluirlos en contenedores y hospedarlos.
Copilot Studio amplía Copilot en Microsoft 365. Puede usar Copilot Studio para crear copilotos personalizados para escenarios internos y externos. Usa un entorno de creación para diseñar, probar y publicar copilotos. Puede crear fácilmente conversaciones que utilizan IA generativa, proporcionar un mayor control de las respuestas para los copilotos existentes y acelerar la productividad mediante el uso de flujos de trabajo automatizados.
Plataformas de datos para IA
Las siguientes plataformas proporcionan soluciones para el movimiento de datos, el procesamiento, la ingesta, la transformación, el análisis en tiempo real y los informes.
Microsoft Fabric
Microsoft Fabric es una plataforma de datos y análisis de un extremo a otro para empresas que requieren una solución unificada. Los equipos de carga de trabajo pueden usar datos dentro de Fabric. La plataforma abarca el movimiento de datos, el procesamiento, la ingesta, la transformación, el enrutamiento de eventos en tiempo real y la creación de informes. Proporciona un conjunto de servicios, como Fabric Data Engineer, Fabric Data Factory, Fabric Data Science, Fabric Real-Time Intelligence, Fabric Data Warehouse y Fabric Database.
Fabric integra componentes independientes en una pila cohesiva. En lugar de confiar en bases de datos o almacenes de datos diferentes, puede centralizar el almacenamiento de datos mediante OneLake. Las funcionalidades de inteligencia artificial se insertan en Fabric, lo que elimina la necesidad de integración manual.
Para obtener más información, consulte los siguientes recursos:
- ¿Qué es Fabric?
- ruta de aprendizaje de : Introducción a Fabric
- Servicios de IA en Fabric
- Uso de Azure OpenAI en Fabric con la API REST
- Usar Fabric para la inteligencia artificial generativa: guía para crear y mejorar los sistemas RAG
- Crear aplicaciones de IA personalizadas con Fabric: Implementar RAG para modelos de lenguaje mejorados
Copilots en Fabric
Puede usar Copilot y otras características de IA generativas para transformar y analizar datos, generar información y crear visualizaciones e informes en Fabric y Power BI. Puede crear su propio copiloto o elegir uno de los siguientes copilotos precompilados:
- Copilot en Fabric
- Copilot para ciencia de datos e ingeniería de datos
- Copilot para Data Factory
- Copilot para almacenamiento de datos
- Copilot para Power BI
- Copilot para inteligencia en tiempo real
Agente de datos en Fabric
El agente de datos de Fabric es una característica que puede usar para crear sus propios sistemas de preguntas y respuestas conversacionales mediante inteligencia artificial generativa. Un agente de datos de Fabric facilita el uso y hace que los datos sean más accionables para todos en tu organización.
Para obtener más información, consulte los siguientes recursos:
- Introducción al agente de datos de Fabric
- Creación de un agente de datos
- Ejemplo de un agente de datos
- Diferencia entre un agente de datos de Fabric y un copiloto
Plataformas de datos basadas en Apache Spark para ia
Apache Spark es una plataforma de procesamiento paralelo que admite el procesamiento en memoria para mejorar el rendimiento de aplicaciones de análisis de macrodatos. Spark proporciona bloques de creación básicos para la computación en clústeres en memoria. Un trabajo de Spark puede cargar y almacenar en caché datos en memoria y consultarlos repetidamente, lo que es más rápido que las aplicaciones basadas en disco, como Hadoop.
Spark en Fabric
Fabric Runtime es una plataforma integrada de Azure basada en Spark que puede usar para implementar y administrar experiencias de ingeniería de datos y ciencia de datos. Fabric Runtime combina componentes clave de orígenes internos y de código abierto, que proporciona una solución completa.
Fabric Runtime tiene los siguientes componentes clave:
Spark es una biblioteca informática distribuida de código abierto que puede usar para tareas de análisis y procesamiento de datos a gran escala. Spark proporciona una plataforma versátil para experiencias de ingeniería de datos y ciencia de datos.
Delta Lake es una capa de almacenamiento de código abierto que integra transacciones de atomicidad, coherencia, aislamiento y durabilidad (ACID) y otras características de confiabilidad de datos con Spark. Integrado en Fabric Runtime, Delta Lake mejora las funcionalidades de procesamiento de datos y ayuda a garantizar la coherencia de los datos en varias tareas simultáneas.
paquetes de nivel predeterminado para Java, Scala, Python y R son paquetes que admiten diversos lenguajes de programación y entornos. Estos paquetes se instalan y configuran automáticamente, por lo que los desarrolladores pueden aplicar sus lenguajes de programación preferidos para las tareas de procesamiento de datos.
Fabric Runtime se basa en un sistema operativo de código abierto que proporciona compatibilidad con diferentes configuraciones de hardware y requisitos del sistema.
Para más información, consulte Entornos de ejecución de Spark en Fabric.
Azure Databricks Runtime para Machine Learning
Azure Databricks es una plataforma de análisis basada en Spark que incluye flujos de trabajo y un área de trabajo interactiva para la colaboración entre científicos de datos, ingenieros y analistas de negocios.
Puede usar Databricks Runtime para Machine Learning para iniciar un clúster de Databricks que tenga todas las bibliotecas necesarias para el entrenamiento distribuido. Esta característica proporciona un entorno para el aprendizaje automático y la ciencia de datos. Tiene varias bibliotecas populares, como TensorFlow, PyTorch, Keras y XGBoost. También admite el entrenamiento distribuido a través de Horovod.
Para obtener más información, consulte los siguientes recursos:
- Documentación de Azure Databricks
- Funcionalidades de Machine Learning en Azure Databricks
- Introducción al aprendizaje profundo en Azure Databricks
Spark en Azure HDInsight
Spark en Azure HDInsight es la implementación de Microsoft de Spark en la nube. Los clústeres de Spark en HDInsight son compatibles con Azure Storage y Azure Data Lake Storage, por lo que puede usar clústeres de HDInsight Spark para procesar los datos que se almacenan en Azure.
SynapseML es la biblioteca de aprendizaje automático de Microsoft para Spark. Esta biblioteca de código abierto agrega muchas herramientas de ciencia de datos y aprendizaje profundo, funcionalidades de red y rendimiento de nivel de producción al ecosistema de Spark.
Para obtener más información, consulte los siguientes recursos:
- características y funcionalidades de SynapseML
- información general de HDInsight
- Tutorial: Compilación de una aplicación de aprendizaje automático de Spark en HDInsight
- Procedimientos recomendados de Spark en HDInsight
- Configuración del clúster de HDInsight Spark
- Creación de una canalización de aprendizaje automático de Spark en HDInsight
Almacenamiento de datos para IA
Puede usar las siguientes plataformas para almacenar, usar y analizar de forma eficaz grandes volúmenes de datos.
Fabric OneLake
OneLake en Fabric es un lago de datos unificado y lógico que se puede adaptar para toda su organización. Es el núcleo central para todos los datos de análisis y está incluido con cada entidad de Fabric. OneLake en Fabric se basa en la base de Data Lake Storage.
OneLake en Fabric proporciona las siguientes ventajas:
- Admite tipos de archivo estructurados y no estructurados.
- Almacena todos los datos tabulares en formato Delta-Parquet
- Proporciona un único lago de datos dentro de los límites del tenant que está gestionado por defecto.
- Admite la creación de áreas de trabajo dentro de un entorno multisuscriptor para que tu organización pueda distribuir las políticas de propiedad y acceso.
- Admite la creación de diferentes elementos de datos, como lakehouses y almacenes, donde puede usar datos.
Para obtener más información, vea OneLake, OneDrive para datos.
Almacenamiento de lago de datos
Data Lake Storage es un único repositorio centralizado en el que puede almacenar los datos estructurados y no estructurados. Use un lago de datos para almacenar, usar y analizar de forma rápida y sencilla una amplia variedad de datos en una sola ubicación. No es necesario que los datos se ajusten a una estructura existente. En su lugar, puede almacenar los datos en su formato sin procesar o nativo, normalmente como archivos o como objetos binarios grandes o blobs.
Data Lake Storage proporciona semántica del sistema de archivos, seguridad de nivel de archivo y escala. Dado que estas funcionalidades se basan en Azure Blob Storage, también obtiene almacenamiento en capas de bajo costo que tiene funcionalidades de alta disponibilidad y recuperación ante desastres.
Data Lake Storage usa la infraestructura de Storage para crear una base para crear lagos de datos empresariales en Azure. Data Lake Storage puede atender varios petabytes de información mientras mantiene cientos de gigabits de rendimiento para que pueda administrar grandes cantidades de datos.
Para obtener más información, consulte los siguientes recursos:
Procesamiento de datos para la inteligencia artificial
Puede usar las siguientes herramientas para preparar los datos para el aprendizaje automático y las aplicaciones de inteligencia artificial. Asegúrese de que los datos están limpios y estructurados para poder usarlos para el análisis avanzado.
Fábrica de Datos Fabric
Puede usar Fabric Data Factory para ingerir, preparar y transformar datos de varios orígenes de datos, como bases de datos, almacenes de datos, almacenes de lago y flujos de datos en tiempo real. Esta característica puede ayudarle a cumplir los requisitos de operaciones de datos al diseñar cargas de trabajo.
Data Factory admite soluciones de código y soluciones sin código o con poco código:
Use canalizaciones de datos para crear capacidades de flujo de trabajo a escala de la nube. Usa la interfaz de seleccionar y mover para crear flujos de trabajo que puedan actualizar tu flujo de datos, mover datos de tamaño de petabyte y definir tuberías de flujo de control.
Use flujos de datos como una interfaz de bajo código para ingerir datos de cientos de fuentes de datos y transformarlos mediante el uso de más de 300 transformaciones de datos.
Para obtener más información, consulte Escenario integral de Data Factory: Introducción y arquitectura.
Azure Databricks
Puede usar Databricks Data Intelligence Platform para escribir código para crear un flujo de trabajo de aprendizaje automático mediante la ingeniería de características. Ingeniería de características es el proceso de transformar datos sin procesar en características que puede usar para entrenar modelos de aprendizaje automático. Databricks Data Intelligence Platform incluye características clave que admiten la ingeniería de características:
Las canalizaciones de datos ingieren datos sin procesar, crean tablas de características, entrenan modelos y realizan la inferencia por lotes. Cuando se usa la ingeniería de características en el catálogo de Unity para entrenar y registrar un modelo, el modelo se empaqueta con metadatos de características. Cuando se usa el modelo para la puntuación por lotes o la inferencia en línea, se recuperan automáticamente los valores de características. El autor de la llamada no necesita conocer los valores ni incluir lógica para buscar o unir características para puntuar nuevos datos.
Los endpoints de servicio de modelos y funcionalidades están disponibles al instante y proporcionan latencia de milisegundos.
La supervisión ayuda a garantizar el rendimiento y la precisión de los datos y los modelos.
También puede usar Mosaic AI Vector Search para almacenar y recuperar incrustaciones. Las incrustaciones son cruciales para las aplicaciones que requieren búsquedas de similitud, como RAG, sistemas de recomendaciones y reconocimiento de imágenes.
Para más información, consulte Servicio de datos para el aprendizaje automático y la inteligencia artificial.
Conectores de datos para IA
Las canalizaciones de Azure Data Factory y Azure Synapse Analytics admiten muchos almacenes de datos y formatos a través de las actividades de copia, flujo de datos, búsqueda, obtención de metadatos y eliminación. Para ver los conectores de almacén de datos disponibles, las funcionalidades admitidas, sus configuraciones correspondientes, y las opciones genéricas de conectividad de Open Database Connectivity, consulte una visión general de los conectores de Azure Data Factory y Azure Synapse Analytics.
Inteligencia artificial personalizada
Las soluciones de IA personalizadas le ayudan a abordar necesidades empresariales y desafíos específicos. En las secciones siguientes se proporciona información general sobre las distintas herramientas y servicios que puede usar para compilar y administrar modelos de IA personalizados.
Azure Machine Learning
Azure Machine Learning es un servicio en la nube para acelerar y administrar el ciclo de vida del proyecto de aprendizaje automático. Los profesionales de aprendizaje automático, los científicos de datos y los ingenieros pueden usar este servicio en sus flujos de trabajo para entrenar e implementar modelos y administrar tareas de aprendizaje automático.
Machine Learning proporciona las siguientes funcionalidades:
Selección de algoritmos: Algunos algoritmos realizan suposiciones específicas sobre la estructura de datos o los resultados deseados. Elija un algoritmo que se adapte a sus necesidades para que pueda obtener resultados más útiles, predicciones más precisas y tiempos de entrenamiento más rápidos. Para más información, consulte Elección de algoritmos para Machine Learning.
Ajuste o optimización de hiperparámetros: Puede usar este proceso manual para encontrar configuraciones de hiperparámetros que resulten en el mejor desempeño. Esta optimización incurre en costos computacionales significativos. Los hiperparámetros son parámetros ajustables que regulan el proceso de entrenamiento del modelo. Por ejemplo, puede elegir el número de capas ocultas y el número de nodos de cada capa de redes neuronales. El rendimiento de un modelo depende en gran medida de los hiperparámetros.
Puede usar Machine Learning para automatizar el ajuste de hiperparámetros y ejecutar experimentos en paralelo para optimizar de forma eficaz los hiperparámetros.
Para obtener más información, consulte los siguientes recursos:
Entrenamiento del modelo: Puede usar iterativamente un algoritmo para crear o enseñar modelos. Después de entrenar los modelos, puede usarlos para analizar datos y realizar predicciones.
Los pasos siguientes se realizan durante la fase de entrenamiento:
Un conjunto de calidad de datos conocidos se etiqueta para que los campos individuales sean identificables.
Un algoritmo configurado para realizar una predicción determinada recibe los datos etiquetados.
El algoritmo genera un modelo que captura los patrones que identificó en los datos. El modelo usa un conjunto de parámetros para representar estos patrones.
Los pasos siguientes se realizan durante la validación:
Los datos nuevos se etiquetan y se usan para probar el modelo.
El algoritmo se ajusta según sea necesario y, posiblemente, realiza más entrenamiento.
La fase de prueba usa datos reales sin etiquetas ni destinos preseleccionados. Si los resultados del modelo son precisos, está listo para su uso y se puede implementar.
Para obtener más información, consulte los siguientes recursos:
AutoML: Este proceso automatiza las tareas iterativas y lentas del desarrollo de modelos de Machine Learning. Puede reducir significativamente el tiempo necesario para generar modelos de aprendizaje automático listos para producción. AutoML puede ayudar con la selección de modelos, la optimización de hiperparámetros, el entrenamiento del modelo y otras tareas, sin necesidad de un amplio conocimiento de programación o dominio.
Puede usar AutoML cuando quiera que Machine Learning use una métrica de destino específica para entrenar y ajustar un modelo. No necesita experiencia en ciencia de datos para encontrar problemas en una canalización de aprendizaje automático de un extremo a otro.
Los profesionales y desarrolladores de Aprendizaje automático en todos los sectores pueden usar AutoML para realizar las siguientes tareas:
- Implemente soluciones de aprendizaje automático sin un amplio conocimiento de programación o aprendizaje automático.
- Ahorre tiempo y recursos.
- Aplique los procedimientos recomendados de ciencia de datos.
- Proporcione una solución de problemas ágil.
Para obtener más información, consulte Introducción a AutoML.
Puntuación: Este proceso, también denominado predicción, usa un modelo de aprendizaje automático entrenado para generar valores basados en nuevos datos de entrada. Los valores, o puntuaciones, pueden representar predicciones de valores futuros, pero también pueden representar una categoría o un resultado probables.
Para obtener más información, consulte los siguientes recursos:
Ingeniería de características y caracterización: los datos de entrenamiento constan de filas y columnas. Cada fila es una observación o registro, y las columnas de cada fila son las características que describen cada registro. Normalmente, elige las características que mejor caracterizan los patrones de los datos para crear modelos predictivos.
Aunque puede usar muchos de los campos de datos sin procesar para entrenar un modelo, es posible que tenga que crear otras características diseñadas que proporcionen información para diferenciar patrones en los datos más fácilmente. Este proceso se denomina ingeniería de características, donde se usa el conocimiento de dominio de los datos para crear características que ayudan a los algoritmos de aprendizaje automático a aprender mejor.
En Machine Learning, se aplican técnicas de escalado y normalización de datos para facilitar la ingeniería de características. El conjunto de estas técnicas y la ingeniería de características se conocen como caracterización en los experimentos de AutoML. Para obtener más información, consulte Caracterización de datos en AutoML.
Microsoft Foundry
En Foundry, puede usar un proceso denominado ajuste preciso para adaptar modelos a los conjuntos de datos personales. Este paso de personalización optimiza el servicio proporcionando las siguientes ventajas:
- Resultados de mayor calidad en comparación con la ingeniería rápida solo
- La capacidad de entrenar con más ejemplos de los que normalmente permite el límite máximo de contexto de solicitud de un modelo
- Ahorros de tokens debido a avisos más cortos
- Solicitudes de menor latencia, especialmente cuando se usan modelos más pequeños
Para obtener más información, consulte los siguientes recursos:
- Personalización de un modelo mediante el ajuste preciso
- Tutorial de ajuste preciso de GPT-4o-mini de Azure OpenAI
- Arquitectura de referencia de chat de Foundry Baseline
Herramientas de fundición para inteligencia artificial personalizada
Foundry Tools proporciona características para crear aplicaciones y modelos de IA personalizados. En las secciones siguientes se proporciona información general sobre estas características clave.
Voz personalizada
La voz personalizada es una característica de Voz de Azure. Puede usar voz personalizada para evaluar y mejorar la precisión del reconocimiento de voz para sus aplicaciones y productos. Use un modelo de voz personalizado para la conversión de voz en tiempo real en texto, traducción de voz y transcripción por lotes.
De forma predeterminada, el reconocimiento de voz usa un modelo de lenguaje universal como modelo base. Este modelo se entrena con datos propiedad de Microsoft y refleja el lenguaje hablado usado habitualmente. El modelo base está entrenado previamente con dialectos y fonéticos que representan dominios comunes. Al realizar una solicitud de reconocimiento de voz, el modelo base más reciente para el lenguaje admitido se usa de forma predeterminada. El modelo base funciona bien en la mayoría de los escenarios de reconocimiento de voz.
Puede usar un modelo personalizado para aumentar el modelo base. Por ejemplo, puede mejorar el reconocimiento del vocabulario específico del dominio que es específico de una aplicación proporcionando datos de texto para entrenar el modelo. También puede mejorar el reconocimiento de condiciones de audio específicas de una aplicación proporcionando datos de audio, incluidas las transcripciones de referencia.
Si los datos siguen un patrón, puede usar texto estructurado para entrenar un modelo. Puede especificar pronunciaciones personalizadas y personalizar el formato de texto para mostrar mediante la normalización de texto inversa personalizada, la reescritura personalizada y el filtrado de palabras soeces personalizados.
Traductor personalizado
Traductor personalizado es una característica de Azure Translator. Las empresas, los desarrolladores de aplicaciones y los proveedores de servicios de lenguaje pueden usar traductor personalizado para crear sistemas de traducción automática neuronal (NMT) personalizados. Los sistemas de traducción personalizados se integran en aplicaciones, flujos de trabajo y sitios web existentes.
Puede usar esta característica para compilar y publicar sistemas de traducción personalizados en inglés y desde este. El traductor personalizado admite más de tres docenas de idiomas que corresponden directamente a los idiomas para tecnología de traducción automática neuronal (NMT). Para obtener una lista completa de los idiomas, consulte Idiomas admitidos en Translator.
Traductor personalizado proporciona las siguientes características.
| Característica | Descripción |
|---|---|
| Aplicar tecnología NMT | Aplique NMT desde el traductor personalizado para mejorar la traducción. |
| Desarrollar sistemas que conocen la terminología de su negocio | Personalice y cree sistemas de traducción mediante documentos paralelos que usen la terminología de su negocio y sector. |
| Uso de un diccionario para compilar los modelos | Entrene un modelo usando solo datos de diccionario si no tiene un conjunto de datos de entrenamiento. |
| Colaboración con otros usuarios | Colabore con su equipo compartiendo su trabajo con diferentes personas. |
| Uso del modelo de traducción personalizada | Use el modelo de traducción personalizado en cualquier momento mediante las aplicaciones o programas existentes a través de Microsoft Translator Text API V3. |
Modelos personalizados
Azure Document Intelligence usa tecnología avanzada de aprendizaje automático para identificar documentos, detectar y extraer información de formularios y documentos, y devolver los datos extraídos en una salida JSON estructurada. Utilice la Inteligencia de Documentos para aprovechar los modelos de análisis de documentos preentrenados o modelos personalizados independientes entrenados.
Modelos personalizados de Document Intelligence incluyen modelos de clasificación personalizados para escenarios en los que necesite identificar el tipo de documento antes de invocar el modelo de extracción. Puede emparejar un modelo de clasificación con un modelo de extracción personalizado para analizar y extraer campos de formularios y documentos específicos de su empresa. Combine modelos de extracción personalizados independientes para crear modelos compuestos.
Analizador personalizado
Azure Content Understanding usa inteligencia artificial generativa para procesar o ingerir muchos tipos de contenido, incluidos documentos, imágenes, vídeos y audio, en un formato de salida definido por el usuario. Content Understanding incluye analizadores precompilados para escenarios y tipos de contenido comunes.
El analizador personalizado es una característica de Content Understanding que crea analizadores personalizados adaptados a sus necesidades de procesamiento de contenido específicas. Puede definir reglas de extracción personalizadas y patrones de reconocimiento de entidades para cumplir los requisitos empresariales.
Herramientas de IA personalizadas
Los modelos de inteligencia artificial precompilados son útiles y cada vez más flexibles, pero la mejor manera de optimizar la inteligencia artificial es adaptar un modelo a sus necesidades específicas. Dos herramientas principales para crear modelos de IA personalizados son ia generativa y el aprendizaje automático tradicional.
Azure Machine Learning Studio
Azure Machine Learning Studio es un servicio en la nube para acelerar y administrar el ciclo de vida del proyecto de aprendizaje automático. Los profesionales de aprendizaje automático, los científicos de datos y los ingenieros pueden usarlos en sus flujos de trabajo para entrenar e implementar modelos y administrar tareas de aprendizaje automático.
Construya y entrene modelos de aprendizaje automático mediante cualquier tipo de computación, incluyendo Spark y GPUs para cargas de trabajo de Inteligencia Artificial a gran escala en la nube.
Ejecute AutoML y use la interfaz de usuario select-and-move para Machine Learning de poco código.
Implemente tareas de aprendizaje automático de extremo a extremo y procesos repetibles.
Use el panel de inteligencia artificial responsable para la detección de sesgos y el análisis de errores.
Organice y administre la ingeniería de instrucciones y los flujos de modelos lingüísticos.
Implemente modelos a través de puntos de conexión de api REST, inferencia en tiempo real e inferencia por lotes.
Use espacios de trabajo del concentrador para compartir la computación, la cuota, la seguridad y la conectividad con los recursos empresariales, a la vez que centraliza la gobernanza de TI. Configure un centro una vez y, a continuación, cree áreas de trabajo seguras directamente desde Studio para cada proyecto. Use hubs para administrar el trabajo del equipo en el Studio y el portal de Foundry.
Fundición
Foundry le ayuda a compilar e implementar aplicaciones de IA generativas personalizadas de forma eficaz mediante las funcionalidades de Azure AI.
Crear juntos como un equipo. La cuenta de Foundry proporciona seguridad de nivel empresarial y un entorno de colaboración que incluye recursos compartidos y conexiones a modelos, datos y proceso previamente entrenados.
Organiza tu trabajo. El proyecto Foundry le ayuda a guardar el estado para que pueda iterar desde la primera idea hasta el primer prototipo y la implantación en producción inicial. Invite fácilmente a otros usuarios a colaborar con usted.
Use las plataformas y marcos de desarrollo preferidos, como GitHub, Visual Studio Code, Agent Framework, Kernel semántico y AutoGen.
Descubra y compare modelos de un catálogo amplio.
Configure modelos como "servicio" (MaaS) a través de APIs sin servidor y ajuste fino hospedado.
Incorpora varios modelos, orígenes de datos y modalidades.
Compile RAG mediante los datos empresariales protegidos, sin necesidad de ajustarlos.
Organice y administre flujos de ingeniería rápida y de modelos de lenguaje grande.
Diseñe y proteja aplicaciones y API a través de filtros y controles configurables.
Evalúe las respuestas del modelo mediante flujos de evaluación integrados y personalizados.
Implemente innovaciones de inteligencia artificial en la infraestructura administrada por Azure para proporcionar supervisión y gobernanza continuas en todos los entornos.
Supervise continuamente las aplicaciones implementadas para la seguridad, la calidad y el consumo de tokens en producción.
Servicio de Agente Foundry en el portal de Foundry
Foundry Agent Service es una herramienta que puede usar para crear agentes de IA mediante un enfoque no de código y no determinista. Los agentes se exponen como microservicios en la cuenta de Foundry.
Cada agente se conecta a un modelo de base desde el catálogo Foundry Models. Opcionalmente, los agentes pueden conectarse a los almacenes de conocimiento privados personalizados o a los datos públicos. Los agentes también pueden invocar herramientas para llamar a código personalizado y realizar tareas.
Lenguajes de código de IA personalizados
El concepto básico de inteligencia artificial es el uso de algoritmos para analizar datos y generar modelos para describir, o puntuar, de maneras útiles. Los desarrolladores y científicos de datos, y a veces otros algoritmos, usan código de programación para escribir algoritmos. Dos de los lenguajes de programación más populares para el desarrollo de inteligencia artificial son Python y R.
Python es un lenguaje de programación con fines genéricos y de alto nivel. Tiene una sintaxis sencilla que enfatiza la legibilidad. No es necesario ejecutar un paso de compilación. Python tiene una biblioteca estándar grande y admite la capacidad de agregar módulos y paquetes. Esta característica fomenta la modularidad y le permite expandir las funcionalidades cuando sea necesario. Existe un ecosistema grande y creciente de bibliotecas de inteligencia artificial y aprendizaje automático para Python, incluidos muchos en Azure.
Para obtener más información, consulte los siguientes recursos:
- Python en Azure
- Azure para desarrolladores de Python
- SDK de Azure Machine Learning para Python
- Introducción al aprendizaje automático con Python y cuadernos
- Biblioteca de aprendizaje automático de código abierto scikit-learn para Python
- Biblioteca de Python de código abierto PyTorch
- biblioteca matemática simbólica de código abierto de TensorFlow
- Tutorial: Aplicación de modelos de aprendizaje automático en Azure Functions con Python y TensorFlow
R es un lenguaje y entorno para computación estadística y gráficos. Puede usarlo para todo, desde el mapeo de amplias tendencias sociales y de marketing en línea hasta el desarrollo de modelos financieros y climáticos.
Microsoft adopta completamente el lenguaje de programación R y proporciona muchas opciones para que los desarrolladores de R ejecuten su código en Azure.
Para obtener más información, consulte Uso de R de forma interactiva en Machine Learning.
Para obtener información general sobre la inteligencia artificial personalizada en Azure, consulte los siguientes recursos:
- Microsoft AI en GitHub: ejemplos, arquitecturas de referencia y procedimientos recomendados
- SDK de Azure Machine Learning para Python
- repositorio de ejemplos de Machine Learning
- Entrenar modelos de R mediante la CLI de Machine Learning v2
Testimonios de clientes
Muchos sectores aplican ia de maneras innovadoras e inspiradoras. Tenga en cuenta los siguientes casos prácticos de clientes y casos de éxito:
- NSF permite que los tratamientos que salvan vidas lleguen a los pacientes más rápidamente con Azure AI.
- PIMCO aumenta el servicio de cliente con una plataforma de búsqueda con tecnología de inteligencia artificial basada en Azure AI
- Legrand y Azure OpenAI: impulsando soluciones más inteligentes con herramientas impulsadas por IA
- C.H. Robinson supera barreras de décadas para automatizar la industria de la logística mediante Azure AI
Examinar más historias de clientes sobre inteligencia artificial
Información general sobre Microsoft AI
Obtenga más información sobre Microsoft AI y manténgase al día de las noticias relacionadas:
- IA de Microsoft
- centro de aprendizaje de IA
- Azure AI
- noticias de Inteligencia artificial de Microsoft
- Microsoft AI en GitHub: ejemplos, arquitecturas de referencia y procedimientos recomendados