Este explorador ya no se admite.
Actualice a Microsoft Edge para aprovechar las características y actualizaciones de seguridad más recientes, y disponer de soporte técnico.
Para comprobar sus conocimientos, responda a las siguientes preguntas.
¿Cuál es el propósito de un modelo de lenguaje grande (LLM)?
Procesar y producir texto en lenguaje natural aprendiendo de una gran cantidad de datos de texto para detectar patrones y reglas del lenguaje.
Mostrar antropomorfismo y comprender las emociones.
Comprender el lenguaje y los hechos.
¿Cuál es la diferencia entre el procesamiento del lenguaje natural (NLP) tradicional y los modelos de lenguaje grande (LLM)?
El procesamiento de lenguaje natural tradicional usa muchos terabytes de datos sin etiquetar en el modelo de base, mientras que los modelos de lenguaje grandes proporcionan un conjunto de datos etiquetados para entrenar el modelo de aprendizaje automático.
El procesamiento de lenguaje natural tradicional está altamente optimizado para casos de uso específicos, mientras que los modelos de lenguaje grandes describen en lenguaje natural lo que quiere que haga el modelo.
El procesamiento de lenguaje natural tradicional requiere un modelo por funcionalidad, mientras que los modelos de lenguaje grandes usan un solo modelo para muchos casos de uso de lenguaje natural.
¿Cuál es el propósito de la tokenización en los modelos de lenguaje natural?
Representar el texto de forma significativa para las máquinas sin perder su contexto, de modo que los algoritmos puedan identificar patrones más fácilmente.
Generar texto letra por letra.
Representar palabras comunes con un solo token.
Debe responder todas las preguntas antes de comprobar su trabajo.
¿Le ha resultado útil esta página?
¿Necesita ayuda con este tema?
¿Desea intentar usar Ask Learn para aclarar o guiarle a través de este tema?