Ta przeglądarka nie jest już obsługiwana.
Zaktualizuj do Microsoft Edge, aby skorzystać z najnowszych funkcji, aktualizacji bezpieczeństwa i wsparcia technicznego.
Sprawdź swoją wiedzę, odpowiadając na następujące pytania.
Jaki jest cel modelu dużego języka (LLM)?
Aby przetwarzać i tworzyć tekst w języku naturalnym, ucząc się od ogromnej ilości danych tekstowych w celu odnajdywania wzorców i reguł języka.
Aby wykazać antropomorfizm i zrozumieć emocje.
Aby zrozumieć język i fakty.
Jaka jest różnica między tradycyjnym przetwarzaniem języka naturalnego (NLP) i dużymi modelami językowymi (LLMs)?
Tradycyjne przetwarzanie języka naturalnego (NLP) używa wielu terabajtów danych bez etykiet w modelu podstawowym, podczas gdy LLM zapewniają zestaw danych oznaczonych etykietami do trenowania modelu uczenia maszynowego.
Tradycyjne przetwarzanie języka naturalnego jest wysoce zoptymalizowane pod kątem konkretnych przypadków użycia, podczas gdy LLMy opisują w języku naturalnym, co chcesz, aby model zrobił.
Tradycyjne przetwarzanie języka naturalnego wymaga jednego modelu na funkcjonalność, podczas gdy LLM-y używają jednego modelu dla wielu zastosowań przetwarzania języka naturalnego.
Jaki jest cel tokenizacji w modelach języka naturalnego?
Aby reprezentować tekst w sposób zrozumiały dla maszyn bez utraty kontekstu, dzięki czemu algorytmy mogą łatwiej identyfikować wzorce.
Aby wygenerować tekst litera po literze.
Aby reprezentować typowe słowa za pomocą pojedynczego tokenu.
Przed sprawdzeniem pracy musisz odpowiedzieć na wszystkie pytania.
Czy ta strona była pomocna?
Potrzebujesz pomocy w tym temacie?
Chcesz spróbować użyć Ask Learn, aby wyjaśnić lub poprowadzić się przez ten temat?