Wprowadzenie

Zakończone

Generowanie aplikacji sztucznej inteligencji jest oparte na modelach językowych. Proces programowania zwykle rozpoczyna się od eksploracji i porównania dostępnych modeli podstawowych , aby znaleźć ten, który najlepiej odpowiada konkretnym potrzebom aplikacji. Po wybraniu odpowiedniego modelu należy wdrożyć go w punkcie końcowym, w którym może być używany przez aplikację kliencką lub agenta sztucznej inteligencji.

Modele podstawowe, takie jak rodzina modeli GPT, to najnowocześniejsze modele językowe przeznaczone do zrozumienia, generowania i interakcji z językiem naturalnym. Oto niektóre typowe przypadki użycia modeli:

  • Przekształcenie mowy na tekst i tekstu na mowę. Na przykład wygeneruj napisy dla filmów wideo.
  • Tłumaczenie maszynowe. Na przykład przetłumacz tekst z języka angielskiego na japoński.
  • Klasyfikacja tekstu. Na przykład oznacz wiadomość e-mail jako spam lub nie spam.
  • Wyodrębnianie jednostek. Na przykład wyodrębnij słowa kluczowe lub nazwy z dokumentu.
  • Podsumowanie tekstu. Na przykład wygeneruj krótkie podsumowanie jednego akapitu z wielostronicowego dokumentu.
  • Odpowiadanie na pytania. Na przykład podaj odpowiedzi na pytania, takie jak "Co to jest stolica Francji?"
  • Rozumowanie. Na przykład rozwiąż problem matematyczny.

W tym module skupisz się na eksplorowaniu podstawowych modeli używanych do odpowiadania na pytania. Modele podstawowe, które eksplorujesz, mogą służyć do obsługi aplikacji do czatów, w których używasz modelu językowego do generowania odpowiedzi na pytanie użytkownika.

Uwaga

Najnowszy przełom w generowaniu modeli sztucznej inteligencji jest winien rozwojowi architektury Transformer . Transformatory zostały wprowadzone w Attention is all you need przez Vaswani et al. z 2017 roku. Architektura transformera dostarczyła dwie innowacje dla NLP, które doprowadziły do powstania modeli podstawowych:

  • Zamiast przetwarzać wyrazy sekwencyjnie, transformatory przetwarzają każde słowo niezależnie i równolegle przy użyciu uwagi.
  • Obok semantycznych podobieństw między wyrazami, Transformery używają kodowania pozycyjnego, aby uwzględnić informacje o położeniu słowa w zdaniu.