Drogi udostępniania wybranych modeli:
Rodzaje udostępnianych modeli:
fastText to rodzina modeli do wyznaczania bezkontekstowego osadzenia słów. Metoda dzieli słowa na mniejsze fragmenty złożone z kolejno występujących liter tzw. n-gramy. N-gramy to reprezentacja kolejno występujących elementów tekstu pogrupowanych w segmenty o długości n.
Modele fastText mogą być wykorzystane m. in. w:
Transformery to modele architektury sieci neuronowej oparty na mechanizmie uwagi składające się z warstw kodera i dekodera. Warstwa kodująca koduje tekst wejściowy w postaci numerycznej, a warstwa dekodująca wykorzystuje te zakodowane informacje, aby uzyskać dane wyjściowe.
Modele transformerów mogą być używane m. in. w:
SBERT: Sentence-BERT to model oparty na modelu transformera BERT (Bidirectional Encoder Representations from Transformers), który pozwala uzyskać wektory osadzeń słów. Model BERT umożliwia zakodowanie poszczególnych słów, natomiast Sentence-BERT pozwala zakodować znaczenie całego zdania.
Modele BERT można dostosowywać i wykorzystywać między innymi w:
T5 to model Text-to-Text-Transfer-Transformer. Podczas gdy poprzednie modele zamieniały tekst na wektory liczbowe, istotą transformacji T5 jest zamiana tekstu na inny tekst. Działają dla wielu języków i mają bardzo szerokie spektrum zastosowania.
Mogą być wykorzystywane m. in. w:
(C) CLARIN-PL