Introducing huBERT
This paper introduces the huBERT family of models. The flagship is the eponymous BERT Base model trained on the new Hungarian Webcorpus 2.0, a 9-billion-token corpus of Web text collected from the Common Crawl. This model outperforms the multilingual BERT in masked language modeling by a huge margin...
Elmentve itt :
| Szerző: | Nemeskey Dávid Márk |
|---|---|
| Testületi szerző: | Magyar számítógépes nyelvészeti konferencia (17.) (2021) (Szeged) |
| Dokumentumtípus: | Könyv része |
| Megjelent: |
2021
|
| Sorozat: | Magyar Számítógépes Nyelvészeti Konferencia
17 |
| Kulcsszavak: | Nyelvészet - számítógép alkalmazása |
| Tárgyszavak: | |
| Online Access: | http://acta.bibl.u-szeged.hu/73353 |
Hasonló tételek
-
huBERT alapú sziámi neurális háló architektúrák elemzése ügyfélszolgálati emailek klasszifikációjára
Szerző: Vándor Péter, et al.
Megjelent: (2023) -
A pragmatikai annotáció kontextusfüggősége nagy nyelvi modell esetében - felszólító alakok funkcióinak annotálása huBert modellel
Szerző: Szécsényi Tibor, et al.
Megjelent: (2025) -
LlamBERT large-scale low-cost data annotation in NLP : [abstract] /
Szerző: Csanády Bálint, et al.
Megjelent: (2024) -
Automatic punctuation restoration with BERT models
Szerző: Nagy Attila, et al.
Megjelent: (2021) -
Koreferenciafeloldás magyar szövegeken BERT-tel
Szerző: Vadász Noémi, et al.
Megjelent: (2023)