gpt2-orao / README.md
procesaur's picture
Update README.md
a3c5952
|
raw
history blame
1.44 kB
metadata
license: cc-by-sa-4.0
datasets:
  - JeRTeh/cc100-sr-jerteh
  - JeRTeh/SrpELTeC
  - JeRTeh/SrpWiki
  - srwac
language:
  - sr
tags:
  - Srpski
  - Serbian
  - GPT2
  - generisanje

Najveći generativni model za srpski jezik.

Obučavan na Nacionalnoj platformi za veštačku inteligenciju Srbije (sistem koji se bazira na nVidia DGX sistemima).

Pored navedenih, model je obučavan i na ostalim korpusima Društva za jezičke resurse i tehnologije, uključujući korpuse savremenog srpskog jezika: SrpKor2013 i SrpKor2021, kao i korpus PDRS 1.0 razvijen od strane Instituta za Srpski jezik SANU.

Upotreba

>>> from transformers import pipeline, set_seed
>>> generator = pipeline('text-generation', model='JeRTeh/sr-gpt2-large')
>>> set_seed(23)
>>> generator("", max_length=30, num_return_sequences=5)
[{'generated_text': 'Ja, međutim, ne idem na Adu - kaže Miodrag.'},
{'generated_text': 'Domaćinstvo se nalazilo na mestu zvanom Kulina (ranije Kulina Vakuf) i bilo je jedno od najvećih i naj'},
{'generated_text': 'Regionalne razlike se uglavnom odnose na geografski položaj, geografsko-geografski položaj i ekonomsku razvijenost.'},
{'generated_text': 'Od tada do danas Srbija ne stoji na nogama'},
{'generated_text': 'Iz tog razloga, na ovaj način se postiže bolja efikasnost rada, odnosno smanjuje se vreme potrebno za sprovođenje simulacije.'}]