miweru commited on
Commit
dc7831d
1 Parent(s): 5672e8f

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +1 -1
README.md CHANGED
@@ -27,7 +27,7 @@ tags:
27
  see english version beyond
28
 
29
  # LAION LeoLM 70b Chat: **L**inguistically **E**nhanced **O**pen **L**anguage **M**odel
30
- Dieses Modell ist eine quantisierte Version des LeoLM/leo-hessianai-70b, einem der leistungsfähigsten öffentlich zugänglichen Sprachmodelle für die deutsche Sprache, basierend auf Llama-2. Durch die Quantisierung mit der Q5_K_M-Methode ist es möglich, das Modell effizient auf Hardware wie dem MacBook Pro M3 Max zu betreiben. Trotz der Anpassung durch Quantisierung bietet das Modell eine beeindruckende Leistung für eine Vielzahl von Textgenerierungs- und Verständnisaufgaben in deutscher Sprache.
31
 
32
  ## Verwendungshinweise
33
  Das Modell ist für den Einsatz in der deutschen Sprache optimiert und eignet sich hervorragend für Anwendungen wie Textgenerierung, Übersetzung und weitere NLP-Aufgaben. Es wurde speziell quantisiert, um eine lokale Ausführung auf Computern mit begrenzten Ressourcen zu ermöglichen, ohne dabei signifikant an Genauigkeit oder Reaktionsfähigkeit zu verlieren.
 
27
  see english version beyond
28
 
29
  # LAION LeoLM 70b Chat: **L**inguistically **E**nhanced **O**pen **L**anguage **M**odel
30
+ Dieses Modell ist eine quantisierte Version von LeoLM/leo-hessianai-70b, einem der leistungsfähigsten öffentlich zugänglichen Sprachmodelle für die deutsche Sprache, basierend auf Llama-2. Durch die Quantisierung mit der Q5_K_M-Methode ist es möglich, das Modell effizient auf Hardware wie dem MacBook Pro M3 Max (ab ca. 64GB shared memory) zu betreiben. Trotz der Anpassung durch Quantisierung bietet das Modell eine beeindruckende Leistung für eine Vielzahl von Textgenerierungs- und Verständnisaufgaben in deutscher Sprache.
31
 
32
  ## Verwendungshinweise
33
  Das Modell ist für den Einsatz in der deutschen Sprache optimiert und eignet sich hervorragend für Anwendungen wie Textgenerierung, Übersetzung und weitere NLP-Aufgaben. Es wurde speziell quantisiert, um eine lokale Ausführung auf Computern mit begrenzten Ressourcen zu ermöglichen, ohne dabei signifikant an Genauigkeit oder Reaktionsfähigkeit zu verlieren.