🧠 SykoLLM V5.5-Beta
⚠️ Bu model hâlâ beta aşamasındadır. Üretim ortamında kullanmadan önce kapsamlı test yapmanız önerilir.
SykoLLM V5.5-Beta, SykoLLM ailesinin şu ana kadar eğitilmiş en büyük dil modelidir. Phi-3 mimarisi üzerine inşa edilmiş olup Türkçe ve İngilizce metinler, kodlama veri setleri ve eğitici içerikler üzerinde ön-eğitimden (pre-training) geçirilmiştir.
📐 Model Mimarisi
| Özellik | Değer |
|---|---|
| Mimari | Phi-3 (Causal LM) |
| Toplam Parametre | ~447 Milyon |
Gizli Katman Boyutu (hidden_size) |
1024 |
Ara Katman Boyutu (intermediate_size) |
3072 |
Dikkat Başlığı Sayısı (num_attention_heads) |
8 |
Katman Sayısı (num_hidden_layers) |
28 |
Kelime Hazinesi (vocab_size) |
32.000 |
Bağlam Penceresi (context_length) |
1024 token |
📚 Eğitim Veri Setleri
Model aşağıdaki 8 farklı veri seti üzerinde harmanlanarak (interleave) eğitilmiştir:
| Veri Seti | İçerik Türü | Dil |
|---|---|---|
| uonlp/CulturaX | Genel web metinleri (tr bölümü) | 🇹🇷 Türkçe |
| HuggingFaceTB/cosmopedia | Sentetik eğitici içerik | 🇬🇧 İngilizce |
| roneneldan/TinyStories | Kısa, sade hikayeler | 🇬🇧 İngilizce |
| nampdn-ai/tiny-textbooks | Ders kitabı tarzı içerik | 🇬🇧 İngilizce |
| nampdn-ai/tiny-codes | Kod örnekleri ve açıklamalar | 💻 Çokdil |
| ise-uiuc/Magicoder-Evol-Instruct-110K | Gelişmiş kodlama talimatları | 💻 Çokdil |
| theblackcat102/evol-codealpaca-v1 | Kodlama talimatları | 💻 Çokdil |
| turkish-nlp-suite/InstrucTurca | Türkçe instruction/yanıt çiftleri | 🇹🇷 Türkçe |
Toplamda yaklaşık ~300.000 örnek ile eğitilmiştir.
⚙️ Eğitim Detayları
| Parametre | Değer |
|---|---|
| Kullanılan Donanım | 2× NVIDIA Tesla T4 |
| Eğitim Adımı | 2300 steps |
| Batch Boyutu (cihaz başına) | 4 |
| Gradyan Birikimi | 16 (efektif batch: 64) |
| Öğrenme Hızı | 3e-4 |
| LR Zamanlayıcı | Cosine |
| Isınma Adımı | 200 |
| Ağırlık Bozunması | 0.05 |
| Optimizatör | AdamW (Fused) |
| Gradyan Kırpma | 1.0 |
| Çerçeve | HuggingFace Transformers + Trainer |
🚀 Kullanım
from transformers import AutoModelForCausalLM, AutoTokenizer
import torch
model_id = "SykoSLM/SykoLLM-V5.5-Beta"
tokenizer = AutoTokenizer.from_pretrained(model_id)
model = AutoModelForCausalLM.from_pretrained(
model_id,
torch_dtype=torch.bfloat16,
device_map="auto"
)
# Sohbet formatı
prompt = "<|user|>\nMerhaba! Nasılsın?<|end|>\n<|assistant|>\n"
inputs = tokenizer(prompt, return_tensors="pt").to(model.device)
with torch.no_grad():
outputs = model.generate(
**inputs,
max_new_tokens=256,
do_sample=True,
temperature=0.7,
top_p=0.9,
repetition_penalty=1.1
)
response = tokenizer.decode(outputs[0], skip_special_tokens=True)
print(response)
Sohbet Şablonu
Model aşağıdaki özel token formatıyla eğitilmiştir:
<|user|>
Kullanıcı mesajı burada<|end|>
<|assistant|>
Modelin yanıtı burada<|end|>
🗺️ SykoLLM Ailesi Yol Haritası
| Versiyon | Durum | Veri Miktarı | Donanım |
|---|---|---|---|
| SykoLLM V5.5-Beta | ✅ Yayında (Beta) | ~300K örnek | 2× T4 |
| SykoLLM V5.6 | 🔜 Geliştiriliyor | ~1.7M örnek | NVIDIA A100 |
V5.6 ile ne değişecek?
- Eğitim verisi ~5.6x büyüyecek (300K → 1.7M örnek)
- A100'ün bellek ve hesaplama gücü sayesinde daha uzun bağlam ve daha derin öğrenme
- Türkçe dil yetkinliği önemli ölçüde artacak
- Beta etiketinin kaldırılması planlanmaktadır
⚠️ Sınırlamalar ve Önemli Notlar
- Bu model beta aşamasındadır; tutarsız veya hatalı yanıtlar üretebilir.
- Bağlam penceresi 1024 token ile sınırlıdır.
- Model yalnızca ön-eğitim (pre-training) görmüştür; RLHF veya DPO gibi hizalama süreçleri uygulanmamıştır.
- Kritik, tıbbi, hukuki veya güvenlik gerektiren uygulamalarda kullanımı önerilmez.
- Model zaman zaman Türkçe yerine İngilizce yanıt verebilir.
📄 Lisans
Bu model Apache 2.0 lisansı altında yayınlanmıştır. Ticari kullanım serbesttir, ancak modelin kaynağının belirtilmesi beklenir.
🙏 Teşekkürler
Bu modelin eğitiminde kullanılan veri setlerini açık kaynak olarak sunan tüm araştırmacılara ve topluluklara teşekkürler: HuggingFace, Turkish NLP Suite, Cosmopedia ekibi ve diğerleri.
SykoSLM tarafından geliştirilmiştir. Sorularınız için bir Issue açabilirsiniz.
- Downloads last month
- 752
Model tree for SykoSLM/SykoLLM-V5.5-Beta
Unable to build the model tree, the base model loops to the model itself. Learn more.