🧠 SykoLLM V5.5-Beta

⚠️ Bu model hâlâ beta aşamasındadır. Üretim ortamında kullanmadan önce kapsamlı test yapmanız önerilir.

SykoLLM V5.5-Beta, SykoLLM ailesinin şu ana kadar eğitilmiş en büyük dil modelidir. Phi-3 mimarisi üzerine inşa edilmiş olup Türkçe ve İngilizce metinler, kodlama veri setleri ve eğitici içerikler üzerinde ön-eğitimden (pre-training) geçirilmiştir.


📐 Model Mimarisi

Özellik Değer
Mimari Phi-3 (Causal LM)
Toplam Parametre ~447 Milyon
Gizli Katman Boyutu (hidden_size) 1024
Ara Katman Boyutu (intermediate_size) 3072
Dikkat Başlığı Sayısı (num_attention_heads) 8
Katman Sayısı (num_hidden_layers) 28
Kelime Hazinesi (vocab_size) 32.000
Bağlam Penceresi (context_length) 1024 token

📚 Eğitim Veri Setleri

Model aşağıdaki 8 farklı veri seti üzerinde harmanlanarak (interleave) eğitilmiştir:

Veri Seti İçerik Türü Dil
uonlp/CulturaX Genel web metinleri (tr bölümü) 🇹🇷 Türkçe
HuggingFaceTB/cosmopedia Sentetik eğitici içerik 🇬🇧 İngilizce
roneneldan/TinyStories Kısa, sade hikayeler 🇬🇧 İngilizce
nampdn-ai/tiny-textbooks Ders kitabı tarzı içerik 🇬🇧 İngilizce
nampdn-ai/tiny-codes Kod örnekleri ve açıklamalar 💻 Çokdil
ise-uiuc/Magicoder-Evol-Instruct-110K Gelişmiş kodlama talimatları 💻 Çokdil
theblackcat102/evol-codealpaca-v1 Kodlama talimatları 💻 Çokdil
turkish-nlp-suite/InstrucTurca Türkçe instruction/yanıt çiftleri 🇹🇷 Türkçe

Toplamda yaklaşık ~300.000 örnek ile eğitilmiştir.


⚙️ Eğitim Detayları

Parametre Değer
Kullanılan Donanım 2× NVIDIA Tesla T4
Eğitim Adımı 2300 steps
Batch Boyutu (cihaz başına) 4
Gradyan Birikimi 16 (efektif batch: 64)
Öğrenme Hızı 3e-4
LR Zamanlayıcı Cosine
Isınma Adımı 200
Ağırlık Bozunması 0.05
Optimizatör AdamW (Fused)
Gradyan Kırpma 1.0
Çerçeve HuggingFace Transformers + Trainer

🚀 Kullanım

from transformers import AutoModelForCausalLM, AutoTokenizer
import torch

model_id = "SykoSLM/SykoLLM-V5.5-Beta"

tokenizer = AutoTokenizer.from_pretrained(model_id)
model = AutoModelForCausalLM.from_pretrained(
    model_id,
    torch_dtype=torch.bfloat16,
    device_map="auto"
)

# Sohbet formatı
prompt = "<|user|>\nMerhaba! Nasılsın?<|end|>\n<|assistant|>\n"

inputs = tokenizer(prompt, return_tensors="pt").to(model.device)

with torch.no_grad():
    outputs = model.generate(
        **inputs,
        max_new_tokens=256,
        do_sample=True,
        temperature=0.7,
        top_p=0.9,
        repetition_penalty=1.1
    )

response = tokenizer.decode(outputs[0], skip_special_tokens=True)
print(response)

Sohbet Şablonu

Model aşağıdaki özel token formatıyla eğitilmiştir:

<|user|>
Kullanıcı mesajı burada<|end|>
<|assistant|>
Modelin yanıtı burada<|end|>

🗺️ SykoLLM Ailesi Yol Haritası

Versiyon Durum Veri Miktarı Donanım
SykoLLM V5.5-Beta ✅ Yayında (Beta) ~300K örnek 2× T4
SykoLLM V5.6 🔜 Geliştiriliyor ~1.7M örnek NVIDIA A100

V5.6 ile ne değişecek?

  • Eğitim verisi ~5.6x büyüyecek (300K → 1.7M örnek)
  • A100'ün bellek ve hesaplama gücü sayesinde daha uzun bağlam ve daha derin öğrenme
  • Türkçe dil yetkinliği önemli ölçüde artacak
  • Beta etiketinin kaldırılması planlanmaktadır

⚠️ Sınırlamalar ve Önemli Notlar

  • Bu model beta aşamasındadır; tutarsız veya hatalı yanıtlar üretebilir.
  • Bağlam penceresi 1024 token ile sınırlıdır.
  • Model yalnızca ön-eğitim (pre-training) görmüştür; RLHF veya DPO gibi hizalama süreçleri uygulanmamıştır.
  • Kritik, tıbbi, hukuki veya güvenlik gerektiren uygulamalarda kullanımı önerilmez.
  • Model zaman zaman Türkçe yerine İngilizce yanıt verebilir.

📄 Lisans

Bu model Apache 2.0 lisansı altında yayınlanmıştır. Ticari kullanım serbesttir, ancak modelin kaynağının belirtilmesi beklenir.


🙏 Teşekkürler

Bu modelin eğitiminde kullanılan veri setlerini açık kaynak olarak sunan tüm araştırmacılara ve topluluklara teşekkürler: HuggingFace, Turkish NLP Suite, Cosmopedia ekibi ve diğerleri.


SykoSLM tarafından geliştirilmiştir. Sorularınız için bir Issue açabilirsiniz.

Downloads last month
752
Safetensors
Model size
0.4B params
Tensor type
F32
·
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Model tree for SykoSLM/SykoLLM-V5.5-Beta

Unable to build the model tree, the base model loops to the model itself. Learn more.

Datasets used to train SykoSLM/SykoLLM-V5.5-Beta