--- license: mit datasets: - mlabonne/chessllm language: - it base_model: - Mattimax/DACMini-IT tags: - DAC - DATA-AI - MINC - text-generation-inference --- # DACMini-IT-Chess — Model Card ## Italian Model Card ## Panoramica **DACMini-IT-Chess** è una variante sperimentale del modello **DACMini-IT** (109M parametri), un piccolo modello di linguaggio addestrato per la lingua italiana. L’obiettivo del progetto è stato verificare la capacità del modello di generalizzare e apprendere competenze specifiche in un dominio strutturato come quello degli **scacchi**, partendo da un dataset dedicato. --- ## Dettagli del modello * **Base model:** [Mattimax/DACMini-IT](https://huggingface.co/Mattimax/DACMini-IT) * **Dataset utilizzato:** [mlabonne/chessllm](https://huggingface.co/datasets/mlabonne/chessllm) * **Lingua:** Italiano * **Dimensione:** 109 milioni di parametri * **Licenza:** MIT * **Task principale:** Generazione di testo / ragionamento nel dominio scacchistico --- ## Motivazione Il progetto nasce con l’intento di **testare i limiti di adattabilità** di un piccolo modello linguistico italiano a un dominio altamente tecnico. Non si tratta di una release di produzione, ma di **un esperimento mirato** per osservare: * se un modello di dimensioni ridotte possa apprendere pattern tattici e strategici; * quanto un dataset focalizzato possa migliorare la coerenza nelle risposte relative agli scacchi; * l’impatto del fine-tuning su un contesto ristretto rispetto alla conoscenza generale preesistente. --- ## Addestramento Il modello è stato fine-tunato su **mlabonne/chessllm**, un dataset contenente partite, commenti e spiegazioni di mosse. L’allenamento è stato condotto in modo leggero, con un focus sull’apprendimento del lessico tecnico e delle strutture logiche tipiche del gioco. Scopo primario: **esperimento esplorativo**, non ottimizzazione delle performance. --- ## Risultati attesi * Miglioramento nella comprensione del linguaggio tecnico degli scacchi. * Capacità di generare sequenze di mosse coerenti e commenti sensati. * Nessuna pretesa di performance da motore scacchistico o di affidabilità strategica. --- ## Limitazioni * Non sostituisce un motore di scacchi come Stockfish o Leela. * Le risposte possono contenere imprecisioni tattiche. * L’uso va considerato esclusivamente a fini **sperimentali o didattici**. --- ## Conclusioni **DACMini-IT-Chess** rappresenta un piccolo ma interessante passo nel valutare la **specializzazione di modelli di piccola scala** in lingua italiana. L’obiettivo principale è stato “provare per vedere se funziona”, esplorando come un modello compatto possa adattarsi a un dominio strutturato come quello degli scacchi, pur mantenendo una base linguistica generale. --- **Autori:** Team DATA-AI **Tag:** `#DAC`, `#DATA-AI`, `#MINC`, `#text-generation-inference` **Licenza:** MIT ## English Model Card # DACMini-IT-Chess — Model Card ## Overview **DACMini-IT-Chess** is an experimental variant of **DACMini-IT** (109M parameters), a small language model designed for the Italian language. The goal of this project was to test whether such a compact model could learn and perform reasoning within a structured domain like **chess**, using a dedicated dataset. --- ## Model Details * **Base model:** [Mattimax/DACMini-IT](https://huggingface.co/Mattimax/DACMini-IT) * **Dataset used:** [mlabonne/chessllm](https://huggingface.co/datasets/mlabonne/chessllm) * **Language:** Italian * **Size:** 109 million parameters * **License:** MIT * **Primary task:** Text generation / domain reasoning in chess --- ## Motivation This project was created to **test the adaptability limits** of a small Italian language model in a highly technical field. It is not a production-ready release, but rather **a focused experiment** aimed at exploring: * whether a small model can learn tactical and strategic patterns; * how a specialized dataset can enhance coherence in chess-related outputs; * the effect of fine-tuning on a narrow, domain-specific context versus general knowledge. --- ## Training The model was fine-tuned on **mlabonne/chessllm**, a dataset containing chess games, commentary, and move explanations. Training was conducted lightly, focusing on learning technical vocabulary and logical structures specific to chess. The main goal was **exploration**, not performance optimization. --- ## Expected Outcomes * Improved understanding of chess terminology and structure. * Ability to generate coherent move sequences and commentary. * No claims of engine-level performance or strategic accuracy. --- ## Limitations * Not a replacement for chess engines like Stockfish or Leela. * May produce tactically inaccurate or inconsistent moves. * Intended for **experimental or educational** use only. --- ## Conclusion **DACMini-IT-Chess** represents a small yet meaningful step in evaluating **domain specialization for small-scale Italian language models**. The project’s goal was simple: to “see if it works” — exploring how a compact model can adapt to a structured and logic-driven field like chess while retaining its general language foundation. --- **Authors:** DATA-AI Team **Tags:** `#DAC`, `#DATA-AI`, `#MINC`, `#text-generation-inference` **License:** MIT