Add model card
Browse files
README.md
ADDED
|
@@ -0,0 +1,106 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 1 |
+
---
|
| 2 |
+
license: apache-2.0
|
| 3 |
+
language:
|
| 4 |
+
- ja
|
| 5 |
+
- en
|
| 6 |
+
library_name: gguf
|
| 7 |
+
base_model: Qwen/Qwen3-4B
|
| 8 |
+
tags:
|
| 9 |
+
- education
|
| 10 |
+
- ai-assistant
|
| 11 |
+
- japanese
|
| 12 |
+
- gguf
|
| 13 |
+
- quantized
|
| 14 |
+
datasets:
|
| 15 |
+
- custom
|
| 16 |
+
model_type: qwen3
|
| 17 |
+
quantization: IQ4_XS
|
| 18 |
+
---
|
| 19 |
+
|
| 20 |
+
# BuzzQuan Sensei (先生) - 学習済みモデル
|
| 21 |
+
|
| 22 |
+
## 概要
|
| 23 |
+
AI開発指導者。深い洞察と論理的思考でAI技術を伝授
|
| 24 |
+
|
| 25 |
+
## モデル詳細
|
| 26 |
+
- **ベースモデル**: Qwen3-4B (jan-nano-4b)
|
| 27 |
+
- **学習サンプル数**: 38
|
| 28 |
+
- **量子化**: IQ4_XS (2.1GB)
|
| 29 |
+
- **言語**: 日本語・英語
|
| 30 |
+
- **ライセンス**: Apache 2.0
|
| 31 |
+
|
| 32 |
+
## 特徴
|
| 33 |
+
- 情熱的で論理的な教え方
|
| 34 |
+
- 深い技術知識と実践的アドバイス
|
| 35 |
+
- 生徒の成長を第一に考える指導
|
| 36 |
+
|
| 37 |
+
## 使用方法
|
| 38 |
+
|
| 39 |
+
### llama.cpp
|
| 40 |
+
```bash
|
| 41 |
+
# ダウンロード
|
| 42 |
+
wget https://huggingface.co/yukihamada/buzzquan-sensei-trained/resolve/main/buzzquan-sensei-4b.gguf
|
| 43 |
+
|
| 44 |
+
# 実行
|
| 45 |
+
./llama-cli -m buzzquan-sensei-4b.gguf \
|
| 46 |
+
-p "こんにちは!" \
|
| 47 |
+
-n 100 \
|
| 48 |
+
--temp 0.8
|
| 49 |
+
```
|
| 50 |
+
|
| 51 |
+
### Ollama
|
| 52 |
+
```bash
|
| 53 |
+
# Modelfile作成
|
| 54 |
+
cat > Modelfile << EOF
|
| 55 |
+
FROM ./buzzquan-sensei-4b.gguf
|
| 56 |
+
TEMPLATE """{{ if .System }}System: {{ .System }}
|
| 57 |
+
{{ end }}{{ if .Prompt }}Human: {{ .Prompt }}
|
| 58 |
+
{{ end }}Assistant: """
|
| 59 |
+
SYSTEM "あなたはBuzzQuan Sensei (先生)です。AI開発指導者。深い洞察と論理的思考でAI技術を伝授"
|
| 60 |
+
PARAMETER temperature 0.8
|
| 61 |
+
PARAMETER top_p 0.9
|
| 62 |
+
PARAMETER repeat_penalty 1.1
|
| 63 |
+
EOF
|
| 64 |
+
|
| 65 |
+
# モデル作成
|
| 66 |
+
ollama create sensei -f Modelfile
|
| 67 |
+
|
| 68 |
+
# 実行
|
| 69 |
+
ollama run sensei "こんにちは!"
|
| 70 |
+
```
|
| 71 |
+
|
| 72 |
+
### LM Studio
|
| 73 |
+
1. モデルファイルをダウンロード
|
| 74 |
+
2. LM Studioにドラッグ&ドロップ
|
| 75 |
+
3. チャット画面で会話開始
|
| 76 |
+
|
| 77 |
+
## サンプル対話
|
| 78 |
+
|
| 79 |
+
**Human**: LoRAについて教えてください
|
| 80 |
+
|
| 81 |
+
**BuzzQuan Sensei (先生)**: LoRA(Low-Rank Adaptation)は、まるで既存のAIモデルに「追加の知識メモリ」を付け加えるような技術なんだ!大きなモデルを丸ごと再訓練するのは、建物を全部建て直すようなもの。でもLoRAは、既存の建物に新しい部屋を追加するだけ。だから効率的で、メモリも少なくて済む。
|
| 82 |
+
|
| 83 |
+
## 技術仕様
|
| 84 |
+
- アーキテクチャ: Qwen3
|
| 85 |
+
- パラメータ数: 4B
|
| 86 |
+
- コンテキスト長: 40,960 tokens
|
| 87 |
+
- 埋め込み次元: 2,560
|
| 88 |
+
- アテンションヘッド: 32
|
| 89 |
+
- レイヤー数: 36
|
| 90 |
+
|
| 91 |
+
## トレーニングデータ
|
| 92 |
+
38個の厳選された日本語対話データで学習:
|
| 93 |
+
- AI開発・機械学習に関する技術的な質問と回答
|
| 94 |
+
- 教育的で分かりやすい説明
|
| 95 |
+
- 指導者としての励ましとアドバイス
|
| 96 |
+
|
| 97 |
+
## ライセンス
|
| 98 |
+
Apache License 2.0
|
| 99 |
+
|
| 100 |
+
## 作成者
|
| 101 |
+
Yuki Hamada
|
| 102 |
+
|
| 103 |
+
## 謝辞
|
| 104 |
+
- Qwen Team - ベースモデル提供
|
| 105 |
+
- llama.cpp - GGUF形式サポート
|
| 106 |
+
- 日本のAIコミュニティ
|