🧠 EDA LLM – BeAnalytic
Modelo fine-tuned completo (merged) a partir do Qwen2.5-1.5B-Instruct, originalmente treinado com LoRA e posteriormente merged para análise exploratória de dados (EDA), métricas, insights e explicações analíticas em linguagem natural.
✨ Características
- Modelo merged completo: Não requer PEFT/LoRA para uso
- Especializado em EDA: Treinado especificamente para análise exploratória de dados
- Português brasileiro: Otimizado para respostas em português
- Leve e eficiente: Baseado no Qwen2.5-1.5B-Instruct (1.5 bilhões de parâmetros)
🚀 Uso rápido
Carregamento direto (sem PEFT)
from transformers import AutoTokenizer, AutoModelForCausalLM, pipeline
model_id = "beAnalytic/eda-llm-beAnalityc"
tokenizer = AutoTokenizer.from_pretrained(model_id)
model = AutoModelForCausalLM.from_pretrained(model_id)
pipe = pipeline(
"text-generation",
model=model,
tokenizer=tokenizer
)
messages = [
{"role": "system", "content": "Você é um assistente especialista em análise de dados."},
{"role": "user", "content": "Explique o que é uma análise exploratória de dados."}
]
output = pipe(messages, max_new_tokens=300)
print(output[0]["generated_text"])
Usando Hugging Face Inference Endpoints
from huggingface_hub import InferenceClient
client = InferenceClient(
endpointUrl="https://s7yhxfifh79q686l.us-east4.gcp.endpoints.huggingface.cloud"
)
response = client.text_generation(
prompt="Explique o que é uma análise exploratória de dados.",
max_new_tokens=300,
temperature=0.2
)
print(response)
📊 Casos de uso
- Geração automática de insights a partir de dados
- Explicação de métricas estatísticas
- Análise exploratória de dados (EDA)
- Interpretação de visualizações
- Recomendações de análise de dados
🔧 Requisitos
pip install transformers torch accelerate
📝 Notas
Este modelo foi criado através de fine-tuning com LoRA e posteriormente merged com o modelo base. O modelo merged pode ser usado diretamente sem a biblioteca PEFT, facilitando o deploy em produção.
- Downloads last month
- 117