You need to agree to share your contact information to access this model

This repository is publicly accessible, but you have to accept the conditions to access its files and content.

Log in or Sign Up to review the conditions and access this model content.

🧠 EDA LLM – BeAnalytic

Modelo fine-tuned completo (merged) a partir do Qwen2.5-1.5B-Instruct, originalmente treinado com LoRA e posteriormente merged para análise exploratória de dados (EDA), métricas, insights e explicações analíticas em linguagem natural.

✨ Características

  • Modelo merged completo: Não requer PEFT/LoRA para uso
  • Especializado em EDA: Treinado especificamente para análise exploratória de dados
  • Português brasileiro: Otimizado para respostas em português
  • Leve e eficiente: Baseado no Qwen2.5-1.5B-Instruct (1.5 bilhões de parâmetros)

🚀 Uso rápido

Carregamento direto (sem PEFT)

from transformers import AutoTokenizer, AutoModelForCausalLM, pipeline

model_id = "beAnalytic/eda-llm-beAnalityc"

tokenizer = AutoTokenizer.from_pretrained(model_id)
model = AutoModelForCausalLM.from_pretrained(model_id)

pipe = pipeline(
    "text-generation",
    model=model,
    tokenizer=tokenizer
)

messages = [
    {"role": "system", "content": "Você é um assistente especialista em análise de dados."},
    {"role": "user", "content": "Explique o que é uma análise exploratória de dados."}
]

output = pipe(messages, max_new_tokens=300)
print(output[0]["generated_text"])

Usando Hugging Face Inference Endpoints

from huggingface_hub import InferenceClient

client = InferenceClient(
    endpointUrl="https://s7yhxfifh79q686l.us-east4.gcp.endpoints.huggingface.cloud"
)

response = client.text_generation(
    prompt="Explique o que é uma análise exploratória de dados.",
    max_new_tokens=300,
    temperature=0.2
)

print(response)

📊 Casos de uso

  • Geração automática de insights a partir de dados
  • Explicação de métricas estatísticas
  • Análise exploratória de dados (EDA)
  • Interpretação de visualizações
  • Recomendações de análise de dados

🔧 Requisitos

pip install transformers torch accelerate

📝 Notas

Este modelo foi criado através de fine-tuning com LoRA e posteriormente merged com o modelo base. O modelo merged pode ser usado diretamente sem a biblioteca PEFT, facilitando o deploy em produção.

Downloads last month
117
Safetensors
Model size
2B params
Tensor type
BF16
·
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Model tree for beAnalytic/eda-llm-beAnalityc

Base model

Qwen/Qwen2.5-1.5B
Finetuned
(1388)
this model

Space using beAnalytic/eda-llm-beAnalityc 1