|
|
--- |
|
|
license: mit |
|
|
language: |
|
|
- es |
|
|
base_model: |
|
|
- meta-llama/Llama-3.1-8B-Instruct |
|
|
--- |
|
|
# 🤖 Interius LLM — Strategic Marketing Agent |
|
|
|
|
|
Este modelo ha sido afinado con **QLoRA** sobre `LLaMA 3.1` para funcionar como un asesor inteligente de estrategias publicitarias. Forma parte de la plataforma **Interius**, un sistema que optimiza campañas digitales para instituciones educativas en LATAM. |
|
|
|
|
|
## 📦 Dataset de Entrenamiento |
|
|
Entrenado con un dataset instructivo de más de 300 ejemplos tipo Alpaca con el siguiente formato: |
|
|
|
|
|
- `instruction`: qué pregunta el usuario |
|
|
- `input`: contexto adicional |
|
|
- `output`: respuesta estructurada en copywriting, asignación de presupuesto, targeting y más |
|
|
|
|
|
## 🎯 Casos de uso esperados |
|
|
- Simulación de estrategias publicitarias |
|
|
- Generación de copys persuasivos |
|
|
- Evaluación de canales según eficiencia |
|
|
- Asistencia a ejecutivos de cuentas en agencias |
|
|
|
|
|
## ⚙️ Detalles técnicos |
|
|
- Base model: `meta-llama/Llama-3.2-1B` |
|
|
- Técnica: `QLoRA` + `PEFT` |
|
|
- Tokenizer adaptado |
|
|
- Parámetros entrenables: solo LoRA adapters |
|
|
- Máximo contexto: 512 tokens |
|
|
|
|
|
## 🧠 Ejemplo de uso |
|
|
```python |
|
|
from transformers import AutoModelForCausalLM, AutoTokenizer |
|
|
import torch |
|
|
|
|
|
model = AutoModelForCausalLM.from_pretrained("RafaM97/Interius-LLM", device_map="auto", torch_dtype=torch.float16) |
|
|
tokenizer = AutoTokenizer.from_pretrained("RafaM97/Interius-LLM") |
|
|
|
|
|
prompt = "¿Cómo distribuir $50,000 entre Google y Meta para una campaña educativa en Monterrey?" |
|
|
inputs = tokenizer(prompt, return_tensors="pt").to("cuda") |
|
|
outputs = model.generate(**inputs, max_new_tokens=300) |
|
|
print(tokenizer.decode(outputs[0], skip_special_tokens=True)) |
|
|
|
|
|
|
|
|
--- |
|
|
license: mit |
|
|
--- |